Datasets:
metadata
task_categories:
- text-generation
Google/Music-Capsの音声データをスペクトログラム化したデータ。
- Music Cpasとは:https://huggingface.co/datasets/google/MusicCaps
- GrayScaleじゃないほうもあるから見てね(⋈◍>◡<◍)。✧♡(これ)
基本情報
- sampling_rate: int = 44100
使い方
0: データセットをダウンロード
from datasets import load_dataset
data = load_dataset("mickylan2367/spectrogram")
data = data["train"]
1: データ型をtorchへ
from datasets import Dataset
train = Dataset.from_dict(data[slice(0, 400, None)]) // 訓練データとして400枚ほど抽出
train = train.with_format("torch")
参考資料とメモ
- (memo)ぶっちゃけグレースケールもカラーバージョンをtorchvision.transformのグレースケール変換すればいいだけかも?
- ダウンロードに使ったコードはこちら
- 参考:https://www.kaggle.com/code/osanseviero/musiccaps-explorer
- 仕組み:Kaggleの参考コードでwavファイルをダウンロードする->スペクトログラムつくりながらmetadata.jsonlに
をなどと言ったjson列を書き込み、これをアップロードした{"filename":"spectrogram_*.png", "caption":"This is beautiful music"}
- Huggingfaceのデータビューアが動かなくなったら、一度GoogleColabでそのデータセットをダウンロードしてみることもおすすめ 意外とHuggingfaceがバグっているだけかも(実話(´;ω;`))