--- task_categories: - text-generation --- # Google/Music-Capsの音声データをスペクトログラム化したデータ。 * Music Cpasとは:https://huggingface.co/datasets/google/MusicCaps * GrayScaleじゃないほうもあるから見てね(⋈◍>◡<◍)。✧♡(これ) ## 基本情報 * sampling_rate: int = 44100 ## 使い方 ### 0: データセットをダウンロード ```py from datasets import load_dataset data = load_dataset("mickylan2367/spectrogram") data = data["train"] ``` ### 1: データ型をtorchへ ```py from datasets import Dataset train = Dataset.from_dict(data[slice(0, 400, None)]) // 訓練データとして400枚ほど抽出 train = train.with_format("torch") ``` ## 参考資料とメモ * (memo)ぶっちゃけグレースケールもカラーバージョンをtorchvision.transformのグレースケール変換すればいいだけかも? * ダウンロードに使ったコードはこちら * 参考:https://www.kaggle.com/code/osanseviero/musiccaps-explorer * 仕組み:Kaggleの参考コードでwavファイルをダウンロードする->スペクトログラムつくりながらmetadata.jsonlに ``` {"filename":"spectrogram_*.png", "caption":"This is beautiful music"} ``` をなどと言ったjson列を書き込み、これをアップロードした * Huggingfaceのデータビューアが動かなくなったら、一度GoogleColabでそのデータセットをダウンロードしてみることもおすすめ 意外とHuggingfaceがバグっているだけかも(実話(´;ω;`))