---
task_categories:
- text-generation
---
# Google/Music-Capsの音声データをスペクトログラム化したデータ。
* Music Cpasとは:https://huggingface.co/datasets/google/MusicCaps
* GrayScaleじゃないほうもあるから見てね(⋈◍>◡<◍)。✧♡(これ)
## 基本情報
* sampling_rate: int = 44100
## 使い方
### 0: データセットをダウンロード
```py
from datasets import load_dataset
data = load_dataset("mickylan2367/spectrogram")
data = data["train"]
```
### 1: データ型をtorchへ
```py
from datasets import Dataset
train = Dataset.from_dict(data[slice(0, 400, None)]) // 訓練データとして400枚ほど抽出
train = train.with_format("torch")
```
## 参考資料とメモ
* (memo)ぶっちゃけグレースケールもカラーバージョンをtorchvision.transformのグレースケール変換すればいいだけかも?
* ダウンロードに使ったコードはこちら
* 参考:https://www.kaggle.com/code/osanseviero/musiccaps-explorer
* 仕組み:Kaggleの参考コードでwavファイルをダウンロードする->スペクトログラムつくりながらmetadata.jsonlに
```
{"filename":"spectrogram_*.png", "caption":"This is beautiful music"}
```
をなどと言ったjson列を書き込み、これをアップロードした
* Huggingfaceのデータビューアが動かなくなったら、一度GoogleColabでそのデータセットをダウンロードしてみることもおすすめ
意外とHuggingfaceがバグっているだけかも(実話(´;ω;`))