|
--- |
|
license: other |
|
license_name: tongyi-qianwen |
|
license_link: LICENSE |
|
tags: |
|
- qwen |
|
--- |
|
|
|
# rinna-nekomata-7b-instruction |
|
[rinnaさんが公開しているnekomata-7b-instruction](https://huggingface.co/rinna/nekomata-7b-instruction)のggufフォーマット変換版です。 |
|
|
|
モデル一覧 |
|
|
|
GGUF版 |
|
[mmnga/rinna-nekomata-7b-instruction-gguf](https://huggingface.co/mmnga/rinna-nekomata-7b-instruction-gguf) |
|
[mmnga/rinna-nekomata-14b-instruction-gguf](https://huggingface.co/mmnga/rinna-nekomata-14b-instruction-gguf) |
|
|
|
|
|
## Usage |
|
|
|
``` |
|
git clone https://github.com/ggerganov/llama.cpp.git |
|
cd llama.cpp |
|
make -j |
|
./main -m 'rinna-nekomata-7b-instruction-q4_0.gguf' -n 128 -p '### 指示:次の日本語を英語に翻訳してください。\n\n### 入力: 大規模言語モデル(だいきぼげんごモデル、英: large language model、LLM)は、多数のパラメータ(数千万から数十億)を持つ人工ニューラルネットワークで構成されるコンピュータ言語モデルで、膨大なラベルなしテキストを使用して自己教師あり学習または半教師あり学習によって訓練が行われる。 \n\n### 応答:' |
|
``` |
|
|
|
|
|
## Licence |
|
ライセンスがqwenの[Tongyi Qianwenライセンス](https://huggingface.co/mmnga/rinna-nekomata-7b-instruction-gguf/blob/main/LICENSE)なので内容をご確認ください |
|
|