DataPilot commited on
Commit
54ae212
·
verified ·
1 Parent(s): 87319d3
Files changed (1) hide show
  1. README.md +62 -0
README.md CHANGED
@@ -1,3 +1,65 @@
1
  ---
2
  license: apache-2.0
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
  license: apache-2.0
3
+ inference: false
4
+ language: ja
5
  ---
6
+
7
+ ## 概要
8
+
9
+ 「LOCAL AI HACKATHON」における、チームDataPilot,3つめの成果品です。Line社が開発した「japanese-large-lm-3.6b-instruction-sft」をウィキブックの内容をもとに中学、高校範囲にてファインチューニングを行いました。
10
+
11
+ ## how to use
12
+
13
+ ```python
14
+ import torch
15
+ from transformers import AutoModelForSequenceClassification
16
+ from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline #transformerとtorchがインストールされていることを前提とします。
17
+
18
+ model = AutoModelForCausalLM.from_pretrainedmodel = AutoModelForCausalLM.from_pretrained("DataPilot/ArrowSmartPlus_3.6B_instant_sft")
19
+ tokenizer = AutoTokenizer.from_pretrained("DataPilot/ArrowSmartPlus_3.6B_instant_sft")
20
+
21
+ generator = pipeline("text-generation", model=model, tokenizer=tokenizer, device=0)
22
+
23
+ torch.cuda.empty_cache()
24
+
25
+ input_text = """有機物とは"""
26
+ text = generator(
27
+ f"ユーザー: {input_text} システム: ",
28
+ max_length = 100,
29
+ do_sample = True,
30
+ temperature = 0.7,
31
+ top_p = 0.9,
32
+ top_k = 0,
33
+ repetition_penalty = 1.1,
34
+ num_beams = 1,
35
+ pad_token_id = tokenizer.pad_token_id,
36
+ num_return_sequences = 1,
37
+ )
38
+
39
+ print(text)
40
+
41
+ ```
42
+
43
+ ## トークン化:
44
+
45
+ ユニグラム言語モデルとバイトフォールバックを備えたセンテンスピーストークナイザー(sentencepiece tokenizer)を使用します。日本語トークナイザーによる事前トークン化は適用されません。したがって、ユーザーは生の文をトークナイザーに直接フィードできます。
46
+
47
+ ## ライセンス:
48
+
49
+ 当LLMはオープンソースソフトウェアです。詳しくは下記のリンクをご覧ください。
50
+ https://www.apache.org/licenses/LICENSE-2.0
51
+
52
+ ## 謝辞:
53
+
54
+ 機材を貸していただいた Witnessさん 、このような機会を与えてくださった さるどらさん 、その他助言を与えてくださった「ローカルLLMに向き合う会」のみなさま、そしてすべての関係者の皆様に感謝を申し上げます。
55
+
56
+ witnessさん:
57
+ https://twitter.com/i_witnessed_it
58
+
59
+
60
+ さるどらさん:
61
+ https://twitter.com/sald_ra
62
+
63
+
64
+ ローカルLLMに向き合う会:
65
+ https://discord.com/invite/VuYCYkYaHK