belyakoff commited on
Commit
c8adb80
1 Parent(s): 9ff0e26

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +9 -1
README.md CHANGED
@@ -9,8 +9,12 @@ base_model:
9
  - HuggingFaceTB/SmolLM2-360M-Instruct
10
  pipeline_tag: text-generation
11
  ---
 
 
 
12
  v1: SFT -- 7658aab7702e56d9f5fa3b33bf7adcdae92f536b
13
 
 
14
 
15
  ```python
16
  from transformers import AutoModelForCausalLM, AutoTokenizer
@@ -28,4 +32,8 @@ inputs = tokenizer.encode(input_text, return_tensors="pt").to(device)
28
  outputs = model.generate(inputs, max_new_tokens=50, temperature=0.2, top_p=0.9, do_sample=True)
29
  print(tokenizer.decode(outputs[0]))
30
  # Столица России — Москва. Это один из самых известных и культурно значимых городов в мире.
31
- ```
 
 
 
 
 
9
  - HuggingFaceTB/SmolLM2-360M-Instruct
10
  pipeline_tag: text-generation
11
  ---
12
+
13
+ ## Versions
14
+
15
  v1: SFT -- 7658aab7702e56d9f5fa3b33bf7adcdae92f536b
16
 
17
+ ## Example
18
 
19
  ```python
20
  from transformers import AutoModelForCausalLM, AutoTokenizer
 
32
  outputs = model.generate(inputs, max_new_tokens=50, temperature=0.2, top_p=0.9, do_sample=True)
33
  print(tokenizer.decode(outputs[0]))
34
  # Столица России — Москва. Это один из самых известных и культурно значимых городов в мире.
35
+ ```
36
+
37
+ ## Limitations
38
+
39
+ Don't use system prompt. Using system prompt will make the model go crazy.