PEFT
Safetensors
Transformers
English
text-generation-inference
unsloth
llama
trl
heegyu's picture
Update README.md
596ff5f verified
---
base_model: MLP-KTLim/llama-3-Korean-Bllossom-8B
language:
- en
license: apache-2.0
tags:
- text-generation-inference
- transformers
- unsloth
- llama
- trl
datasets:
- lcw99/wikipedia-korean-20240501-1million-qna
library_name: peft
---
<img src="https://huggingface.co/iknow-lab/ko-genstruct-v0.1/resolve/main/image.webp" />
# 0725-ko-genstruct-v0.2-simple-qa
Ko-genstruct๋Š” ์ฃผ์–ด์ง„ ๋ฌธ์„œ๋กœ๋ถ€ํ„ฐ Instruction Tuning ๋ฐ์ดํ„ฐ๋ฅผ ์ƒ์„ฑํ•ด๋‚ด๋Š” ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค.
| ๋ชจ๋ธ | ์œ ํ˜• |
|-----|-----|
| [iknow-lab/0725-ko-genstruct-v0.2-simple-qa](https://huggingface.co/iknow-lab/0725-ko-genstruct-v0.2-simple-qa) | ๋‹จ์ˆœํ•œ ์งˆ๋ฌธ๊ณผ ๋‹ต๋ณ€ ์ƒ์„ฑ |
| [iknow-lab/0725-ko-genstruct-v0.2-writing](https://huggingface.co/iknow-lab/0725-ko-genstruct-v0.2-writing) | ๊ธ€์“ฐ๊ธฐ ์ง€์‹œ๋ฌธ๊ณผ ๋‹ต๋ณ€ ์ƒ์„ฑ |
| [iknow-lab/0725-ko-genstruct-v0.2-creative-writing](https://huggingface.co/iknow-lab/0725-ko-genstruct-v0.2-creative-writing) | ์ฐฝ์˜์ ์ธ ๊ธ€์“ฐ๊ธฐ ์ง€์‹œ๋ฌธ๊ณผ ๋‹ต๋ณ€ ์ƒ์„ฑ |
์ด ๋ชจ๋ธ์€ [Ada-instruct](https://arxiv.org/abs/2310.04484)์™€ [Genstruct](https://huggingface.co/NousResearch/Genstruct-7B)๋กœ๋ถ€ํ„ฐ ์˜๊ฐ์„ ๋ฐ›์•˜์Šต๋‹ˆ๋‹ค.
๋‹ค์Œ๊ณผ ๊ฐ™์€ ์šฉ๋„๋กœ ํ™œ์šฉํ•  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.
- ๊ฒ€์ƒ‰ ๋ชจ๋ธ์„ ํ•™์Šตํ•˜๊ธฐ ์œ„ํ•ด ์ฃผ์–ด์ง„ ํ…์ŠคํŠธ๋กœ๋ถ€ํ„ฐ ์งˆ๋ฌธ์„ ์ƒ์„ฑํ•˜๊ธฐ
- ๋ณด์œ ํ•œ ๋ฐ์ดํ„ฐ๋ฅผ ์ด์šฉํ•˜์—ฌ Instruction Tuning ํ•™์Šต ๋ฐ์ดํ„ฐ๋ฅผ ์ƒ์„ฑ
# ์‚ฌ์šฉ๋ฐฉ๋ฒ•
## ์ƒ์„ฑ ์˜ˆ์ œ
**์ฃผ์˜**: simple-qa ๋ชจ๋ธ์€ ์ƒ์„ฑํ•˜๋Š” ์งˆ๋ฌธ์˜ ๋‹ค์–‘์„ฑ์ด ๋‚ฎ์Šต๋‹ˆ๋‹ค. ๋”ฐ๋ผ์„œ ๊ธด ํ…์ŠคํŠธ๋ฅผ ํ†ต์งธ๋กœ ์ฃผ๊ธฐ๋ณด๋‹ค ์ ๋‹นํ•œ ๊ทœ๋ชจ๋กœ ์ž˜๋ผ์„œ ์‚ฌ์šฉํ•˜์‹œ๊ธฐ๋ฅผ ๊ถŒ์žฅํ•ฉ๋‹ˆ๋‹ค.
```python
import transformers
transformers.logging.set_verbosity_error()
import transformers
import peft
model_id = "MLP-KTLim/llama-3-Korean-Bllossom-8B"
peft_model_id = "iknow-lab/0725-ko-genstruct-v0.2-simple-qa"
tokenizer = transformers.AutoTokenizer.from_pretrained(model_id)
model = transformers.AutoModelForCausalLM.from_pretrained(model_id, device_map="cuda:0", torch_dtype="auto").eval()
model.load_adapter(peft_model_id)
text = """7์ผ(ํ˜„์ง€์‹œ๊ฐ„) ์น˜๋Ÿฌ์ง„ ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์„ ๋ˆ„๋ฅด๊ณ  1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. 1์ฐจ ํˆฌํ‘œ์—์„œ 1์œ„๋ฅผ ์ฐจ์ง€ํ•˜๋ฉฐ ์ด์„  ๊ธฐ๊ฐ„ ๋‚ด๋‚ด ์ง€์ง€์œจ 1์œ„์˜€๋˜ RN์€ ๋ฒ”์—ฌ๊ถŒ๊ณผ ์ขŒํŒŒ์˜ ๋‹จ์ผํ™” ๋ฒฝ์— ๋ถ€๋”ชํ˜€ 3์œ„๋กœ ๋ฐ€๋ ค๋‚ฌ๋‹ค.
8์ผ ํ”„๋ž‘์Šค ๋‚ด๋ฌด๋ถ€์— ๋”ฐ๋ฅด๋ฉด ์ด์„  ๊ฒฐ์„  ํˆฌํ‘œ ๊ฒฐ๊ณผ, NFP๊ฐ€ ํ•˜์› 577์„ ์ค‘ 182์„์„ ์–ป์–ด ์›๋‚ด 1๋‹น ์ž๋ฆฌ์— ์˜ฌ๋ž๋‹ค. ์—๋งˆ๋‰˜์—˜ ๋งˆํฌ๋กฑ ๋Œ€ํ†ต๋ น์˜ ๋ฅด๋„ค์ƒ์Šค๋‹น์„ ์ค‘์‹ฌ์œผ๋กœ ํ•œ ์—ฌ๊ถŒ ์—ฐํ•ฉ ์•™์ƒ๋ธ”์€ 168์„์œผ๋กœ 2์œ„๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. RN์€ 143์„์„ ์–ป๋Š” ๋ฐ ๊ทธ์ณค๋‹ค.
RN์€ ์ง€๋‚œ๋‹ฌ 30์ผ 1์ฐจ ํˆฌํ‘œ์—์„œ 33.2%๋ฅผ ๋“ํ‘œํ•ด 1์œ„์— ์˜ค๋ฅด๋ฉด์„œ 2์ฐจ ๊ฒฐ์„ ํˆฌํ‘œ์—์„œ 240โˆผ270์„์„ ์–ป์„ ๊ฒƒ์œผ๋กœ ์ „๋ง๋๋‹ค. ํ•˜์ง€๋งŒ ๊ทน์šฐ ์ง‘๊ถŒ์„ ๋ง‰๊ธฐ ์œ„ํ•ด NFP์™€ ์•™์ƒ๋ธ”์ด ๋Œ€๋Œ€์ ์ธ ํ›„๋ณด ๋‹จ์ผํ™”์— ๋‚˜์„œ๋ฉด์„œ ํŒ์„ธ๊ฐ€ ๋’ค์ง‘ํ˜”๋‹ค. RN์˜ ์กฐ๋ฅด๋‹น ๋ฐ”๋ฅด๋ธ๋ผ ๋Œ€ํ‘œ๋Š” โ€œ๋ถˆ๋ช…์˜ˆ์Šค๋Ÿฌ์šด ๋™๋งน์ด ํ”„๋ž‘์Šค๋ฅผ ๊ทน์ขŒ์˜ ํ’ˆ์— ๋˜์ง€๊ณ  ์žˆ๋‹คโ€๋ฉฐ โ€œ์šฐ๋ฆฌ๋Š” ํ”„๋ž‘์Šค ๊ตญ๋ฏผ์˜ ํŽธ์— ์„ค ๊ฒƒโ€์ด๋ผ๊ณ  ํ•œ์ธต ๊ฐ•๊ฒฝํ•œ ๋Œ€์ •๋ถ€ ํˆฌ์Ÿ์„ ์˜ˆ๊ณ ํ–ˆ๋‹ค.
์ด์„  ๊ฒฐ๊ณผ ์›๋‚ด 1๋‹น์„ ์ฐจ์ง€ํ•˜๊ฒŒ ๋œ NFP๋Š” ์ •๋ถ€ ์šด์˜์— ๋‚˜์„ค ๋œป์„ ๋ถ„๋ช…ํžˆ ํ•ด 27๋…„ ๋งŒ์— ๋™๊ฑฐ์ •๋ถ€๊ฐ€ ๋“ค์–ด์„ค ๊ฒƒ์œผ๋กœ ๋ณด์ธ๋‹ค. NFP ์†Œ์†์ธ ๊ตด๋ณตํ•˜์ง€์•Š๋Š”ํ”„๋ž‘์Šค(LFI)์˜ ์žฅ๋คผํฌ ๋ฉœ๋ž‘์ˆ‘ ๋Œ€ํ‘œ๋Š” โ€œ์œ ๊ถŒ์ž๋“ค์ด ๋ถˆ๊ฐ€๋Šฅํ•  ๊ฒƒ์œผ๋กœ ์—ฌ๊ฒจ์ง„ ์ขŒํŒŒ์—ฐํ•ฉ์˜ ์Šน๋ฆฌ๋ฅผ ๋งŒ๋“ค์–ด๋ƒˆ๋‹คโ€๋ฉฐ โ€œ์ขŒํŒŒ์—ฐํ•ฉ์€ ์ง‘๊ถŒํ•  ์ค€๋น„๊ฐ€ ๋ผ ์žˆ๋‹คโ€๊ณ  ๋งํ–ˆ๋‹ค. NFP ์†Œ์† ์‚ฌํšŒ๋‹น์˜ ์˜ฌ๋ฆฌ๋น„์— ํฌ๋ฅด ๋Œ€ํ‘œ๋„ โ€œํ”„๋ž‘์Šค๋Š” RN์ด ์ง‘๊ถŒํ•˜๋Š” ๊ฒƒ์„ ๊ฑฐ๋ถ€ํ–ˆ๋‹คโ€๋ฉฐ โ€œNFP๊ฐ€ ์šฐ๋ฆฌ ์—ญ์‚ฌ์˜ ์ƒˆ๋กœ์šด ํŽ˜์ด์ง€๋ฅผ ์ฑ…์ž„์ ธ์•ผ ํ•œ๋‹คโ€๊ณ  ๊ฐ•์กฐํ–ˆ๋‹ค.
# ํ•œํŽธ ๊ฐ€๋ธŒ๋ฆฌ์—˜ ์•„ํƒˆ ์ด๋ฆฌ๋Š” ์•™์ƒ๋ธ”์ด 1๋‹น ์ง€์œ„๋ฅผ ํ™•๋ณดํ•˜์ง€ ๋ชปํ•œ ๋ฐ ๋Œ€ํ•ด ์ฑ…์ž„์„ ์ง€๊ฒ ๋‹ค๋ฉฐ ๋Œ€ํ†ต๋ น์—๊ฒŒ ์‚ฌ์˜๋ฅผ ํ‘œํ•˜๊ฒ ๋‹ค๊ณ  ๋ฐํ˜”๋‹ค."""
PROMPT_QA = """์ฃผ์–ด์ง„ ํ…์ŠคํŠธ ์ปจํ…์ธ ๋ฅผ ์ฐธ๊ณ ํ•˜์—ฌ ์งˆ๋ฌธ๊ณผ ์ •ํ™•ํ•˜๊ณ  ์ƒ์„ธํ•œ ๋‹ต๋ณ€์„ ๋งŒ๋“œ์„ธ์š”, ๋Œ€๋‹ต์€ ์•„๋ž˜ ํ˜•ํƒœ๋กœ ์ž‘์„ฑํ•˜์„ธ์š”
**๋‹ต๋ณ€ ํ˜•์‹**
[[Q]] ์ง€์‹œ๋ฌธ
[[A]] ๋‹ต๋ณ€
---
{text}"""
def generate_question(text):
prompt = PROMPT_QA.format(text=text)
prompt = [{"content": prompt, "role": "user"}]
inputs = tokenizer.apply_chat_template(prompt, return_tensors="pt", add_generation_prompt=True, tokenize=False)
inputs = inputs.strip()
inputs = tokenizer.encode(inputs, add_special_tokens=False, return_tensors="pt").to(model.device)
outputs = model.generate(input_ids=inputs, max_new_tokens=256, do_sample=True, early_stopping=True, eos_token_id=128009, temperature=1.0)
question = tokenizer.decode(outputs[0, inputs.shape[1]:], skip_special_tokens=True)
return question
for _ in range(5):
question = generate_question(text)
print(question)
```
## ์ƒ์„ฑ ๊ฒฐ๊ณผ
```
[[Q]] ํ”„๋ž‘์Šค ์ด์„  ๊ฒฐ์„  ๊ฒฐ๊ณผ์— ๋Œ€ํ•ด ๊ฐ„๋‹จํžˆ ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”.
[[A]] ํ”„๋ž‘์Šค ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ•˜์˜€์œผ๋ฉฐ, ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์€ 3์œ„๋ฅผ ์ฐจ์ง€ํ•˜์˜€์Šต๋‹ˆ๋‹ค. 1์ฐจ ํˆฌํ‘œ์—์„œ 1์œ„๋ฅผ ์ฐจ์ง€ํ•œ RN์€ ๋ฒ”์—ฌ๊ถŒ๊ณผ ์ขŒํŒŒ์˜ ๋‹จ์ผํ™” ๋ฒฝ์— ๋ถ€๋”ชํ˜€ 3์œ„๋กœ ๋ฐ€๋ ค๋‚ฌ์Šต๋‹ˆ
๋‹ค. NFP๋Š” ํ•˜์› 577์„ ์ค‘ 182์„์„ ์–ป์–ด ์›๋‚ด 1๋‹น ์ž๋ฆฌ์— ์˜ฌ๋ž์Šต๋‹ˆ๋‹ค. ์—๋งˆ๋‰˜์—˜ ๋งˆํฌ๋กฑ ๋Œ€ํ†ต๋ น์˜ ๋ฅด๋„ค์ƒ์Šค๋‹น์„ ์ค‘์‹ฌ์œผ๋กœ ํ•œ ์—ฌ๊ถŒ ์—ฐํ•ฉ ์•™์ƒ๋ธ”์€ 168์„์œผ๋กœ 2์œ„๋ฅผ ์ฐจ์ง€ํ•˜์˜€๊ณ , RN์€ 143์„์„ ์–ป๋Š” ๋ฐ ๊ทธ์ณค์Šต๋‹ˆ๋‹ค. RN์€ 2์ฐจ ๊ฒฐ์„ ํˆฌํ‘œ์—
์„œ 240โˆผ270์„์„ ์–ป์„ ๊ฒƒ์œผ๋กœ ์ „๋ง๋˜์—ˆ์ง€๋งŒ, ๊ทน์šฐ ์ง‘๊ถŒ์„ ๋ง‰๊ธฐ ์œ„ํ•ด NFP์™€ ์•™์ƒ๋ธ”์ด ๋Œ€๋Œ€์ ์ธ ํ›„๋ณด ๋‹จ์ผํ™”์— ๋‚˜์„œ๋ฉด์„œ ํŒ์„ธ๊ฐ€ ๋’ค์ง‘ํ˜”์Šต๋‹ˆ๋‹ค.
[[Q]] ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์„ ๋ˆ„๋ฅด๊ณ  1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. 1์ฐจ ํˆฌํ‘œ์—์„œ 1์œ„๋ฅผ ์ฐจ์ง€ํ•˜๋ฉฐ ์ด์„  ๊ธฐ๊ฐ„ ๋‚ด๋‚ด ์ง€์ง€์œจ 1์œ„์˜€๋˜ RN์€ ๋ฒ”์—ฌ๊ถŒ๊ณผ ์ขŒํŒŒ์˜ ๋‹จ์ผํ™” ๋ฒฝ์— ๋ถ€๋”ช
ํ˜€ 3์œ„๋กœ ๋ฐ€๋ ค๋‚ฌ๋‹ค. NFP๊ฐ€ ์ด์„  ๊ฒฐ์„  ํˆฌํ‘œ ๊ฒฐ๊ณผ ํ•˜์› 577์„ ์ค‘ 182์„์„ ์–ป์–ด ์›๋‚ด 1๋‹น ์ž๋ฆฌ์— ์˜ฌ๋ž๋‹ค. RN์€ ์ง€๋‚œ๋‹ฌ 30์ผ 1์ฐจ ํˆฌํ‘œ์—์„œ 33.2%๋ฅผ ๋“ํ‘œํ•ด 1์œ„์— ์˜ค๋ฅด๋ฉด์„œ 2์ฐจ ๊ฒฐ์„ ํˆฌํ‘œ์—์„œ 240โˆผ270์„์„ ์–ป์„ ๊ฒƒ์œผ๋กœ ์ „๋ง๋๋‹ค. ํ•˜์ง€๋งŒ
๊ทน์šฐ ์ง‘๊ถŒ์„ ๋ง‰๊ธฐ ์œ„ํ•ด NFP์™€ ์•™์ƒ๋ธ”์ด ๋Œ€๋Œ€์ ์ธ ํ›„๋ณด ๋‹จ์ผํ™”์— ๋‚˜์„œ๋ฉด์„œ ํŒ์„ธ๊ฐ€ ๋’ค์ง‘ํ˜”๋‹ค. NFP ์†Œ์†์ธ ๊ตด๋ณตํ•˜์ง€์•Š๋Š”ํ”„๋ž‘์Šค(LFI)์˜ ์žฅ๋คผํฌ ๋ฉœ๋ž‘์ˆ‘ ๋Œ€ํ‘œ๋Š” โ€œ์œ ๊ถŒ์ž๋“ค์ด ๋ถˆ๊ฐ€๋Šฅ
ใ„ด NOTE: ์ž˜๋ชป ์ƒ์„ฑ๋œ ์ผ€์ด์Šค ๐Ÿ˜ญ
[[Q]] ํ”„๋ž‘์Šค ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์„ ๋ˆ„๋ฅด๊ณ  1๋‹น ์ž๋ฆฌ์— ์˜ค๋ฅธ ์ด์œ ๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”?
[[A]] ํ”„๋ž‘์Šค ์ด์„  ๊ฒฐ์„ ์—์„œ NFP์€ ๊ทน์šฐ RN์„ ๋ˆ„๋ฅด๊ณ  1๋‹น ์ž๋ฆฌ์— ์˜ค๋ฅธ ์ด์œ ๋Š” ๋ฒ”์—ฌ๊ถŒ๊ณผ ์ขŒํŒŒ์˜ ๋‹จ์ผํ™” ๋ฒฝ์— ๋ถ€๋”ชํ˜€ RN์ด 3์œ„๋กœ ๋ฐ€๋ ค๋‚ฌ๊ธฐ ๋•Œ๋ฌธ์ž…๋‹ˆ๋‹ค. NFP์€ ์ง€๋‚œ 1์ฐจ ํˆฌํ‘œ์—์„œ 1์œ„๋ฅผ ์ฐจ์ง€ํ•˜๋ฉฐ ์ด์„  ๊ธฐ๊ฐ„ ๋‚ด๋‚ด ์ง€์ง€์œจ 1์œ„๋ฅผ ์ฐจ์ง€ํ–ˆ์ง€
๋งŒ, RN์€ ๊ทน์šฐ ์ง‘๊ถŒ์„ ๋ง‰๊ธฐ ์œ„ํ•ด NFP์™€ ์•™์ƒ๋ธ”์ด ๋Œ€๋Œ€์ ์ธ ํ›„๋ณด ๋‹จ์ผํ™”์— ๋‚˜์„œ๋ฉด์„œ ํŒ์„ธ๊ฐ€ ๋’ค์ง‘ํ˜”์Šต๋‹ˆ๋‹ค. ์ด๋กœ ์ธํ•ด NFP์€ 182์„์„ ์–ป์–ด ์›๋‚ด 1๋‹น ์ž๋ฆฌ์— ์˜ฌ๋ž์Šต๋‹ˆ๋‹ค.
[[Q]] 7์ผ ์น˜๋Ÿฌ์ง„ ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์–ด๋–ค ๊ฒฐ๊ณผ๊ฐ€ ๋‚˜์™”๊ณ , ์ด๋Š” ์˜ˆ์ƒ์„ ์–ด๋–ป๊ฒŒ ๊นจ๋œจ๋ ธ๋Š”์ง€ ์„ค๋ช…ํ•ด ์ฃผ์‹ค ์ˆ˜ ์žˆ์„๊นŒ์š”?
[[A]] ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์„ ๋ˆ„๋ฅด๊ณ  1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. 1์ฐจ ํˆฌํ‘œ์—์„œ 1์œ„๋ฅผ ์ฐจ์ง€ํ•˜๋ฉฐ ์ด์„  ๊ธฐ๊ฐ„ ๋‚ด๋‚ด ์ง€์ง€์œจ 1์œ„๋ฅผ ์ฐจ์ง€ํ–ˆ๋˜ RN์€ ๋ฒ”์—ฌ๊ถŒ๊ณผ ์ขŒํŒŒ์˜ ๋‹จ์ผํ™” ๋ฒฝ
์— ๋ถ€๋”ชํ˜€ 3์œ„๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. NFP๋Š” ํ•˜์› 577์„ ์ค‘ 182์„์„ ์–ป์–ด ์›๋‚ด 1๋‹น ์ž๋ฆฌ์— ์˜ฌ๋ž์œผ๋ฉฐ, ์—๋งˆ๋‰˜์—˜ ๋งˆํฌ๋กฑ ๋Œ€ํ†ต๋ น์˜ ๋ฅด๋„ค์ƒ์Šค๋‹น์„ ์ค‘์‹ฌ์œผ๋กœ ํ•œ ์—ฌ๊ถŒ ์—ฐํ•ฉ ์•™์ƒ๋ธ”์€ 168์„์œผ๋กœ 2์œ„๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. RN์€ 143์„์„ ์–ป๋Š” ๋ฐ ๊ทธ์ณค๋‹ค. NFP์˜
์Šน๋ฆฌ๋Š” RN์ด ์ง‘๊ถŒํ•˜๋Š” ๊ฒƒ์„ ๊ฑฐ๋ถ€ํ•œ ์œ ๊ถŒ์ž๋“ค์˜ ์ง€์ง€๋ฅผ ๋ฐ›์€ ๊ฒฐ๊ณผ๋กœ ๋ณด์ธ๋‹ค.
[[Q]] ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์–ด๋–ค ์ •๋‹น์ด 1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ•˜์˜€๊ณ , ์–ด๋–ค ์ •๋‹น์ด 3์œ„์— ๋จธ๋ฌผ๋ €์„๊นŒ์š”?
[[A]] ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ•˜์˜€๊ณ , ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์ด 3์œ„์— ๋จธ๋ฌผ๋ €์Šต๋‹ˆ๋‹ค.
```
# Model
- **Developed by:** iknow-lab
- **License:** apache-2.0
- **Finetuned from model :** MLP-KTLim/llama-3-Korean-Bllossom-8B
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)