lexitron2_prompt_finetune / telex_convert_to_qwen2_finetune.py
kobkrit's picture
Add more files
ed5837d
raw
history blame
6.21 kB
import csv
import random
import json
def create_training_data():
training_data = []
# Read CSV file
with open('telex-utf8.csv', 'r', encoding='utf-8') as f:
reader = csv.reader(f)
word_data = list(reader)
for row in word_data:
if len(row) < 11: # Skip incomplete rows
continue
thai_word = row[1]
english_syn = row[3]
category = row[4]
thai_syn = row[5]
example = row[6]
antonym = row[7]
definition = row[8]
related_eng = row[9]
unit_label = row[10]
if not thai_word: # Skip entries without Thai word
continue
# Create different types of prompts
prompt_types = [
f"คำว่า '{thai_word}' แปลว่าอะไร",
f"ช่วยอธิบายความหมายของคำว่า '{thai_word}'",
f"'{thai_word}' มีความหมายว่าอย่างไร",
f"ขอตัวอย่างประโยคของคำว่า '{thai_word}'",
f"ยกตัวอย่างการใช้คำว่า '{thai_word}'",
f"ช่วยอธิบายคำว่า '{thai_word}' หน่อย",
f"'{thai_word}' หมายถึงอะไร",
f"อยากทราบความหมายของคำว่า '{thai_word}'",
f"คำว่า '{thai_word}' ใช้ในบริบทไหนได้บ้าง",
f"ขอความหมายของคำว่า '{thai_word}'",
f"'{thai_word}' คืออะไร",
f"ช่วยยกตัวอย่างการใช้คำว่า '{thai_word}' ในประโยค",
f"คำว่า '{thai_word}' สามารถใช้ในประโยคอย่างไรได้บ้าง",
f"อยากรู้ว่าคำว่า '{thai_word}' ใช้ในประโยคยังไง",
f"ขอทราบความหมายและตัวอย่างการใช้คำว่า '{thai_word}'",
f"ช่วยอธิบายความหมายและยกตัวอย่างการใช้คำว่า '{thai_word}'",
f"'{thai_word}' มีวิธีใช้อย่างไร",
f"คำว่า '{thai_word}' มีความหมายและใช้อย่างไร",
f"อยากทราบรายละเอียดเกี่ยวกับคำว่า '{thai_word}'",
f"ขอคำอธิบายและตัวอย่างการใช้คำว่า '{thai_word}'"
]
# Randomly select prompt type
prompt = random.choice(prompt_types)
# Convert category abbreviation to full name
category_mapping = {
'N': 'Noun (คำนาม)',
'V': 'Verb (คำกริยา)',
'VT': 'Transitive Verb (คำกริยาที่ต้องการกรรม)',
'VI': 'Intransitive Verb (คำกริยาไม่ต้องการกรรม)',
'ADJ': 'Adjective (คำคุณศัพท์)',
'ADV': 'Adverb (คำวิเศษณ์)',
'PREP': 'Preposition (คำบุพบท)',
'CONJ': 'Conjunction (คำสันธาน)',
'CLAS': 'Classifier (คำลักษณนาม)',
'PRON': 'Pronoun (คำสรรพนาม)',
'DET': 'Determiner (คำกำหนด)',
'ABBR': 'Abbreviation (คำย่อ)'
}
# Map the abbreviated category to full name, default to original if not found
category = category_mapping.get(category, category)
# Create response based on available information
response = f"คำว่า '{thai_word}' เป็นคำประเภท {category}"
if english_syn:
response += f" แปลเป็นภาษาอังกฤษว่า {english_syn}"
if definition:
response += f"\nความหมาย: {definition}"
if thai_syn:
response += f"\nคำที่มีความหมายเหมือนกัน: {thai_syn}"
if antonym:
response += f"\nคำที่มีความหมายตรงข้าม: {antonym}"
if example:
response += f"\nตัวอย่างประโยค: {example}"
if unit_label:
response += f"\nลักษณนาม: {unit_label}"
if related_eng:
response += f"\nคำภาษาอังกฤษที่เกี่ยวข้อง: {related_eng}"
# Create data in both formats
# Format 1: Qwen2 conversation format
conversation = (
"<|im_start|>system\n"
"คุณคือผู้ช่วยตอบคำถามที่ฉลาดและซื่อสัตย์<|im_end|>\n"
f"<|im_start|>user\n{prompt}<|im_end|>\n"
f"<|im_start|>assistant\n{response}<|im_end|>"
)
# Format 2: JSONL format
json_data = {
"instruction": prompt,
"output": response
}
training_data.append((conversation, json_data))
return training_data
# Generate training data
training_examples = create_training_data()
# Write to output files
with open('lexitron2_telex_finetune.qwen2.txt', 'w', encoding='utf-8') as f:
for example, _ in training_examples:
example = example.replace('\n', '\\n')
f.write(example + '\n')
with open('lexitron2_telex_finetune.jsonl', 'w', encoding='utf-8') as f:
for _, json_data in training_examples:
f.write(json.dumps(json_data, ensure_ascii=False) + '\n')