YAML Metadata
Warning:
empty or missing yaml metadata in repo card
(https://huggingface.co/docs/hub/model-cards#model-card-metadata)
📄 LLaMA 3 LoRA Resume Matching Model (R=64)
이 모델은 Meta-Llama-3.1-8B-bnb-4bit 모델을 기반으로, 한국어 이력서 및 자기소개서와 채용공고 간의 적합도를 평가하기 위한 LoRA 파인튜닝 모델입니다.
📚 학습 데이터셋
- 총 74,147개 샘플
- Hugging Face: Youseff1987/resume-matching-dataset-v2
- 모든 jobpost는 가상의 정보입니다.
- 이력서(resume)와 자기소개서(selfintro)는 GPT-4o 기반으로 생성되었으며, 실제 인물과 무관합니다.
🗂️ 데이터셋 포맷
컬럼명 | 설명 |
---|---|
jobpost |
채용공고 (가상) |
resume_grade |
이력서 등급 (상/중/하) |
selfintro_grade |
자기소개서 등급 (상/중/하) |
resume |
이력서 본문 |
selfintro |
자기소개서 본문 |
evaluation |
GPT 기반 평가 결과 (문장) |
total_score |
총점 (100점 만점) |
resume_score |
이력서 점수 (50점 만점) |
selfintro_score |
자기소개서 점수 (50점 만점) |
🧠 학습 설정
- 모델:
unsloth/Meta-Llama-3.1-8B-bnb-4bit
- 기법: LoRA 파인튜닝 (Rank=64, Alpha=64)
- 플랫폼: RunPod (12vCPU / 25GB RAM)
🧪 사용 예시
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("jminc/llama3-lora-resume-matching-r64/tokenizer")
model = AutoModelForCausalLM.from_pretrained("jminc/llama3-lora-resume-matching-r64")
inputs = tokenizer("이력서 평가 프롬프트", return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=256)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
⚠️ 주의
- 본 모델은 연구 및 교육 목적에 한하여 사용할 수 있습니다.
- 실제 인사 평가 또는 채용 결정에는 사용하지 마세요.
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
HF Inference deployability: The model has no library tag.