YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

📄 LLaMA 3 LoRA Resume Matching Model (R=64)

이 모델은 Meta-Llama-3.1-8B-bnb-4bit 모델을 기반으로, 한국어 이력서 및 자기소개서와 채용공고 간의 적합도를 평가하기 위한 LoRA 파인튜닝 모델입니다.

📚 학습 데이터셋

  • 총 74,147개 샘플
  • Hugging Face: Youseff1987/resume-matching-dataset-v2
  • 모든 jobpost는 가상의 정보입니다.
  • 이력서(resume)와 자기소개서(selfintro)는 GPT-4o 기반으로 생성되었으며, 실제 인물과 무관합니다.

🗂️ 데이터셋 포맷

컬럼명 설명
jobpost 채용공고 (가상)
resume_grade 이력서 등급 (상/중/하)
selfintro_grade 자기소개서 등급 (상/중/하)
resume 이력서 본문
selfintro 자기소개서 본문
evaluation GPT 기반 평가 결과 (문장)
total_score 총점 (100점 만점)
resume_score 이력서 점수 (50점 만점)
selfintro_score 자기소개서 점수 (50점 만점)

🧠 학습 설정

  • 모델: unsloth/Meta-Llama-3.1-8B-bnb-4bit
  • 기법: LoRA 파인튜닝 (Rank=64, Alpha=64)
  • 플랫폼: RunPod (12vCPU / 25GB RAM)

🧪 사용 예시

from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("jminc/llama3-lora-resume-matching-r64/tokenizer")
model = AutoModelForCausalLM.from_pretrained("jminc/llama3-lora-resume-matching-r64")

inputs = tokenizer("이력서 평가 프롬프트", return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=256)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

⚠️ 주의

  • 본 모델은 연구 및 교육 목적에 한하여 사용할 수 있습니다.
  • 실제 인사 평가 또는 채용 결정에는 사용하지 마세요.
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support