Update app.py
Browse files
app.py
CHANGED
@@ -46,14 +46,13 @@ def load_model():
|
|
46 |
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
47 |
model = AutoModelForCausalLM.from_pretrained(
|
48 |
model_id,
|
49 |
-
device_map="auto", #
|
50 |
-
torch_dtype=torch.float16
|
51 |
)
|
52 |
pipe = pipeline(
|
53 |
"text-generation",
|
54 |
model=model,
|
55 |
tokenizer=tokenizer,
|
56 |
-
device=0 if torch.cuda.is_available() else -1,
|
57 |
max_new_tokens=512,
|
58 |
temperature=0.7,
|
59 |
repetition_penalty=1.2,
|
@@ -67,13 +66,10 @@ def generate_prompt(user_message, context_data):
|
|
67 |
prompt = f"""
|
68 |
### SISTEM:
|
69 |
Anda adalah asisten HRD yang membantu karyawan memahami administrasi perusahaan. Jawablah dengan Bahasa Indonesia yang profesional dan ramah. Jika tidak tahu, katakan tidak tahu dengan sopan. Jangan jawab dalam bahasa Inggris.
|
70 |
-
|
71 |
### DATA:
|
72 |
{context_data}
|
73 |
-
|
74 |
### PERTANYAAN:
|
75 |
{user_message}
|
76 |
-
|
77 |
### JAWABAN:
|
78 |
"""
|
79 |
return prompt.strip()
|
|
|
46 |
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
47 |
model = AutoModelForCausalLM.from_pretrained(
|
48 |
model_id,
|
49 |
+
device_map="auto", # ✅ Otomatis ke GPU
|
50 |
+
torch_dtype=torch.float16 # Ganti ke bfloat16 jika float16 bermasalah
|
51 |
)
|
52 |
pipe = pipeline(
|
53 |
"text-generation",
|
54 |
model=model,
|
55 |
tokenizer=tokenizer,
|
|
|
56 |
max_new_tokens=512,
|
57 |
temperature=0.7,
|
58 |
repetition_penalty=1.2,
|
|
|
66 |
prompt = f"""
|
67 |
### SISTEM:
|
68 |
Anda adalah asisten HRD yang membantu karyawan memahami administrasi perusahaan. Jawablah dengan Bahasa Indonesia yang profesional dan ramah. Jika tidak tahu, katakan tidak tahu dengan sopan. Jangan jawab dalam bahasa Inggris.
|
|
|
69 |
### DATA:
|
70 |
{context_data}
|
|
|
71 |
### PERTANYAAN:
|
72 |
{user_message}
|
|
|
73 |
### JAWABAN:
|
74 |
"""
|
75 |
return prompt.strip()
|