Update README.md
Browse files
README.md
CHANGED
@@ -62,7 +62,7 @@ def predict(question, best_answer, student_answer, language):
|
|
62 |
system_message = "Analiza la pregunta, la respuesta esperada y la respuesta del estudiante. Determina si la respuesta del estudiante es conceptualmente correcta en relación con la respuesta esperada, independientemente de la redacción exacta. Devuelve Verdadero si la respuesta del estudiante es correcta o Falso en caso contrario. Añade un breve comentario explicando el razonamiento detrás de la corrección o incorrección de la respuesta."
|
63 |
|
64 |
prompt = f"{system_message}\n\nQuestion: {question}\nExpected Answer: {best_answer}\nStudent Answer: {student_answer}"
|
65 |
-
prompt_template=f"<start_of_turn>user\n{prompt}<end_of_turn>\n<start_of_turn>model"
|
66 |
|
67 |
# Ajusta aquí para incluir attention_mask
|
68 |
encoding = tokenizer(prompt_template, return_tensors='pt', padding=True, truncation=True, max_length=256)
|
|
|
62 |
system_message = "Analiza la pregunta, la respuesta esperada y la respuesta del estudiante. Determina si la respuesta del estudiante es conceptualmente correcta en relación con la respuesta esperada, independientemente de la redacción exacta. Devuelve Verdadero si la respuesta del estudiante es correcta o Falso en caso contrario. Añade un breve comentario explicando el razonamiento detrás de la corrección o incorrección de la respuesta."
|
63 |
|
64 |
prompt = f"{system_message}\n\nQuestion: {question}\nExpected Answer: {best_answer}\nStudent Answer: {student_answer}"
|
65 |
+
prompt_template=f"<bos><start_of_turn>user\n{prompt}<end_of_turn>\n<start_of_turn>model"
|
66 |
|
67 |
# Ajusta aquí para incluir attention_mask
|
68 |
encoding = tokenizer(prompt_template, return_tensors='pt', padding=True, truncation=True, max_length=256)
|