Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -30,8 +30,13 @@ def consulta_penalista(mensaje, tipo_consulta):
|
|
30 |
"""Procesa una consulta jurídica y devuelve la respuesta del modelo."""
|
31 |
global chat_history
|
32 |
|
33 |
-
#
|
34 |
-
|
|
|
|
|
|
|
|
|
|
|
35 |
|
36 |
try:
|
37 |
# Crear el prompt completo (sistema + historial)
|
@@ -45,11 +50,11 @@ def consulta_penalista(mensaje, tipo_consulta):
|
|
45 |
num_return_sequences=1, # Número de respuestas a generar
|
46 |
|
47 |
# (NUEVO)
|
48 |
-
temperature=0.
|
49 |
top_p=0.9, # Usar muestreo de núcleo (nucleus sampling)
|
50 |
-
|
51 |
truncation=True,
|
52 |
-
pad_token_id=tokenizer.eos_token_id
|
|
|
53 |
)
|
54 |
|
55 |
respuesta_texto = respuesta[0]["generated_text"]
|
|
|
30 |
"""Procesa una consulta jurídica y devuelve la respuesta del modelo."""
|
31 |
global chat_history
|
32 |
|
33 |
+
# Crear un prompt que indique directamente qué responder
|
34 |
+
prompt = f"""A continuación hay una consulta jurídica sobre el sistema penal español.
|
35 |
+
|
36 |
+
Consulta: {mensaje}
|
37 |
+
|
38 |
+
Respuesta sobre el delito consultado según la legislación española:
|
39 |
+
- Artículos del Código Penal español: """
|
40 |
|
41 |
try:
|
42 |
# Crear el prompt completo (sistema + historial)
|
|
|
50 |
num_return_sequences=1, # Número de respuestas a generar
|
51 |
|
52 |
# (NUEVO)
|
53 |
+
temperature=0.5, # Controlar la creatividad (valores más bajos = más determinista)
|
54 |
top_p=0.9, # Usar muestreo de núcleo (nucleus sampling)
|
|
|
55 |
truncation=True,
|
56 |
+
pad_token_id=tokenizer.eos_token_id,
|
57 |
+
do_sample=True
|
58 |
)
|
59 |
|
60 |
respuesta_texto = respuesta[0]["generated_text"]
|