vcasas commited on
Commit
9a6554e
·
verified ·
1 Parent(s): f631c12

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -5
app.py CHANGED
@@ -30,8 +30,13 @@ def consulta_penalista(mensaje, tipo_consulta):
30
  """Procesa una consulta jurídica y devuelve la respuesta del modelo."""
31
  global chat_history
32
 
33
- # Añadir el mensaje del usuario al historial
34
- chat_history.append({"role": "user", "content": f"[{tipo_consulta}] {mensaje}"})
 
 
 
 
 
35
 
36
  try:
37
  # Crear el prompt completo (sistema + historial)
@@ -45,11 +50,11 @@ def consulta_penalista(mensaje, tipo_consulta):
45
  num_return_sequences=1, # Número de respuestas a generar
46
 
47
  # (NUEVO)
48
- temperature=0.7, # Controlar la creatividad (valores más bajos = más determinista)
49
  top_p=0.9, # Usar muestreo de núcleo (nucleus sampling)
50
-
51
  truncation=True,
52
- pad_token_id=tokenizer.eos_token_id
 
53
  )
54
 
55
  respuesta_texto = respuesta[0]["generated_text"]
 
30
  """Procesa una consulta jurídica y devuelve la respuesta del modelo."""
31
  global chat_history
32
 
33
+ # Crear un prompt que indique directamente qué responder
34
+ prompt = f"""A continuación hay una consulta jurídica sobre el sistema penal español.
35
+
36
+ Consulta: {mensaje}
37
+
38
+ Respuesta sobre el delito consultado según la legislación española:
39
+ - Artículos del Código Penal español: """
40
 
41
  try:
42
  # Crear el prompt completo (sistema + historial)
 
50
  num_return_sequences=1, # Número de respuestas a generar
51
 
52
  # (NUEVO)
53
+ temperature=0.5, # Controlar la creatividad (valores más bajos = más determinista)
54
  top_p=0.9, # Usar muestreo de núcleo (nucleus sampling)
 
55
  truncation=True,
56
+ pad_token_id=tokenizer.eos_token_id,
57
+ do_sample=True
58
  )
59
 
60
  respuesta_texto = respuesta[0]["generated_text"]