bambadij commited on
Commit
95aea7b
·
verified ·
1 Parent(s): c6a24a4

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +7 -3
app.py CHANGED
@@ -101,11 +101,15 @@ Attention : Tu dois aller droit au but en évitant les phrases génériques comm
101
 
102
  """
103
  instructions_par_defaut = (
104
- "Fais moi un résumé détaillé de ce plainte : "
105
  "1. Objet de la plainte. "
106
  "2. Détails incluant le numéro client, le problème et les dates importantes. "
107
  "3. Actions prises et suivis incluant les dates et les personnes impliquées. "
108
  "4. Toute action supplémentaire ou recommandation nécessaire."
 
 
 
 
109
  )
110
  DEFAULT_PROMPT1 = "Résumez la plainte suivante en 5 phrases concises, en vous concentrant sur les faits principaux ,Rajoutes les informations relatives au Client pour être précis sur la connaissance de ce dernier,Rajoutes des éléments de dates (remontée, transfert, prise en charge, résolution, clôture, etc…) ainsi que les délais (par exemple de réponse des différents acteurs ou experts de la chaine de traitement) pour mieux apprécier l'efficacité du traitement de la plainte,Rajoutes à la fin une recommandation importante afin d'éviter le mécontentement du Client par exemple pour éviter qu’une Plainte ne soit clôturée sans solution pour le Client notamment et à titre illustratif seulement dans certains cas pour un Client qui a payé pour un service,fais comme si tu parlais à un humain et ne l'a pas obtenu,et en évitant toute introduction générique comme la répétiton du prompt : "
111
  prompt1 = """
@@ -208,10 +212,10 @@ class RequestModel(BaseModel):
208
  async def generate_text(request: RequestModel):
209
  messages = [
210
  {"role": "system", "content": "Vous êtes un assistant utile."},
211
- {"role": "user", "content": plt_prompt + request.text}
212
  ]
213
  completion = client.chat.completions.create(
214
- model="meta/llama-3.1-8b-instruct",
215
  messages=messages,
216
  # max_tokens=1024,
217
  stream=True
 
101
 
102
  """
103
  instructions_par_defaut = (
104
+ "Fais moi un résumé détaillé en 3 ou 4 prhases de ce plainte concise et sous forme de texte brut directemen sans utiliser de structures comme JSON ou des gras ou des listes formelles: "
105
  "1. Objet de la plainte. "
106
  "2. Détails incluant le numéro client, le problème et les dates importantes. "
107
  "3. Actions prises et suivis incluant les dates et les personnes impliquées. "
108
  "4. Toute action supplémentaire ou recommandation nécessaire."
109
+ "Evite toute introduction générique comme la répétiton du prompt"
110
+ "Pas besoins d'enumerer les etapes donne directement le résumé"
111
+ "fais comme si tu parlais à un humain"
112
+ "Eviter toute introduction générique comme la répétiton du prompt 'Voici un résumé détaillé de la plainte en 4 phrases ' donne directement le résumé"
113
  )
114
  DEFAULT_PROMPT1 = "Résumez la plainte suivante en 5 phrases concises, en vous concentrant sur les faits principaux ,Rajoutes les informations relatives au Client pour être précis sur la connaissance de ce dernier,Rajoutes des éléments de dates (remontée, transfert, prise en charge, résolution, clôture, etc…) ainsi que les délais (par exemple de réponse des différents acteurs ou experts de la chaine de traitement) pour mieux apprécier l'efficacité du traitement de la plainte,Rajoutes à la fin une recommandation importante afin d'éviter le mécontentement du Client par exemple pour éviter qu’une Plainte ne soit clôturée sans solution pour le Client notamment et à titre illustratif seulement dans certains cas pour un Client qui a payé pour un service,fais comme si tu parlais à un humain et ne l'a pas obtenu,et en évitant toute introduction générique comme la répétiton du prompt : "
115
  prompt1 = """
 
212
  async def generate_text(request: RequestModel):
213
  messages = [
214
  {"role": "system", "content": "Vous êtes un assistant utile."},
215
+ {"role": "user", "content": instructions_par_defaut + request.text}
216
  ]
217
  completion = client.chat.completions.create(
218
+ model="nvidia/llama-3.1-nemotron-70b-instruct",
219
  messages=messages,
220
  # max_tokens=1024,
221
  stream=True