bambadij commited on
Commit
d9695d6
·
1 Parent(s): b086d47
Files changed (1) hide show
  1. app.py +25 -25
app.py CHANGED
@@ -61,11 +61,11 @@ Dans la situation que tu vas me donner (en quelques 4 ou 5 phrases comme si tu t
61
  5) N’hésites pas à innover sur le ton à utiliser car n’oublies pas que tu dois faire comme si tu parlais à un humain. Ce ton peut être adapté et ne pas toujours être le même en fonction des cas.
62
  """
63
  instructions_par_defaut = (
64
- "Vous êtes un expert en service client. Résumez la plainte suivante en extrayant les informations clés : "
65
- "1. Objet de la plainte. "
66
- "2. Détails incluant le numéro client, le problème et les dates importantes. "
67
- "3. Actions prises et suivis incluant les dates et les personnes impliquées. "
68
- "4. Toute action supplémentaire ou recommandation nécessaire."
69
  )
70
  class TextSummary(BaseModel):
71
  prompt:str
@@ -81,29 +81,29 @@ class RequestModel(BaseModel):
81
  @app.post("/generate/")
82
  async def generate_text(request: RequestModel):
83
  # Créer la requête pour l'API NVIDIA
84
- # completion = client.chat.completions.create(
85
- # model="meta/llama-3.1-8b-instruct",
86
- # messages=[{"role": "user", "content": default_prompt + request.text}],
87
- # temperature=0.2,
88
- # top_p=0.7,
89
- # max_tokens=1024,
90
- # stream=True
91
- # )
92
- response = ollama.chat(
93
- model="llama3",
94
- messages=[
95
- {
96
- "role": "user",
97
- "content": default_prompt + request.text,
98
- },
99
- ],
100
  )
 
 
 
 
 
 
 
 
 
101
  # Générer le texte en temps réel
102
 
103
- generated_text = response["message"]["content"]
104
- # for chunk in completion:
105
- # if chunk.choices[0].delta.content is not None:
106
- # generated_text += chunk.choices[0].delta.content
107
 
108
  return {"generated_text": generated_text}
109
  if __name__ == "__main__":
 
61
  5) N’hésites pas à innover sur le ton à utiliser car n’oublies pas que tu dois faire comme si tu parlais à un humain. Ce ton peut être adapté et ne pas toujours être le même en fonction des cas.
62
  """
63
  instructions_par_defaut = (
64
+ "Fais moi un résumé détaillé de ce plainte : "
65
+ # "1. Objet de la plainte. "
66
+ # "2. Détails incluant le numéro client, le problème et les dates importantes. "
67
+ # "3. Actions prises et suivis incluant les dates et les personnes impliquées. "
68
+ # "4. Toute action supplémentaire ou recommandation nécessaire."
69
  )
70
  class TextSummary(BaseModel):
71
  prompt:str
 
81
  @app.post("/generate/")
82
  async def generate_text(request: RequestModel):
83
  # Créer la requête pour l'API NVIDIA
84
+ completion = client.chat.completions.create(
85
+ model="meta/llama-3.1-8b-instruct",
86
+ messages=[{"role": "user", "content": default_prompt + request.text}],
87
+ temperature=0.2,
88
+ top_p=0.7,
89
+ max_tokens=1024,
90
+ stream=True
 
 
 
 
 
 
 
 
 
91
  )
92
+ # response = ollama.chat(
93
+ # model="llama3",
94
+ # messages=[
95
+ # {
96
+ # "role": "user",
97
+ # "content": default_prompt + request.text,
98
+ # },
99
+ # ],
100
+ # )
101
  # Générer le texte en temps réel
102
 
103
+ generated_text = ""
104
+ for chunk in completion:
105
+ if chunk.choices[0].delta.content is not None:
106
+ generated_text += chunk.choices[0].delta.content
107
 
108
  return {"generated_text": generated_text}
109
  if __name__ == "__main__":