Spaces:
Sleeping
Sleeping
Ilyas KHIAT
commited on
Commit
·
ed41e47
1
Parent(s):
dde275c
filename
Browse files- prompts.py +3 -1
- rag.py +5 -5
prompts.py
CHANGED
@@ -18,9 +18,10 @@
|
|
18 |
# '''
|
19 |
|
20 |
base_template = '''
|
|
|
21 |
Vous êtes un spécialiste de la communication marketing responsable avec une expertise en stratégie de communication numérique, en gestion des médias sociaux, en création de contenu, en notoriété de la marque et en engagement communautaire.
|
22 |
|
23 |
-
Vous travaillez pour la marque {
|
24 |
Vos tâches comprennent le développement de matériel de marketing digital engageant et informatif alignés sur Vegetaelis 2024 - le Salon de l'Innovation Végétale et de la Transition Agroécologique qui aura lieu à Pau les 21 et 22 novembre 2024.
|
25 |
|
26 |
Pour chaque tâche demandée par l'utilisateur, suivez les étapes suivantes :
|
@@ -33,4 +34,5 @@ Livrer le document final en veillant à ce qu'il réponde à toutes les attentes
|
|
33 |
Le résultat doit être attrayant, informatif, rédigé de manière professionnelle, cohérent avec le style et la tonalité spécifiés, doté des hashtags appropriés si nécessaire, et représentatif des valeurs de l'entreprise de l'utilisateur et des normes de l'industrie.
|
34 |
|
35 |
Réponds dans un français professionnel, avec un style {style} et une tonalité {tonality}, sachant le contexte suivant: {context}, et l'historique de la conversation: {messages},{query}
|
|
|
36 |
'''
|
|
|
18 |
# '''
|
19 |
|
20 |
base_template = '''
|
21 |
+
|
22 |
Vous êtes un spécialiste de la communication marketing responsable avec une expertise en stratégie de communication numérique, en gestion des médias sociaux, en création de contenu, en notoriété de la marque et en engagement communautaire.
|
23 |
|
24 |
+
Vous travaillez pour la marque {enterprise}.
|
25 |
Vos tâches comprennent le développement de matériel de marketing digital engageant et informatif alignés sur Vegetaelis 2024 - le Salon de l'Innovation Végétale et de la Transition Agroécologique qui aura lieu à Pau les 21 et 22 novembre 2024.
|
26 |
|
27 |
Pour chaque tâche demandée par l'utilisateur, suivez les étapes suivantes :
|
|
|
34 |
Le résultat doit être attrayant, informatif, rédigé de manière professionnelle, cohérent avec le style et la tonalité spécifiés, doté des hashtags appropriés si nécessaire, et représentatif des valeurs de l'entreprise de l'utilisateur et des normes de l'industrie.
|
35 |
|
36 |
Réponds dans un français professionnel, avec un style {style} et une tonalité {tonality}, sachant le contexte suivant: {context}, et l'historique de la conversation: {messages},{query}
|
37 |
+
|
38 |
'''
|
rag.py
CHANGED
@@ -98,10 +98,10 @@ def get_retreive_answer(enterprise_id,prompt,index,common_id):
|
|
98 |
return False
|
99 |
|
100 |
|
101 |
-
def generate_response_via_langchain(query: str, stream: bool = False, model: str = "gpt-4o",context:str="",messages = [],style:str="formel",tonality:str="neutre",template:str = ""):
|
102 |
# Define the prompt template
|
103 |
if template == "":
|
104 |
-
template = "En tant qu'IA experte en marketing, réponds avec un style {style} et une tonalité {tonality} dans ta communcation, sachant le context suivant: {context}, et l'historique de la conversation, {messages}, {query}"
|
105 |
|
106 |
|
107 |
prompt = PromptTemplate.from_template(template)
|
@@ -114,10 +114,10 @@ def generate_response_via_langchain(query: str, stream: bool = False, model: str
|
|
114 |
|
115 |
if stream:
|
116 |
# Return a generator that yields streamed responses
|
117 |
-
return llm_chain.astream({ "query": query, "context": context, "messages": messages, "style": style, "tonality": tonality })
|
118 |
|
119 |
# Invoke the LLM chain and return the result
|
120 |
-
return llm_chain.invoke({"query": query, "context": context, "messages": messages, "style": style, "tonality": tonality})
|
121 |
|
122 |
|
123 |
|
@@ -135,7 +135,7 @@ def setup_rag(file_type,content):
|
|
135 |
return vectorstore
|
136 |
|
137 |
|
138 |
-
def prompt_reformatting(prompt:str,context,query:str,style="formel",tonality="neutre"):
|
139 |
if context == "":
|
140 |
return prompt.format(context="Pas de contexte pertinent",messages="",query=query,style=style,tonality=tonality)
|
141 |
|
|
|
98 |
return False
|
99 |
|
100 |
|
101 |
+
def generate_response_via_langchain(query: str, stream: bool = False, model: str = "gpt-4o",context:str="",messages = [],style:str="formel",tonality:str="neutre",template:str = "",enterprise_name:str=""):
|
102 |
# Define the prompt template
|
103 |
if template == "":
|
104 |
+
template = "En tant qu'IA experte en marketing, réponds avec un style {style} et une tonalité {tonality} dans ta communcation pour l'entreprise {enterprise}, sachant le context suivant: {context}, et l'historique de la conversation, {messages}, {query}"
|
105 |
|
106 |
|
107 |
prompt = PromptTemplate.from_template(template)
|
|
|
114 |
|
115 |
if stream:
|
116 |
# Return a generator that yields streamed responses
|
117 |
+
return llm_chain.astream({ "query": query, "context": context, "messages": messages, "style": style, "tonality": tonality, "enterprise":enterprise_name })
|
118 |
|
119 |
# Invoke the LLM chain and return the result
|
120 |
+
return llm_chain.invoke({"query": query, "context": context, "messages": messages, "style": style, "tonality": tonality, "enterprise":enterprise_name})
|
121 |
|
122 |
|
123 |
|
|
|
135 |
return vectorstore
|
136 |
|
137 |
|
138 |
+
def prompt_reformatting(prompt:str,context,query:str,style="formel",tonality="neutre",enterprise_name=""):
|
139 |
if context == "":
|
140 |
return prompt.format(context="Pas de contexte pertinent",messages="",query=query,style=style,tonality=tonality)
|
141 |
|