Spaces:
Sleeping
Sleeping
[email protected]
commited on
Commit
·
e2a89f5
1
Parent(s):
da201f0
feat: Enhance prompt instructions and adjust text splitter parameters for improved document processing
Browse files- config.yaml +3 -0
- rag.py +5 -3
config.yaml
CHANGED
@@ -91,6 +91,9 @@ prompt_template: "
|
|
91 |
Voici les extraits sélectionnés pour répondre à la demande de l'utilisateur :
|
92 |
{documentContext}
|
93 |
|
|
|
|
|
|
|
94 |
|
95 |
Voici l'historique des messages : {messages}
|
96 |
Les attentes de l'utilisateur sont : {query}
|
|
|
91 |
Voici les extraits sélectionnés pour répondre à la demande de l'utilisateur :
|
92 |
{documentContext}
|
93 |
|
94 |
+
** Consignes **
|
95 |
+
- Si tu n'as pas les informations demandées, n'invente pas.
|
96 |
+
- Bases toi uniquement sur les informations ci-dessus pour répondre aux attentes de l'utilisateur.
|
97 |
|
98 |
Voici l'historique des messages : {messages}
|
99 |
Les attentes de l'utilisateur sont : {query}
|
rag.py
CHANGED
@@ -27,10 +27,11 @@ class Rag:
|
|
27 |
|
28 |
def __init__(self, vectore_store=None):
|
29 |
|
|
|
30 |
# self.model = ChatMistralAI(model=llm_model)
|
31 |
self.embedding = MistralAIEmbeddings(model="mistral-embed", mistral_api_key=env_api_key)
|
32 |
|
33 |
-
self.text_splitter = RecursiveCharacterTextSplitter(chunk_size=
|
34 |
|
35 |
base_template = getYamlConfig()['prompt_template']
|
36 |
self.prompt = PromptTemplate.from_template(base_template)
|
@@ -65,7 +66,6 @@ class Rag:
|
|
65 |
docs = PyPDFLoader(file_path=pdf_file_path).load()
|
66 |
|
67 |
chunks = self.text_splitter.split_documents(docs)
|
68 |
-
chunks = filter_complex_metadata(chunks)
|
69 |
|
70 |
self.documents.extend(chunks)
|
71 |
self.document_vector_store = FAISS.from_documents(self.documents, self.embedding)
|
@@ -84,7 +84,9 @@ class Rag:
|
|
84 |
|
85 |
queryForRetriever = query
|
86 |
|
87 |
-
|
|
|
|
|
88 |
queryForRetriever = messages[0].content + "\n" + query ;
|
89 |
|
90 |
|
|
|
27 |
|
28 |
def __init__(self, vectore_store=None):
|
29 |
|
30 |
+
print(self.document_vector_store)
|
31 |
# self.model = ChatMistralAI(model=llm_model)
|
32 |
self.embedding = MistralAIEmbeddings(model="mistral-embed", mistral_api_key=env_api_key)
|
33 |
|
34 |
+
self.text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=300, separators="\n\n", length_function=len)
|
35 |
|
36 |
base_template = getYamlConfig()['prompt_template']
|
37 |
self.prompt = PromptTemplate.from_template(base_template)
|
|
|
66 |
docs = PyPDFLoader(file_path=pdf_file_path).load()
|
67 |
|
68 |
chunks = self.text_splitter.split_documents(docs)
|
|
|
69 |
|
70 |
self.documents.extend(chunks)
|
71 |
self.document_vector_store = FAISS.from_documents(self.documents, self.embedding)
|
|
|
84 |
|
85 |
queryForRetriever = query
|
86 |
|
87 |
+
print(f"Nb messages : {len(messages)}")
|
88 |
+
|
89 |
+
if len(messages) == 2 :
|
90 |
queryForRetriever = messages[0].content + "\n" + query ;
|
91 |
|
92 |
|