[email protected] commited on
Commit
e2a89f5
·
1 Parent(s): da201f0

feat: Enhance prompt instructions and adjust text splitter parameters for improved document processing

Browse files
Files changed (2) hide show
  1. config.yaml +3 -0
  2. rag.py +5 -3
config.yaml CHANGED
@@ -91,6 +91,9 @@ prompt_template: "
91
  Voici les extraits sélectionnés pour répondre à la demande de l'utilisateur :
92
  {documentContext}
93
 
 
 
 
94
 
95
  Voici l'historique des messages : {messages}
96
  Les attentes de l'utilisateur sont : {query}
 
91
  Voici les extraits sélectionnés pour répondre à la demande de l'utilisateur :
92
  {documentContext}
93
 
94
+ ** Consignes **
95
+ - Si tu n'as pas les informations demandées, n'invente pas.
96
+ - Bases toi uniquement sur les informations ci-dessus pour répondre aux attentes de l'utilisateur.
97
 
98
  Voici l'historique des messages : {messages}
99
  Les attentes de l'utilisateur sont : {query}
rag.py CHANGED
@@ -27,10 +27,11 @@ class Rag:
27
 
28
  def __init__(self, vectore_store=None):
29
 
 
30
  # self.model = ChatMistralAI(model=llm_model)
31
  self.embedding = MistralAIEmbeddings(model="mistral-embed", mistral_api_key=env_api_key)
32
 
33
- self.text_splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=100, length_function=len)
34
 
35
  base_template = getYamlConfig()['prompt_template']
36
  self.prompt = PromptTemplate.from_template(base_template)
@@ -65,7 +66,6 @@ class Rag:
65
  docs = PyPDFLoader(file_path=pdf_file_path).load()
66
 
67
  chunks = self.text_splitter.split_documents(docs)
68
- chunks = filter_complex_metadata(chunks)
69
 
70
  self.documents.extend(chunks)
71
  self.document_vector_store = FAISS.from_documents(self.documents, self.embedding)
@@ -84,7 +84,9 @@ class Rag:
84
 
85
  queryForRetriever = query
86
 
87
- if len(messages) == 1 :
 
 
88
  queryForRetriever = messages[0].content + "\n" + query ;
89
 
90
 
 
27
 
28
  def __init__(self, vectore_store=None):
29
 
30
+ print(self.document_vector_store)
31
  # self.model = ChatMistralAI(model=llm_model)
32
  self.embedding = MistralAIEmbeddings(model="mistral-embed", mistral_api_key=env_api_key)
33
 
34
+ self.text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=300, separators="\n\n", length_function=len)
35
 
36
  base_template = getYamlConfig()['prompt_template']
37
  self.prompt = PromptTemplate.from_template(base_template)
 
66
  docs = PyPDFLoader(file_path=pdf_file_path).load()
67
 
68
  chunks = self.text_splitter.split_documents(docs)
 
69
 
70
  self.documents.extend(chunks)
71
  self.document_vector_store = FAISS.from_documents(self.documents, self.embedding)
 
84
 
85
  queryForRetriever = query
86
 
87
+ print(f"Nb messages : {len(messages)}")
88
+
89
+ if len(messages) == 2 :
90
  queryForRetriever = messages[0].content + "\n" + query ;
91
 
92