Spaces:
Sleeping
Sleeping
update
Browse files
app.py
CHANGED
@@ -309,42 +309,43 @@ with st.sidebar:
|
|
309 |
|
310 |
if st.session_state.uploaded_files:
|
311 |
if st.session_state.gemini_api is not None:
|
312 |
-
|
313 |
-
|
|
|
314 |
|
315 |
-
|
316 |
|
317 |
-
|
318 |
|
319 |
-
|
320 |
-
|
321 |
-
|
322 |
|
323 |
-
|
324 |
-
|
325 |
-
|
326 |
-
|
327 |
-
|
328 |
-
|
329 |
-
|
330 |
-
|
331 |
-
|
332 |
-
|
333 |
-
|
334 |
-
|
335 |
-
|
336 |
-
|
337 |
-
|
338 |
-
|
339 |
-
|
340 |
-
|
341 |
-
|
342 |
-
|
343 |
-
|
344 |
-
|
345 |
-
|
346 |
-
|
347 |
-
|
348 |
if st.session_state.gemini_api is not None:
|
349 |
if st.session_state.llm is None:
|
350 |
mess = ChatPromptTemplate.from_messages(
|
|
|
309 |
|
310 |
if st.session_state.uploaded_files:
|
311 |
if st.session_state.gemini_api is not None:
|
312 |
+
with st.spinner("Đang xử lý, vui lòng đợi..."):
|
313 |
+
if st.session_state.rag is None:
|
314 |
+
docs_texts = [d.page_content for d in documents]
|
315 |
|
316 |
+
results = recursive_embed_cluster_summarize(st.session_state.model, st.session_state.embd, docs_texts, level=1, n_levels=3)
|
317 |
|
318 |
+
all_texts = docs_texts.copy()
|
319 |
|
320 |
+
for level in sorted(results.keys()):
|
321 |
+
summaries = results[level][1]["summaries"].tolist()
|
322 |
+
all_texts.extend(summaries)
|
323 |
|
324 |
+
vectorstore = Chroma.from_texts(texts=all_texts, embedding=st.session_state.embd)
|
325 |
+
|
326 |
+
retriever = vectorstore.as_retriever()
|
327 |
+
|
328 |
+
def format_docs(docs):
|
329 |
+
return "\n\n".join(doc.page_content for doc in docs)
|
330 |
+
|
331 |
+
template = """
|
332 |
+
Bạn là một trợ lí AI hỗ trợ tuyển sinh và sinh viên. \n
|
333 |
+
Hãy trả lời câu hỏi chính xác, tập trung vào thông tin liên quan đến câu hỏi. \n
|
334 |
+
Nếu bạn không biết câu trả lời, hãy nói không biết, đừng cố tạo ra câu trả lời.\n
|
335 |
+
Dưới đây là thông tin liên quan mà bạn cần sử dụng tới:\n
|
336 |
+
{context}\n
|
337 |
+
hãy trả lời:\n
|
338 |
+
{question}
|
339 |
+
"""
|
340 |
+
prompt = PromptTemplate(template = template, input_variables=["context", "question"])
|
341 |
+
rag_chain = (
|
342 |
+
{"context": retriever | format_docs, "question": RunnablePassthrough()}
|
343 |
+
| prompt
|
344 |
+
| st.session_state.model
|
345 |
+
| StrOutputParser()
|
346 |
+
)
|
347 |
+
st.session_state.rag = rag_chain
|
348 |
+
|
349 |
if st.session_state.gemini_api is not None:
|
350 |
if st.session_state.llm is None:
|
351 |
mess = ChatPromptTemplate.from_messages(
|