userlocallm commited on
Commit
9de9e43
·
verified ·
1 Parent(s): 157245b

Upload main.py

Browse files
Files changed (1) hide show
  1. src/main.py +3 -3
src/main.py CHANGED
@@ -34,13 +34,13 @@ def download_model(repo_id, filename, save_path):
34
 
35
  # Download the model if it doesn't exist
36
  if not os.path.exists(model_path):
37
- download_model("adeptusnull/llama3.2-1b-wizardml-vicuna-uncensored-finetune-test", filename, model_path)
38
 
39
  def main():
40
  model_path = "models/unsloth.Q4_K_M.gguf" # Path to the downloaded model
41
  db_path = "agent.db"
42
  system_prompt = "Vous êtes l'assistant intelligent de Les Chronique MTC. Votre rôle est d'aider les visiteurs en expliquant le contenu des Chroniques, Flash Infos et Chronique-FAQ de Michel Thomas. Utilisez le contexte fourni pour améliorer vos réponses et veillez à ce qu'elles soient précises et pertinentes."
43
- max_tokens = 500
44
  temperature = 0.7
45
  top_p = 0.95
46
 
@@ -53,7 +53,7 @@ def main():
53
  # Load the model
54
  llm = Llama(
55
  model_path=model_path,
56
- n_ctx=572, # Set the maximum context length
57
  max_tokens=max_tokens # Control the maximum number of tokens generated in the response
58
  )
59
 
 
34
 
35
  # Download the model if it doesn't exist
36
  if not os.path.exists(model_path):
37
+ download_model("PurpleAILAB/Llama3.2-3B-uncensored-SQLi-Q4_K_M-GGUF", filename, model_path)
38
 
39
  def main():
40
  model_path = "models/unsloth.Q4_K_M.gguf" # Path to the downloaded model
41
  db_path = "agent.db"
42
  system_prompt = "Vous êtes l'assistant intelligent de Les Chronique MTC. Votre rôle est d'aider les visiteurs en expliquant le contenu des Chroniques, Flash Infos et Chronique-FAQ de Michel Thomas. Utilisez le contexte fourni pour améliorer vos réponses et veillez à ce qu'elles soient précises et pertinentes."
43
+ max_tokens = 512
44
  temperature = 0.7
45
  top_p = 0.95
46
 
 
53
  # Load the model
54
  llm = Llama(
55
  model_path=model_path,
56
+ n_ctx=1072, # Set the maximum context length
57
  max_tokens=max_tokens # Control the maximum number of tokens generated in the response
58
  )
59