Spaces:
Sleeping
Sleeping
fixe
Browse files- Dockerfile +17 -0
- requirements.txt +11 -0
Dockerfile
ADDED
@@ -0,0 +1,17 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# Utiliser l'image officielle d'Ollama comme base
|
2 |
+
FROM ollama/ollama
|
3 |
+
|
4 |
+
# Exposer le port 11434
|
5 |
+
EXPOSE 11434
|
6 |
+
|
7 |
+
# Définir le volume pour les données d'Ollama
|
8 |
+
VOLUME /root/.ollama
|
9 |
+
|
10 |
+
# Commande pour démarrer Ollama
|
11 |
+
CMD ["ollama", "serve"]
|
12 |
+
|
13 |
+
# Script pour exécuter llama3 après le démarrage du conteneur
|
14 |
+
RUN echo '#!/bin/sh\nollama run llama3' > /run-llama3.sh && chmod +x /run-llama3.sh
|
15 |
+
|
16 |
+
# Définir le point d'entrée pour exécuter Ollama et llama2
|
17 |
+
ENTRYPOINT ["/bin/sh", "-c", "/run-llama3.sh & ollama serve"]
|
requirements.txt
CHANGED
@@ -1,3 +1,14 @@
|
|
1 |
transformers==4.44.1
|
2 |
python-dotenv==0.21.1
|
3 |
torch==2.3.1
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
transformers==4.44.1
|
2 |
python-dotenv==0.21.1
|
3 |
torch==2.3.1
|
4 |
+
fastapi==0.111.0
|
5 |
+
torch==2.3.1
|
6 |
+
uvicorn==0.30.1
|
7 |
+
pydantic==2.7.4
|
8 |
+
numpy
|
9 |
+
scipy==1.11.3
|
10 |
+
Pillow==10.3.0
|
11 |
+
BeautifulSoup4==4.12.3
|
12 |
+
protobuf
|
13 |
+
ollama
|
14 |
+
requests
|