# Démarrer Ollama en arrière-plan | |
ollama serve & | |
# Attendre quelques secondes pour qu’Ollama soit prêt | |
sleep 5 | |
# Tirer le modèle (remplace "mistral" par "deepseek-v2" si disponible, sinon utilise un modèle compatible) | |
ollama pull mistral | |
# Lancer FastAPI sur le port 7860 (requis par Hugging Face Spaces) | |
uvicorn app:app --host 0.0.0.0 --port 7860 |