| # Démarrer Ollama en arrière-plan | |
| ollama serve & | |
| # Attendre quelques secondes pour qu’Ollama soit prêt | |
| sleep 5 | |
| # Tirer le modèle (remplace "mistral" par "deepseek-v2" si disponible, sinon utilise un modèle compatible) | |
| ollama pull mistral | |
| # Lancer FastAPI sur le port 7860 (requis par Hugging Face Spaces) | |
| uvicorn app:app --host 0.0.0.0 --port 7860 |