demo-docker-gradio / start_server.sh
Sébastien De Greef
Add new LLM models and update main.py to support model selection
95888be
raw
history blame
346 Bytes
#!/bin/bash
ollama serve &
ollama pull mistral:7b > /dev/null 2>&1
ollama create mistral4k:7b --file .\mistral7b.Modelfile > /dev/null 2>&1
ollama pull llama3:8b > /dev/null 2>&1
ollama create llama38k:8b --file .\llama38b.Modelfile > /dev/null 2>&1
ollama pull gemma:2b > /dev/null 2>&1
ollama pull gemma:7b > /dev/null 2>&1
python main.py