import gradio as gr from langchain_community.llms import Ollama from langchain.callbacks.manager import CallbackManager from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler def get_llm(): callback_manager = CallbackManager([StreamingStdOutCallbackHandler()]) return Ollama(model='yandex/YandexGPT-5-Lite-8B-instruct-GGUF:latest', callback_manager=callback_manager) # Interface Gradio def gradio_interface(input, history): # Ajouter la requête de l'utilisateur à l'historique une seule fois history.append((input, "")) yield history, history def worker(): llm = get_llm() response = "" for token in llm.stream(input, max_tokens=2048, temperature=0.7): response += token history[-1] = (input, response) yield history, history # Utiliser un thread pour gérer le streaming for result in worker(): yield result iface = gr.Interface( fn=gradio_interface, inputs=[ gr.Textbox(label="Input"), gr.State(value=[]) # Ajout de l'historique ], outputs=[ gr.Chatbot(label="History"), # Utilisation de Chatbot pour l'historique gr.State() # Ajout de l'historique ], title="Ollama Demo 🐳 🦙 🤗", description=""" Bienvenue sur Docker_Ollama, un espace dédié à l'exploration et au test des modèles Ollama. Cette Démo permet aux utilisateurs de tester tous les modèles Ollama dont la taille est inférieure à 10 milliards de paramètres directement depuis cette interface. L'Application tourne sur une machine Hugging Face Free Space : 2 CPU - 16Gb RAM Soyez patient. Chaque Nouveau Modèle Selectionner Devra Etre Télécharger Avant de Répondre. Il faut compter 2 a 3 minutes pour la réponse d'un modèle 7b alors que quelques dizaines de secondes suffisent pour un modèle 1b. """) # Launch the app if __name__ == "__main__": iface.launch(server_name="0.0.0.0", server_port=7860, pwa=True)