|
|
|
import gradio as gr |
|
|
|
from langchain_community.llms import Ollama |
|
from langchain.callbacks.manager import CallbackManager |
|
from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler |
|
|
|
|
|
def get_llm(): |
|
callback_manager = CallbackManager([StreamingStdOutCallbackHandler()]) |
|
return Ollama(model='yandex/YandexGPT-5-Lite-8B-instruct-GGUF:latest', callback_manager=callback_manager) |
|
|
|
|
|
|
|
def gradio_interface(input, history): |
|
|
|
|
|
history.append((input, "")) |
|
yield history, history |
|
|
|
def worker(): |
|
llm = get_llm() |
|
response = "" |
|
for token in llm.stream(input, max_tokens=2048, temperature=0.7): |
|
response += token |
|
history[-1] = (input, response) |
|
yield history, history |
|
|
|
|
|
for result in worker(): |
|
yield result |
|
|
|
iface = gr.Interface( |
|
fn=gradio_interface, |
|
inputs=[ |
|
gr.Textbox(label="Input"), |
|
gr.State(value=[]) |
|
], |
|
outputs=[ |
|
gr.Chatbot(label="History"), |
|
gr.State() |
|
], |
|
title="Ollama Demo 🐳 🦙 🤗", |
|
description=""" |
|
Bienvenue sur Docker_Ollama, un espace dédié à l'exploration et au test des modèles Ollama. |
|
Cette Démo permet aux utilisateurs de tester tous les modèles Ollama dont la taille est inférieure à 10 milliards de paramètres directement depuis cette interface. |
|
L'Application tourne sur une machine Hugging Face Free Space : 2 CPU - 16Gb RAM |
|
|
|
Soyez patient. Chaque Nouveau Modèle Selectionner Devra Etre Télécharger Avant de Répondre. |
|
|
|
Il faut compter 2 a 3 minutes pour la réponse d'un modèle 7b alors que quelques dizaines de secondes suffisent pour un modèle 1b. |
|
|
|
""") |
|
|
|
|
|
if __name__ == "__main__": |
|
iface.launch(server_name="0.0.0.0", server_port=7860, pwa=True) |
|
|
|
|