Spaces:
Runtime error
Runtime error
File size: 1,433 Bytes
48ba07e d46fa4f 48ba07e b15d0ab 4aae3f6 3db2cf3 48ba07e 4aae3f6 3db2cf3 b15d0ab 8172b02 b15d0ab d46fa4f 3db2cf3 b15d0ab 3db2cf3 b15d0ab c7c5ea0 b15d0ab c7c5ea0 b15d0ab 3db2cf3 48ba07e c7c5ea0 48ba07e 3db2cf3 1a67d0c d46fa4f 3db2cf3 b15d0ab |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 |
from transformers import pipeline, Conversation
import gradio as gr
import os
import spaces
# Charger le modèle GPT de Hugging Face
model_id = "deepseek-ai/deepseek-llm-7b-chat"
pipe = pipeline("text-generation", model=model_id)
# Consigne que le modèle suivra pour chaque chat
system_message = "You are a feeling analyzer."
@spaces.GPU
# Fonction pour générer une réponse à partir du message de l'utilisateur
def generate_response(user_message, history):
# Ajouter le message système au début de l'historique des messages
messages = [{"role": "system", "content": system_message}] + [{"role": "user", "content": user_message}]
# Créer une conversation avec l'historique des messages
conversation = Conversation()
for past_user_input, past_bot_response in history:
conversation.add_user_input(past_user_input)
conversation.append_response(past_bot_response)
# Ajouter le nouveau message de l'utilisateur
conversation.add_user_input(user_message)
# Générer une réponse
result = pipe(conversation)
response = result[0]['generated_text']
# Mettre à jour l'historique
history.append((user_message, response))
return history, response
# Configurer et lancer l'interface de chat avec Gradio
iface = gr.Interface(
fn=generate_response,
inputs=["text", "state"],
outputs=["state", "text"],
live=True,
)
iface.launch()
|