File size: 1,433 Bytes
48ba07e
d46fa4f
48ba07e
b15d0ab
4aae3f6
3db2cf3
48ba07e
 
4aae3f6
3db2cf3
b15d0ab
8172b02
b15d0ab
d46fa4f
3db2cf3
 
 
 
b15d0ab
3db2cf3
b15d0ab
c7c5ea0
 
b15d0ab
 
c7c5ea0
b15d0ab
3db2cf3
48ba07e
c7c5ea0
48ba07e
 
3db2cf3
 
1a67d0c
d46fa4f
3db2cf3
 
 
 
 
 
 
b15d0ab
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
from transformers import pipeline, Conversation
import gradio as gr
import os
import spaces

# Charger le modèle GPT de Hugging Face
model_id = "deepseek-ai/deepseek-llm-7b-chat"
pipe = pipeline("text-generation", model=model_id)

# Consigne que le modèle suivra pour chaque chat
system_message = "You are a feeling analyzer."

@spaces.GPU
# Fonction pour générer une réponse à partir du message de l'utilisateur
def generate_response(user_message, history):
    # Ajouter le message système au début de l'historique des messages
    messages = [{"role": "system", "content": system_message}] + [{"role": "user", "content": user_message}]
    
    # Créer une conversation avec l'historique des messages
    conversation = Conversation()
    for past_user_input, past_bot_response in history:
        conversation.add_user_input(past_user_input)
        conversation.append_response(past_bot_response)
    
    # Ajouter le nouveau message de l'utilisateur
    conversation.add_user_input(user_message)
    
    # Générer une réponse
    result = pipe(conversation)
    response = result[0]['generated_text']
    
    # Mettre à jour l'historique
    history.append((user_message, response))
    return history, response

# Configurer et lancer l'interface de chat avec Gradio
iface = gr.Interface(
    fn=generate_response,
    inputs=["text", "state"],
    outputs=["state", "text"],
    live=True,
)

iface.launch()