import gradio as gr from transformers import BlenderbotTokenizer, BlenderbotForConditionalGeneration import spaces tokenizer = BlenderbotTokenizer.from_pretrained('meta-llama/Meta-Llama-3-8B-Instruct') model = BlenderbotForConditionalGeneration.from_pretrained("meta-llama/Meta-Llama-3-8B-Instruct") # Initialiser le générateur de texte avec GPT-2 # Optionnel : Fixer une graine aléatoire pour la reproductibilit @spaces.GPU # Fonction de génération de texte def generate_text(prompt): inputs = tokenizer(prompt, return_tensors="pt") response_ids = model.generate(inputs.input_ids) response_text = tokenizer.decode(response_ids[0], skip_special_tokens=True) return response_text # Définir une fonction pour l'interface de chat def chatbot(message,history): return generate_text(message) gr.ChatInterface(chatbot).launch()