import openai import gradio as gr # Remplace ta clé API OpenAI ici openai.api_key = "ta_clé_api" # Fonction qui fait répondre le chatbot def chatbot_response(message): response = openai.Completion.create( engine="text-davinci-003", # Choisis GPT-3 prompt=message, max_tokens=150 ) return response.choices[0].text.strip() # Interface Gradio pour dialoguer avec l'IA gr.Interface(fn=chatbot_response, inputs="text", outputs="text").launch() from transformers import Trainer, TrainingArguments, GPT2LMHeadModel, GPT2Tokenizer from datasets import load_dataset # Charge le jeu de données dataset = load_dataset("ton_jeu_de_donnees") # Par exemple, un fichier de dialogues. # Charge un modèle préexistant comme GPT-2 model = GPT2LMHeadModel.from_pretrained("gpt2") tokenizer = GPT2Tokenizer.from_pretrained("gpt2") # Prépare les données pour l'entraînement def tokenize_function(examples): return tokenizer(examples["text"], return_tensors="pt", truncation=True, padding=True) tokenized_datasets = dataset.map(tokenize_function, batched=True) # Paramètres d'entraînement training_args = TrainingArguments( output_dir="./results", num_train_epochs=3, per_device_train_batch_size=4, per_device_eval_batch_size=8, evaluation_strategy="epoch", logging_dir="./logs", ) # Entraîne le modèle trainer = Trainer( model=model, args=training_args, train_dataset=tokenized_datasets["train"], eval_dataset=tokenized_datasets["test"], ) trainer.train()