Nom de votre modèle
Introduction
Décrivez ici le but et les caractéristiques principales de votre modèle. Par exemple, s'il est spécialisé dans la génération de textes liés à la fiscalité en français.
Configuration requise
Indiquez les versions des bibliothèques nécessaires, comme transformers, et toute autre dépendance.
Démarrage rapide
Fournissez un exemple de code montrant comment charger le modèle et générer du texte :
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Aktraiser/model_test1"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Votre prompt ici."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
generated_ids = model.generate(
**inputs,
max_new_tokens=512
)
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(response)
Model tree for Aktraiser/model_test1
Base model
unsloth/Meta-Llama-3.1-8B