File size: 394 Bytes
63e73e5
6bcf7d9
63e73e5
 
b8ac549
63e73e5
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
from transformers import pipeline

# Usaremos un modelo ligero para mejor compatibilidad
modelo = "google/gemma-2b-it"

generador = pipeline("text-generation", model=modelo)

def ejecutar_agente(texto):
    """
    Procesa una pregunta usando el modelo LLM.
    """
    resultado = generador(texto, max_new_tokens=300, do_sample=True, temperature=0.7)
    return resultado[0]["generated_text"]