| # config.py | |
| import torch | |
| # Configuración del dispositivo | |
| DEVICE = torch.device("cuda" if torch.cuda.is_available() else "cpu") | |
| # Ruta al modelo de Hugging Face Hub que quieres usar para el análisis | |
| # Asegúrate de que tienes acceso a este modelo y que es compatible con AutoModelForCausalLM | |
| MODEL_PATH = "Qwen/Qwen2-7B-Instruct" # Ejemplo, Qwen2-7B-Instruct es un buen modelo. | |
| # MODEL_PATH = "mistralai/Mistral-7B-Instruct-v0.2" # Otro ejemplo | |
| # MODEL_PATH = "01-ai/Yi-1.5-9B-Chat" # Si prefieres Yi y es accesible | |
| # Longitud máxima para NUEVOS tokens generados por el LLM | |
| MAX_LENGTH = 1024 # Aumentado para permitir análisis más detallados | |
| # Temperatura para la generación de texto (ajusta según la creatividad deseada) | |
| TEMPERATURE = 0.5 |