5W1H_Llama_3B
Descripci贸n
Modelo ajustado a partir de meta-llama/Llama-3.2-3B-Instruct
para extraer etiquetas 5W1H en espa帽ol. Entrenado con Lightning Fabric usando el chat template de LLaMA 3.2.
La tarea principal del modelo es la extracci贸n de 5W1H (WHAT, WHEN, WHERE, WHY, WHO, HOW), es decir, identificar y etiquetar las palabras o frases clave en un texto seg煤n estas categor铆as.
Dataset
El dataset utilizado se puede descargar desde: Dataset de las 5W1H.
Formato utilizado para realizar el fine-tuning y la inferencia en el modelo.
[
{
"role": "system",
"content": """Eres un experto en lengua espa帽ola. Tu tarea es identificar y etiquetar las palabras o frases clave de un TEXTO dado seg煤n las siguientes categor铆as:
WHAT: Describe la acci贸n, suceso o idea principal del texto.)
WHEN: Se帽ala el momento o duraci贸n en que ocurre el suceso.
WHERE: Indica el lugar donde ocurre el suceso.
WHY: Explica la causa o raz贸n detr谩s del suceso.
WHO: Define las entidades, personas o grupos que participan o son afectados por el suceso.
HOW: Describe las circunstancias o la forma en que sucede el hecho.
Por favor, coloca la categor铆a correspondiente entre corchetes justo antes o despu茅s de la palabra o frase relevante."""
},
{
"role": "user",
"content": "Texto: Esto se refleja en la ocupaci贸n de unidades de cuidados intensivos (UCI), lo que se agrava con la llegada de pacientes remitidos de otras ciudades de la regi贸n."
},
{
"role": "assistant",
"content": "Esto se refleja [WHERE]en la ocupaci贸n de unidades de cuidados intensivos (UCI)[/WHERE], lo que se agrava [HOW]con la llegada de pacientes[/HOW] remitidos [WHERE]de otras ciudades de la regi贸n[/WHERE]."
}
]
Par谩metros de entrenamiento
- epochs: 5
- learning_rate: 1e-5
- beta1: 0.9
- beta2: 0.95
- weight_decay: 0.1
- batch_size global: 4
- micro_batch_size: 1
- lr_warmup_steps: 100
- max_seq_length: 512
Resultados por clase (5W1H)
Las m茅tricas aplicadas se pueden replicar usando el c贸digo del siguiente repositorio: M茅tricas para la tarea de 5W1H.
Clase | Correct (Ca) | Incorrect (Ia) | Partial (Pa) | Missing (Ma) | Spurious (Sa) | Precision | Recall | F1 Score | Accuracy |
---|---|---|---|---|---|---|---|---|---|
WHAT | 343 | 21 | 198 | 143 | 166 | 0.6071 | 0.6270 | 0.6169 | 0.5075 |
WHEN | 119 | 7 | 21 | 35 | 30 | 0.7316 | 0.7115 | 0.7214 | 0.6108 |
WHERE | 120 | 12 | 21 | 60 | 15 | 0.7768 | 0.6127 | 0.6850 | 0.5724 |
WHO | 328 | 15 | 69 | 64 | 55 | 0.7762 | 0.7616 | 0.7688 | 0.6827 |
WHY | 23 | 3 | 9 | 26 | 13 | 0.5729 | 0.4508 | 0.5046 | 0.3716 |
HOW | 54 | 18 | 13 | 72 | 37 | 0.4959 | 0.3854 | 0.4337 | 0.3119 |
Promedios generales (macro)
M茅trica | Valor |
---|---|
Precision | 0.6740 |
Recall | 0.6424 |
F1 Score | 0.6578 |
Accuracy | 0.5462 |
Referencia
@misc{gplsi-5w1h-llama3b,
author = {Sep煤lveda-Torres, Robiert and Bonet-Jover, Alba and M谩rmol-Romero, Alba Mar铆a and Cabrera-de-Castro and Saquete, Estela and Mart铆nez-Barco, Patricio and Mart铆n-Valdivia, M. Teresa and L. Alfonso Ure帽a-L贸pez},
title = {5W1H Extractor Fine-Tuned from Llama-3B-Instruct},
year = {2025},
howpublished = {\url{https://huggingface.co/gplsi/5W1H_Llama_3B}},
note = {Accessed: 2025-05-28}
}
- Downloads last month
- 6
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
馃檵
Ask for provider support
Model tree for gplsi/5W1H_Llama_3B
Base model
meta-llama/Llama-3.2-3B-Instruct