5W1H_Llama_3B

Descripci贸n

Modelo ajustado a partir de meta-llama/Llama-3.2-3B-Instruct para extraer etiquetas 5W1H en espa帽ol. Entrenado con Lightning Fabric usando el chat template de LLaMA 3.2.

La tarea principal del modelo es la extracci贸n de 5W1H (WHAT, WHEN, WHERE, WHY, WHO, HOW), es decir, identificar y etiquetar las palabras o frases clave en un texto seg煤n estas categor铆as.

Dataset

El dataset utilizado se puede descargar desde: Dataset de las 5W1H.

Formato utilizado para realizar el fine-tuning y la inferencia en el modelo.

[
  {
    "role": "system",
    "content": """Eres un experto en lengua espa帽ola. Tu tarea es identificar y etiquetar las palabras o frases clave de un TEXTO dado seg煤n las siguientes categor铆as:
    WHAT: Describe la acci贸n, suceso o idea principal del texto.)
    WHEN: Se帽ala el momento o duraci贸n en que ocurre el suceso.
    WHERE: Indica el lugar donde ocurre el suceso.
    WHY: Explica la causa o raz贸n detr谩s del suceso.
    WHO: Define las entidades, personas o grupos que participan o son afectados por el suceso.
    HOW: Describe las circunstancias o la forma en que sucede el hecho.
    Por favor, coloca la categor铆a correspondiente entre corchetes justo antes o despu茅s de la palabra o frase relevante."""
  },
  {
    "role": "user",
    "content": "Texto: Esto se refleja en la ocupaci贸n de unidades de cuidados intensivos (UCI), lo que se agrava con la llegada de pacientes remitidos de otras ciudades de la regi贸n."
  },
  {
    "role": "assistant",
    "content": "Esto se refleja [WHERE]en la ocupaci贸n de unidades de cuidados intensivos (UCI)[/WHERE], lo que se agrava [HOW]con la llegada de pacientes[/HOW] remitidos [WHERE]de otras ciudades de la regi贸n[/WHERE]."
  }
]

Par谩metros de entrenamiento

  • epochs: 5
  • learning_rate: 1e-5
  • beta1: 0.9
  • beta2: 0.95
  • weight_decay: 0.1
  • batch_size global: 4
  • micro_batch_size: 1
  • lr_warmup_steps: 100
  • max_seq_length: 512

Resultados por clase (5W1H)

Las m茅tricas aplicadas se pueden replicar usando el c贸digo del siguiente repositorio: M茅tricas para la tarea de 5W1H.

Clase Correct (Ca) Incorrect (Ia) Partial (Pa) Missing (Ma) Spurious (Sa) Precision Recall F1 Score Accuracy
WHAT 343 21 198 143 166 0.6071 0.6270 0.6169 0.5075
WHEN 119 7 21 35 30 0.7316 0.7115 0.7214 0.6108
WHERE 120 12 21 60 15 0.7768 0.6127 0.6850 0.5724
WHO 328 15 69 64 55 0.7762 0.7616 0.7688 0.6827
WHY 23 3 9 26 13 0.5729 0.4508 0.5046 0.3716
HOW 54 18 13 72 37 0.4959 0.3854 0.4337 0.3119

Promedios generales (macro)

M茅trica Valor
Precision 0.6740
Recall 0.6424
F1 Score 0.6578
Accuracy 0.5462

Referencia

@misc{gplsi-5w1h-llama3b,
  author       = {Sep煤lveda-Torres, Robiert and Bonet-Jover, Alba and M谩rmol-Romero, Alba Mar铆a and Cabrera-de-Castro and Saquete, Estela and Mart铆nez-Barco, Patricio and Mart铆n-Valdivia, M. Teresa and L. Alfonso Ure帽a-L贸pez},
  title        = {5W1H Extractor Fine-Tuned from Llama-3B-Instruct},
  year         = {2025},
  howpublished = {\url{https://huggingface.co/gplsi/5W1H_Llama_3B}},
  note         = {Accessed: 2025-05-28}
}
Downloads last month
6
Safetensors
Model size
3.21B params
Tensor type
BF16
Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support

Model tree for gplsi/5W1H_Llama_3B

Finetuned
(522)
this model