Benjamin Aw
Add updated pkl file v3
6fa4bc9
{
"paper_id": "F14-1003",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T10:22:40.221835Z"
},
"title": "\u00c9tiquetage en r\u00f4les \u00e9v\u00e9nementiels fond\u00e9 sur l'utilisation d'un mod\u00e8le neuronal",
"authors": [
{
"first": "Emanuela",
"middle": [],
"last": "Boro\u015f",
"suffix": "",
"affiliation": {
"laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus",
"institution": "LIST",
"location": {
"postCode": "F-91191",
"settlement": "Gif-sur-Yvette"
}
},
"email": "[email protected]"
},
{
"first": "Romaric",
"middle": [],
"last": "Besan\u00e7on",
"suffix": "",
"affiliation": {
"laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus",
"institution": "LIST",
"location": {
"postCode": "F-91191",
"settlement": "Gif-sur-Yvette"
}
},
"email": "[email protected]"
},
{
"first": "Olivier",
"middle": [],
"last": "Ferret",
"suffix": "",
"affiliation": {
"laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus",
"institution": "LIST",
"location": {
"postCode": "F-91191",
"settlement": "Gif-sur-Yvette"
}
},
"email": "[email protected]"
},
{
"first": "Brigitte",
"middle": [],
"last": "Grau",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "LIMSI",
"location": {
"addrLine": "Rue John von Neumann, Campus Universitaire d'Orsay",
"postCode": "F-91405",
"settlement": "Orsay cedex ("
}
},
"email": "[email protected]"
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "Les syst\u00e8mes d'extraction d'information doivent faire face depuis toujours \u00e0 une double difficult\u00e9 : d'une part, ils souffrent d'une d\u00e9pendance forte vis-\u00e0-vis du domaine pour lesquels ils ont \u00e9t\u00e9 d\u00e9velopp\u00e9s ; d'autre part, leur co\u00fbt de d\u00e9veloppement pour un domaine donn\u00e9 est important. Le travail que nous pr\u00e9sentons dans cet article se focalise sur la seconde probl\u00e9matique en proposant n\u00e9anmoins une solution en relation avec la premi\u00e8re. Plus pr\u00e9cis\u00e9ment, il aborde la t\u00e2che d'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels dans le cadre du remplissage de formulaire (template filling) en proposant pour ce faire de s'appuyer sur un mod\u00e8le de repr\u00e9sentation distribu\u00e9e de type neuronal. Ce mod\u00e8le est appris \u00e0 partir d'un corpus repr\u00e9sentatif du domaine consid\u00e9r\u00e9 sans n\u00e9cessiter en amont l'utilisation de pr\u00e9traitements linguistiques \u00e9labor\u00e9s. Il fournit un espace de repr\u00e9sentation permettant \u00e0 un classifieur supervis\u00e9 traditionnel de se dispenser de l'utilisation de traits complexes et vari\u00e9s (traits morphosyntaxiques, syntaxiques ou s\u00e9mantiques). Par une s\u00e9rie d'exp\u00e9rimentations men\u00e9es sur le corpus de la campagne d'\u00e9valuation MUC-4, nous montrons en particulier que cette approche permet de d\u00e9passer les performances de l'\u00e9tat de l'art et que cette diff\u00e9rence est d'autant plus importante que la taille du corpus d'entra\u00eenement est faible. Nous montrons \u00e9galement l'int\u00e9r\u00eat de l'adaptation de ce type de mod\u00e8le au domaine trait\u00e9 par rapport \u00e0 l'utilisation de repr\u00e9sentations distribu\u00e9es \u00e0 usage g\u00e9n\u00e9rique.",
"pdf_parse": {
"paper_id": "F14-1003",
"_pdf_hash": "",
"abstract": [
{
"text": "Les syst\u00e8mes d'extraction d'information doivent faire face depuis toujours \u00e0 une double difficult\u00e9 : d'une part, ils souffrent d'une d\u00e9pendance forte vis-\u00e0-vis du domaine pour lesquels ils ont \u00e9t\u00e9 d\u00e9velopp\u00e9s ; d'autre part, leur co\u00fbt de d\u00e9veloppement pour un domaine donn\u00e9 est important. Le travail que nous pr\u00e9sentons dans cet article se focalise sur la seconde probl\u00e9matique en proposant n\u00e9anmoins une solution en relation avec la premi\u00e8re. Plus pr\u00e9cis\u00e9ment, il aborde la t\u00e2che d'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels dans le cadre du remplissage de formulaire (template filling) en proposant pour ce faire de s'appuyer sur un mod\u00e8le de repr\u00e9sentation distribu\u00e9e de type neuronal. Ce mod\u00e8le est appris \u00e0 partir d'un corpus repr\u00e9sentatif du domaine consid\u00e9r\u00e9 sans n\u00e9cessiter en amont l'utilisation de pr\u00e9traitements linguistiques \u00e9labor\u00e9s. Il fournit un espace de repr\u00e9sentation permettant \u00e0 un classifieur supervis\u00e9 traditionnel de se dispenser de l'utilisation de traits complexes et vari\u00e9s (traits morphosyntaxiques, syntaxiques ou s\u00e9mantiques). Par une s\u00e9rie d'exp\u00e9rimentations men\u00e9es sur le corpus de la campagne d'\u00e9valuation MUC-4, nous montrons en particulier que cette approche permet de d\u00e9passer les performances de l'\u00e9tat de l'art et que cette diff\u00e9rence est d'autant plus importante que la taille du corpus d'entra\u00eenement est faible. Nous montrons \u00e9galement l'int\u00e9r\u00eat de l'adaptation de ce type de mod\u00e8le au domaine trait\u00e9 par rapport \u00e0 l'utilisation de repr\u00e9sentations distribu\u00e9es \u00e0 usage g\u00e9n\u00e9rique.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "Un enjeu majeur de l'Extraction d'Information (EI) consiste \u00e0 aider un utilisateur \u00e0 identifier rapidement des \u00e9v\u00e9nements ainsi que leurs entit\u00e9s descriptives dans de tr\u00e8s grands volumes de documents. L'extraction d'\u00e9v\u00e9nements peut porter sur des domaines vari\u00e9s. Dans le domaine m\u00e9dical et biologique, la notion d'\u00e9v\u00e9nement est utilis\u00e9e pour d\u00e9signer par exemple le changement d'\u00e9tat d'une mol\u00e9cule en biologie, ou encore l'ensemble des informations concernant l'administration d'un traitement en m\u00e9decine (Cohen et al., 2009; Yakushiji et al., 2001; Chun et al., 2005) . Dans le domaine de l'\u00e9conomie et la finance, les centres d'int\u00e9r\u00eat concernent les fusions, acquisitions et \u00e9changes d'entreprises ou de produits (Hung et al., 2010; Michaely et al., 1995) .",
"cite_spans": [
{
"start": 507,
"end": 527,
"text": "(Cohen et al., 2009;",
"ref_id": "BIBREF7"
},
{
"start": 528,
"end": 551,
"text": "Yakushiji et al., 2001;",
"ref_id": "BIBREF38"
},
{
"start": 552,
"end": 570,
"text": "Chun et al., 2005)",
"ref_id": "BIBREF6"
},
{
"start": 718,
"end": 737,
"text": "(Hung et al., 2010;",
"ref_id": "BIBREF19"
},
{
"start": 738,
"end": 760,
"text": "Michaely et al., 1995)",
"ref_id": "BIBREF24"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Un \u00e9v\u00e9nement est d\u00e9crit par un ensemble de participants (i.e. des attributs ou r\u00f4les) dont les valeurs sont des extraits de texte, correspondant \u00e0 des entit\u00e9s nomm\u00e9es ou des entit\u00e9s du domaine. Par exemple, un acte terroriste est un \u00e9v\u00e9nement dont les participants sont les auteurs, les victimes ou encore les cibles. En domaine biom\u00e9dical, un type d'\u00e9v\u00e9nement largement \u00e9tudi\u00e9 est celui des interactions o\u00f9 les r\u00f4les d\u00e9signent des prot\u00e9ines ou des g\u00e8nes, des m\u00e9dicaments ou autres mol\u00e9cules. Cette probl\u00e9matique est issue des campagnes d'\u00e9valuation MUC 1 (Grishman & Sundheim, 1996) , TREC (Voorhees & Tong, 2011) et ACE (Strassel et al., 2008) qui ont fortement contribu\u00e9 \u00e0 l'\u00e9volution du domaine. Dans cet article, nous nous int\u00e9ressons plus sp\u00e9cifiquement \u00e0 la reconnaissance des entit\u00e9s et leur \u00e9tiquetage en r\u00f4le. Cette t\u00e2che est complexe et recouvre des probl\u00e9matiques telles que la reconnaissance d'entit\u00e9s nomm\u00e9es, la reconnaissance de r\u00f4les s\u00e9mantiques ou l'extraction de relations binaires.",
"cite_spans": [
{
"start": 556,
"end": 583,
"text": "(Grishman & Sundheim, 1996)",
"ref_id": "BIBREF12"
},
{
"start": 591,
"end": 614,
"text": "(Voorhees & Tong, 2011)",
"ref_id": "BIBREF37"
},
{
"start": 618,
"end": 645,
"text": "ACE (Strassel et al., 2008)",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Pour cette t\u00e2che, beaucoup de syst\u00e8mes proposent des m\u00e9thodes d'extraction de patrons ou de g\u00e9n\u00e9ration de r\u00e8gles fond\u00e9es sur le contexte environnant, local et global (Patwardhan & Riloff, 2009; Huang & Riloff, 2011) . Les m\u00e9thodes d'acquisition de ces patrons incluent des approches par amor\u00e7age (Huang & Riloff, 2012a; Yangarber et al., 2000) , de l'apprentissage faiblement supervis\u00e9 (Huang & Riloff, 2011; Sudo et al., 2003; Surdeanu et al., 2006) , de l'apprentissage supervis\u00e9 (Chieu et al., 2003; Freitag, 1998; Bunescu & Mooney, 2004; Patwardhan & Riloff, 2009) , et autres variations. Les patrons appris par ces approches sont ensuite utilis\u00e9s pour reconna\u00eetre et \u00e9tiqueter, dans de nouveaux documents, des extraits de textes en tant que valeurs d'attributs.",
"cite_spans": [
{
"start": 166,
"end": 193,
"text": "(Patwardhan & Riloff, 2009;",
"ref_id": "BIBREF28"
},
{
"start": 194,
"end": 215,
"text": "Huang & Riloff, 2011)",
"ref_id": "BIBREF15"
},
{
"start": 296,
"end": 319,
"text": "(Huang & Riloff, 2012a;",
"ref_id": "BIBREF17"
},
{
"start": 320,
"end": 343,
"text": "Yangarber et al., 2000)",
"ref_id": "BIBREF39"
},
{
"start": 386,
"end": 408,
"text": "(Huang & Riloff, 2011;",
"ref_id": "BIBREF15"
},
{
"start": 409,
"end": 427,
"text": "Sudo et al., 2003;",
"ref_id": "BIBREF34"
},
{
"start": 428,
"end": 450,
"text": "Surdeanu et al., 2006)",
"ref_id": "BIBREF35"
},
{
"start": 482,
"end": 502,
"text": "(Chieu et al., 2003;",
"ref_id": "BIBREF5"
},
{
"start": 503,
"end": 517,
"text": "Freitag, 1998;",
"ref_id": "BIBREF10"
},
{
"start": 518,
"end": 541,
"text": "Bunescu & Mooney, 2004;",
"ref_id": "BIBREF4"
},
{
"start": 542,
"end": 568,
"text": "Patwardhan & Riloff, 2009)",
"ref_id": "BIBREF28"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Toutes ces m\u00e9thodes reposent sur une part assez importante d'annotations manuelles coupl\u00e9e \u00e0 l'utilisation intensive de connaissances linguistiques et les performances obtenues sont donc en rapport avec la possibilit\u00e9 de mettre en oeuvre cette masse de connaissances ainsi que la capacit\u00e9 \u00e0 d\u00e9finir les ensembles de traits en entr\u00e9e des classifieurs. De plus, la bonne application de ces m\u00e9thodes n\u00e9cessite de conna\u00eetre a priori le domaine d'application. Il devient ainsi difficile d'appliquer efficacement une m\u00e9thode donn\u00e9e sur un domaine diff\u00e9rent.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Dans ce travail, nous abordons la t\u00e2che d'\u00e9tiquetage d'entit\u00e9s en r\u00f4les d\u00e9crivant un \u00e9v\u00e9nement, que nous nommons \u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels, par l'apprentissage automatique de traits pertinents qui ne n\u00e9cessite qu'un nombre limit\u00e9 de connaissances pr\u00e9alables. A cette fin, des repr\u00e9sentations de mots (word embeddings) sont induites par application non supervis\u00e9e d'un r\u00e9seau de neurone comme dans (Bengio et al., 2006; Collobert & Weston, 2008) sur des donn\u00e9es brutes. Les valeurs d'attributs relatives aux exemples connus d'\u00e9v\u00e9nements \u00e0 extraire sont annot\u00e9es dans des textes et transform\u00e9es \u00e0 partir des repr\u00e9sentations apprises pour entra\u00eener un classifieur permettant de pr\u00e9dire l'\u00e9tiquette du r\u00f4le rempli. Notre objectif est double : (1) montrer que des repr\u00e9sentations de mots apprises de fa\u00e7on non supervis\u00e9e ont une capacit\u00e9 de g\u00e9n\u00e9ralisation et de repr\u00e9sentation du sens qui les rend comp\u00e9titives sur la t\u00e2che d'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels, (2) montrer que ces repr\u00e9sentations sont \u00e9volutives et robustes lorsqu'on fait varier la taille des donn\u00e9es d'apprentissage.",
"cite_spans": [
{
"start": 405,
"end": 426,
"text": "(Bengio et al., 2006;",
"ref_id": "BIBREF3"
},
{
"start": 427,
"end": 452,
"text": "Collobert & Weston, 2008)",
"ref_id": "BIBREF8"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Nous avons \u00e9valu\u00e9 notre approche sur les donn\u00e9es issues de MUC-4 (Lehnert et al., 1992) qui portent sur des actes terroristes, et donc sur la reconnaissances des auteurs, victimes et cibles, et nous obtenons des r\u00e9sultats sup\u00e9rieurs \u00e0 ceux des m\u00e9thodes \u00e9tat de l'art sur ces m\u00eames donn\u00e9es (Huang & Riloff, 2011 , 2012a Patwardhan & Riloff, 2009) .",
"cite_spans": [
{
"start": 59,
"end": 87,
"text": "MUC-4 (Lehnert et al., 1992)",
"ref_id": null
},
{
"start": 289,
"end": 310,
"text": "(Huang & Riloff, 2011",
"ref_id": "BIBREF15"
},
{
"start": 311,
"end": 318,
"text": ", 2012a",
"ref_id": "BIBREF17"
},
{
"start": 319,
"end": 345,
"text": "Patwardhan & Riloff, 2009)",
"ref_id": "BIBREF28"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Apr\u00e8s avoir pr\u00e9sent\u00e9 l'\u00e9tat de l'art en extraction d'\u00e9v\u00e9nements et en apprentissage de repr\u00e9sentations dans la section 2, la suite de cet article d\u00e9crit plus pr\u00e9cis\u00e9ment notre approche en section 3. Les donn\u00e9es d'exp\u00e9rimentation et les r\u00e9sultats de l'\u00e9valuation sont ensuite pr\u00e9sent\u00e9s dans la section 4.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Bien qu'il n'existe pas une mani\u00e8re unique d'aborder l'extraction d'\u00e9v\u00e9nements \u00e0 partir de textes, celle-ci est reconnue comme un probl\u00e8me complexe que l'on d\u00e9compose en diff\u00e9rentes t\u00e2ches prototypiques 2 : d\u00e9tection des mentions d'\u00e9v\u00e9nement ; extraction des candidats au remplissage des r\u00f4les ; rattachement local, souvent au niveau phrastique, des candidats aux mentions d'\u00e9v\u00e9nement ; fusion au niveau textuel des candidats au remplissage des r\u00f4les. Le probl\u00e8me que nous abordons ici est celui de la d\u00e9tection des candidats au remplissage des r\u00f4les d'un \u00e9v\u00e9nement, t\u00e2che que l'on peut consid\u00e9rer \u00e9galement comme une annotation de phrases en r\u00f4les \u00e9v\u00e9nementiels. Les candidats sont en toute g\u00e9n\u00e9ralit\u00e9 des groupes nominaux, dont certains peuvent correspondre \u00e0 des entit\u00e9s nomm\u00e9es.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tat de l'art",
"sec_num": "2"
},
{
"text": "Deux grands types d'approches ont \u00e9t\u00e9 propos\u00e9s pour la t\u00e2che d'extraction d'\u00e9v\u00e9nements : les approches fond\u00e9es sur l'application de patrons (Krupka et al., 1991; Hobbs et al., 1992; Riloff, 1996a,b; Yangarber et al., 2000) ) et les approches par apprentissage (Chieu et al., 2003; Freitag, 1998; Huang & Riloff, 2011; Patwardhan & Riloff, 2009; Yangarber et al., 2000; Surdeanu et al., 2006) ).",
"cite_spans": [
{
"start": 140,
"end": 161,
"text": "(Krupka et al., 1991;",
"ref_id": "BIBREF21"
},
{
"start": 162,
"end": 181,
"text": "Hobbs et al., 1992;",
"ref_id": "BIBREF13"
},
{
"start": 182,
"end": 198,
"text": "Riloff, 1996a,b;",
"ref_id": null
},
{
"start": 199,
"end": 222,
"text": "Yangarber et al., 2000)",
"ref_id": "BIBREF39"
},
{
"start": 260,
"end": 280,
"text": "(Chieu et al., 2003;",
"ref_id": "BIBREF5"
},
{
"start": 281,
"end": 295,
"text": "Freitag, 1998;",
"ref_id": "BIBREF10"
},
{
"start": 296,
"end": 317,
"text": "Huang & Riloff, 2011;",
"ref_id": "BIBREF15"
},
{
"start": 318,
"end": 344,
"text": "Patwardhan & Riloff, 2009;",
"ref_id": "BIBREF28"
},
{
"start": 345,
"end": 368,
"text": "Yangarber et al., 2000;",
"ref_id": "BIBREF39"
},
{
"start": 369,
"end": 391,
"text": "Surdeanu et al., 2006)",
"ref_id": "BIBREF35"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tat de l'art",
"sec_num": "2"
},
{
"text": "Les patrons sont acquis \u00e0 partir de textes par application de r\u00e8gles reposant sur des connaissances syntaxiques, extraites d'un arbre syntaxique par exemple, et s\u00e9mantiques pour identifier les r\u00f4les. Les premiers syst\u00e8mes (Krupka et al., 1991; 1. MUC 1-7 Message Understanding Conferences de 1987 \u00e0 1998 organis\u00e9es par le DARPA. 2. La d\u00e9composition que nous faisons ici est essentiellement fonctionnelle et ne fait pas appara\u00eetre les liens de d\u00e9pendance pouvant exister entre ces diff\u00e9rentes t\u00e2ches. Hobbs et al., 1992; Riloff, 1996a) sont issus des conf\u00e9rences MUC. AutoSlog-TS (Riloff, 1996a), utilis\u00e9 comme syst\u00e8me de base dans nos \u00e9valuations et qui est une version am\u00e9lior\u00e9e de AutoSlog (Riloff, 1996b) , propose une s\u00e9paration en textes pertinents et non pertinents et un ordonnancement des patrons extraits. Le principal inconv\u00e9nient de ces syst\u00e8mes est qu'ils font appel \u00e0 une v\u00e9rification manuelle pour s\u00e9lectionner les patrons, qui peut s'av\u00e9rer co\u00fbteuse. L'int\u00e9r\u00eat port\u00e9 aux approches par apprentissage s'est largement d\u00e9velopp\u00e9 et a donn\u00e9 lieu \u00e0 de nouveaux syst\u00e8mes, qui reposent sur des m\u00e9thodes d'apprentissage compl\u00e8tement supervis\u00e9es (Chieu et al., 2003; Freitag, 1998; Bunescu & Mooney, 2004; Patwardhan & Riloff, 2009) ou faiblement supervis\u00e9es (Huang & Riloff, 2011; Sudo et al., 2003; Surdeanu et al., 2006) . La d\u00e9pendance des syst\u00e8mes \u00e0 l'existence d'annotations riches des textes s'est rel\u00e2ch\u00e9e avec l'apparition des techniques d'amor\u00e7age (Huang & Riloff, 2012a; Yangarber et al., 2000) .",
"cite_spans": [
{
"start": 222,
"end": 243,
"text": "(Krupka et al., 1991;",
"ref_id": "BIBREF21"
},
{
"start": 244,
"end": 244,
"text": "",
"ref_id": null
},
{
"start": 501,
"end": 520,
"text": "Hobbs et al., 1992;",
"ref_id": "BIBREF13"
},
{
"start": 521,
"end": 535,
"text": "Riloff, 1996a)",
"ref_id": "BIBREF31"
},
{
"start": 693,
"end": 708,
"text": "(Riloff, 1996b)",
"ref_id": "BIBREF32"
},
{
"start": 1152,
"end": 1172,
"text": "(Chieu et al., 2003;",
"ref_id": "BIBREF5"
},
{
"start": 1173,
"end": 1187,
"text": "Freitag, 1998;",
"ref_id": "BIBREF10"
},
{
"start": 1188,
"end": 1211,
"text": "Bunescu & Mooney, 2004;",
"ref_id": "BIBREF4"
},
{
"start": 1212,
"end": 1238,
"text": "Patwardhan & Riloff, 2009)",
"ref_id": "BIBREF28"
},
{
"start": 1265,
"end": 1287,
"text": "(Huang & Riloff, 2011;",
"ref_id": "BIBREF15"
},
{
"start": 1288,
"end": 1306,
"text": "Sudo et al., 2003;",
"ref_id": "BIBREF34"
},
{
"start": 1307,
"end": 1329,
"text": "Surdeanu et al., 2006)",
"ref_id": "BIBREF35"
},
{
"start": 1464,
"end": 1487,
"text": "(Huang & Riloff, 2012a;",
"ref_id": "BIBREF17"
},
{
"start": 1488,
"end": 1511,
"text": "Yangarber et al., 2000)",
"ref_id": "BIBREF39"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tat de l'art",
"sec_num": "2"
},
{
"text": "Par exemple, le syst\u00e8me ALICE (Chieu et al., 2003) Diff\u00e9rentes approches ont explor\u00e9 l'importance du contexte environnant pour reconna\u00eetre des valeurs de r\u00f4les. GLACIER (Patwardhan & Riloff, 2009) va au-del\u00e0 de l'analyse du contexte local de la mention d'un \u00e9v\u00e9nement (i.e. la proposition) pour analyser un second contexte plus large au niveau de la phrase. En reprenant cette id\u00e9e, nous explorons aussi un contexte assez large pour rechercher des valeurs de r\u00f4les lors de l'apprentissage du mod\u00e8le de langue. TIER (Huang & Riloff, 2011) a explor\u00e9 le fait d'\u00e9carter un contexte s'il est non pertinent, m\u00eame si dans certaines situations une phrase non pertinente peut mentionner les suites d'un \u00e9v\u00e9nement o\u00f9 certains r\u00f4les sont pr\u00e9cis\u00e9s. TIER repose sur une suite de traitements h\u00e9rit\u00e9e des syst\u00e8mes pr\u00e9c\u00e9dents partant de la reconnaissance de contextes sp\u00e9cifiques \u00e0 des r\u00f4les par diff\u00e9rentes couches de classifieurs et finissant, au niveau le plus bas, par l'extraction des valeurs des r\u00f4les. L'am\u00e9lioration de TIER par l'usage de co-r\u00e9f\u00e9rences et de relations de discours est \u00e9tudi\u00e9e dans (Huang & Riloff, 2012b,a).",
"cite_spans": [
{
"start": 30,
"end": 50,
"text": "(Chieu et al., 2003)",
"ref_id": "BIBREF5"
},
{
"start": 169,
"end": 196,
"text": "(Patwardhan & Riloff, 2009)",
"ref_id": "BIBREF28"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9TIQUETAGE EN R\u00d4LES \u00c9V\u00c9NEMENTIELS",
"sec_num": null
},
{
"text": "De tous ces travaux, on peut voir que les recherches en extraction d'\u00e9v\u00e9nements vont vers l'ajout de traits riches donn\u00e9s en entr\u00e9e de cha\u00eenes de classifieurs, et vers une exploration du contexte des entit\u00e9s \u00e0 \u00e9tiqueter. Le but de (Huang & Riloff, 2012b) est de pouvoir reconna\u00eetre des transitions et des relations de discours dans le texte de mani\u00e8re \u00e0 pouvoir mieux identifier les contextes d'apparition des r\u00f4les pour un \u00e9v\u00e9nement donn\u00e9. Les candidats aux r\u00f4les li\u00e9s \u00e0 un \u00e9v\u00e9nement sont identifi\u00e9s ind\u00e9pendamment, par une approche montante, puis les contextes s\u00e9lectionn\u00e9s en mettant en oeuvre des connaissances pour d\u00e9terminer la coh\u00e9sion textuelle. PIPER (Patwardhan & Riloff, 2007 ; Patwardhan, 2010) est construit \u00e0 partir d'une classification des phrases qui distingue les r\u00e9gions pertinentes et non pertinentes et apprend des patrons d'extraction pertinents pour le domaine selon une mesure d'affinit\u00e9 s\u00e9mantique. On peut aussi ajouter que, m\u00eame si l'am\u00e9lioration des performances est r\u00e9elle, ces ajouts peuvent rendre les syst\u00e8mes tr\u00e8s lents et non utilisables dans des applications \u00e0 grande \u00e9chelle. C'est pourquoi TIER light (Huang & Riloff, 2012a) propose de diminuer le recours \u00e0 des annotations lourdes, pour faciliter le passage d'un domaine \u00e0 un autre, par l'application de techniques d'amor\u00e7age pour l'\u00e9tiquetage en r\u00f4les.",
"cite_spans": [
{
"start": 660,
"end": 686,
"text": "(Patwardhan & Riloff, 2007",
"ref_id": "BIBREF27"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9TIQUETAGE EN R\u00d4LES \u00c9V\u00c9NEMENTIELS",
"sec_num": null
},
{
"text": "Notre approche partage avec ces approches l'importance donn\u00e9e au contexte des mots impliqu\u00e9s dans des valeurs de r\u00f4les. Cependant, alors que ces syst\u00e8mes reposent sur la conception de riches ensembles de traits \u00e0 donner en entr\u00e9e des classifieurs, notre approche r\u00e9duit cette complexit\u00e9 en donnant seulement les mots bruts en entr\u00e9e d'un r\u00e9seau de neurones. Les traits sont appris automatiquement et sont r\u00e9utilis\u00e9s dans la t\u00e2che d'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels ; ils permettent de plus d'obtenir de meilleurs r\u00e9sultats \u00e0 partir de ces seules donn\u00e9es. Ce type d'approche, propos\u00e9 dans des travaux comme (Bengio et al., 2006; Collobert & Weston, 2008; Turian et al., 2010) , a montr\u00e9 des r\u00e9sultats int\u00e9ressants sur de nombreuses t\u00e2ches en traitement automatique des langues mais n'a jamais \u00e9t\u00e9 appliqu\u00e9 \u00e0 l'extraction d'\u00e9v\u00e9nements.",
"cite_spans": [
{
"start": 607,
"end": 628,
"text": "(Bengio et al., 2006;",
"ref_id": "BIBREF3"
},
{
"start": 629,
"end": 654,
"text": "Collobert & Weston, 2008;",
"ref_id": "BIBREF8"
},
{
"start": 655,
"end": 675,
"text": "Turian et al., 2010)",
"ref_id": "BIBREF36"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9TIQUETAGE EN R\u00d4LES \u00c9V\u00c9NEMENTIELS",
"sec_num": null
},
{
"text": "3 M\u00e9thode 3.1 Principes \u00c0 l'instar de (Huang & Riloff, 2012b), la t\u00e2che d'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels est r\u00e9alis\u00e9e comme une t\u00e2che ind\u00e9pendante des autres t\u00e2ches mentionn\u00e9es section 2. Son objectif est de produire un ensemble assez large de candidats qui seront ensuite filtr\u00e9s par les contraintes de rattachement aux \u00e9v\u00e9nements, soit au niveau local, soit au niveau global. \u00c0 la diff\u00e9rence de (Jean-Louis et al., 2011), nous ne faisons pas l'hypoth\u00e8se que ces candidats se limitent \u00e0 des entit\u00e9s nomm\u00e9es et nous nous ne faisons pas non plus l'hypoth\u00e8se d'une bijection entre le r\u00f4le d'un \u00e9v\u00e9nement et un type d'entit\u00e9 nomm\u00e9e.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9TIQUETAGE EN R\u00d4LES \u00c9V\u00c9NEMENTIELS",
"sec_num": null
},
{
"text": "Sur le plan m\u00e9thodologique, nous traitons cette t\u00e2che d'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels sous l'angle de la classification supervis\u00e9e. Nous nous appuyons pour ce faire sur la sortie d'un outil g\u00e9n\u00e9rique de d\u00e9coupage des phrases en chunks syntaxiques et nous appliquons un classifieur multiclasse \u00e0 chaque chunk nominal extrait pour d\u00e9terminer \u00e0 quel r\u00f4le du type d'\u00e9v\u00e9nement consid\u00e9r\u00e9 il est susceptible de se rattacher. Nous avons ainsi une classe par r\u00f4le \u00e0 laquelle s'ajoute une classe correspondant \u00e0 l'absence de rattachement. L'originalit\u00e9 de l'approche que nous proposons r\u00e9side dans le type de repr\u00e9sentation des chunks nominaux exploit\u00e9 par notre classifieur. Pour ce type de t\u00e2che, il est habituel de repr\u00e9senter chaque candidat \u00e0 un r\u00f4le par un ensemble de traits caract\u00e9risant diff\u00e9rents types d'informations allant des simples mots le constituant jusqu'\u00e0 son r\u00f4le s\u00e9mantique dans la phrase en passant par la cat\u00e9gorie morphosyntaxique de ses constituants ou son r\u00f4le syntaxique. Comme nous l'avons mentionn\u00e9 dans la section pr\u00e9c\u00e9dente, cette approche a un triple inconv\u00e9nient : elle n\u00e9cessite un ensemble d'outils \u00e9labor\u00e9s qui ne sont pas toujours disponibles pour une langue donn\u00e9e ; ces outils n'\u00e9tant pas parfaits, les informations qu'ils d\u00e9livrent sont entach\u00e9es d'un certain taux d'erreur, qui a tendance \u00e0 \u00eatre d'autant plus cons\u00e9quent que l'outil est plus \u00e9labor\u00e9 ; enfin, ces outils sont g\u00e9n\u00e9riques et donc, la plupart du temps, non adapt\u00e9s au domaine consid\u00e9r\u00e9.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9TIQUETAGE EN R\u00d4LES \u00c9V\u00c9NEMENTIELS",
"sec_num": null
},
{
"text": "Pour faire face \u00e0 ces probl\u00e8mes, nous proposons d'adopter une approche diff\u00e9rente, inspir\u00e9e de travaux tels que (Collobert & Weston, 2008) , consistant \u00e0 projeter les candidats \u00e0 un r\u00f4le \u00e9v\u00e9nementiel, \u00e0 partir de leurs mots, dans un espace de repr\u00e9sentation d\u00e9fini sp\u00e9cifiquement pour le domaine consid\u00e9r\u00e9. Plus pr\u00e9cis\u00e9ment, cet espace est construit gr\u00e2ce \u00e0 un r\u00e9seau de neurones en reprenant des techniques d\u00e9velopp\u00e9es pour l'apprentissage de mod\u00e8les de langage (Bengio et al., 2003) . Outre leur adaptation au domaine, les repr\u00e9sentations ainsi \u00e9labor\u00e9es ont l'avantage de pouvoir \u00eatre compar\u00e9es et leur proximit\u00e9 dans cet espace est \u00e0 mettre en relation avec la proximit\u00e9 de leur r\u00f4le vis-\u00e0-vis du domaine. Une fois construites, ces repr\u00e9sentations sont utilis\u00e9es comme traits dans un classifieur supervis\u00e9 r\u00e9alisant l'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels, \u00e0 l'instar des traits habituellement utilis\u00e9s pour cette t\u00e2che.",
"cite_spans": [
{
"start": 112,
"end": 138,
"text": "(Collobert & Weston, 2008)",
"ref_id": "BIBREF8"
},
{
"start": 463,
"end": 484,
"text": "(Bengio et al., 2003)",
"ref_id": "BIBREF2"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9TIQUETAGE EN R\u00d4LES \u00c9V\u00c9NEMENTIELS",
"sec_num": null
},
{
"text": "Nous commen\u00e7ons par d\u00e9tailler la fa\u00e7on dont ces repr\u00e9sentations sont construites sur un plan g\u00e9n\u00e9rique avant de pr\u00e9ciser leur utilisation et les strat\u00e9gies mises en oeuvre pour les adapter \u00e0 notre contexte de travail.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9TIQUETAGE EN R\u00d4LES \u00c9V\u00c9NEMENTIELS",
"sec_num": null
},
{
"text": "Notre construction de repr\u00e9sentations lexicales distribu\u00e9es (word embeddings) s'appuie sur les principes d\u00e9finis dans (Collobert & Weston, 2008) . Ces principes sont eux-m\u00eames issus de la probl\u00e9matique des mod\u00e8les de langage neuronaux (Bengio et al., 2003) . Dans ce contexte, un r\u00e9seau de neurones est entra\u00een\u00e9 \u00e0 pr\u00e9dire la probabilit\u00e9 d'un mot en fonction de son contexte. L'entra\u00eenement d'un tel mod\u00e8le passe par le traitement d'un large ensemble d'exemples de s\u00e9quences de mots et une optimisation des param\u00e8tres du r\u00e9seau du point de vue de sa capacit\u00e9 \u00e0 fournir les meilleures pr\u00e9dictions pour les s\u00e9quences exemples.",
"cite_spans": [
{
"start": 118,
"end": 144,
"text": "(Collobert & Weston, 2008)",
"ref_id": "BIBREF8"
},
{
"start": 235,
"end": 256,
"text": "(Bengio et al., 2003)",
"ref_id": "BIBREF2"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Construction des repr\u00e9sentations lexicales distribu\u00e9es",
"sec_num": "3.2"
},
{
"text": "Une des sp\u00e9cificit\u00e9s des r\u00e9seaux utilis\u00e9s r\u00e9side dans la repr\u00e9sentation des s\u00e9quences de mots qu'ils prennent comme entr\u00e9e et plus sp\u00e9cifiquement des mots composant ces s\u00e9quences. Dans ce sch\u00e9ma de repr\u00e9sentation en effet, un mot n'est plus consid\u00e9r\u00e9 comme un simple symbole mais poss\u00e8de une repr\u00e9sentation distribu\u00e9e. Cette repr\u00e9sentation prend la forme d'un ensemble fixe de dimensions valu\u00e9es, c'est-\u00e0-dire un vecteur de nombres r\u00e9els de m\u00eame taille pour tous les mots du vocabulaire consid\u00e9r\u00e9. De ce point de vue, cette repr\u00e9sentation est proche de repr\u00e9sentations issues de m\u00e9thodes de r\u00e9duction de dimensions telles que celles produites par l'Analyse S\u00e9mantique Latente par exemple (Landauer et al., 1998) . \u00c0 la diff\u00e9rence de ces m\u00e9thodes de r\u00e9duction de dimensions, qui appliquent une transformation math\u00e9matique donn\u00e9e, les repr\u00e9sentations produites dans le cadre des mod\u00e8les de langage neuronaux sont apprises en relation avec les exemples exploit\u00e9s. Elles sont donc intrins\u00e8quement adapt\u00e9es \u00e0 ces derniers. (Collobert & Weston, 2008) a repris ce sch\u00e9ma mais avec la perspective plus g\u00e9n\u00e9rale de construire des repr\u00e9sentations lexicales distribu\u00e9es utilisables pour des t\u00e2ches autres que la pr\u00e9diction de la probabilit\u00e9 d'une s\u00e9quence de mots. ",
"cite_spans": [
{
"start": 688,
"end": 711,
"text": "(Landauer et al., 1998)",
"ref_id": "BIBREF22"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Construction des repr\u00e9sentations lexicales distribu\u00e9es",
"sec_num": "3.2"
},
{
"text": "i = w i\u2212n) . . . , w i\u22121 , w i , w i+1 . . . w i+n , on a ainsi : score( w i ) = b (2) + W (2) h( w i ) h( w i ) = \u03a6(b (1) + W (1) w i ) (1) b (1) , b",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Construction des repr\u00e9sentations lexicales distribu\u00e9es",
"sec_num": "3.2"
},
{
"text": "(2) \u00e9tant les termes de biais, sous la forme de vecteurs, intervenant dans le cumul des activations en entr\u00e9e d'une unit\u00e9, W (1) et W (2) , les matrices de poids des connexions entre couches et \u03a6, la fonction d'activation de la couche cach\u00e9e. Dans cette configuration, cette fonction est non lin\u00e9aire, avec le choix dans notre de cas de sof tsign(a) = |a|/(1 + |a|) qui pr\u00e9sente l'avantage de permettre des temps d'apprentissage r\u00e9duits.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Construction des repr\u00e9sentations lexicales distribu\u00e9es",
"sec_num": "3.2"
},
{
"text": "La diff\u00e9rence entre le score ainsi calcul\u00e9 pour une s\u00e9quence v\u00e9ritablement observ\u00e9e et une s\u00e9quence alt\u00e9r\u00e9e en changeant son mot central est utilis\u00e9e comme crit\u00e8re d'optimisation pour la mise \u00e0 jour \u00e0 la fois des poids des connexions du r\u00e9seau et de la valeur des dimensions de la repr\u00e9sentation des mots de la s\u00e9quence d'entr\u00e9e. Cette mise \u00e0 jour est r\u00e9alis\u00e9e de fa\u00e7on classique par l'application d'une descente de gradient stochastique. Le crit\u00e8re d'optimisation est donc un crit\u00e8re d'ordonnancement, \u00e0 la diff\u00e9rence des travaux ant\u00e9rieurs \u00e0 (Collobert & Weston, 2008) , qui optimisaient la log-vraisemblance pour le dernier mot de la s\u00e9quence et devaient donc \u00e9valuer en sortie une probabilit\u00e9 pour tous les mots du vocabulaire pour chaque s\u00e9quence en entr\u00e9e. Plus formellement, ce crit\u00e8re d'ordonnancement sp\u00e9cifie que le score d'une s\u00e9quence observ\u00e9e w i doit \u00eatre plus grand que celui de tout autre s\u00e9quence\u02dc w j produite par remplacement du mot central de la s\u00e9quence observ\u00e9e par un autre mot du dictionnaire, et ceci avec une marge de \u00b5, donc tel que score( w i ) > \u00b5 + score(\u02dc w i ), o\u00f9 \u00b5 = 0, 1 comme dans (Collobert & Weston, 2008) .",
"cite_spans": [
{
"start": 544,
"end": 570,
"text": "(Collobert & Weston, 2008)",
"ref_id": "BIBREF8"
},
{
"start": 1117,
"end": 1143,
"text": "(Collobert & Weston, 2008)",
"ref_id": "BIBREF8"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Construction des repr\u00e9sentations lexicales distribu\u00e9es",
"sec_num": "3.2"
},
{
"text": "Au final, la repr\u00e9sentation modifi\u00e9e par ce crit\u00e8re de chaque mot de la s\u00e9quence d'entr\u00e9e est ensuite stock\u00e9e pour \u00eatre r\u00e9utilis\u00e9e lorsqu'une autre s\u00e9quence contenant ce mot est pr\u00e9sent\u00e9e en entr\u00e9e du r\u00e9seau. Les repr\u00e9sentations des mots sont ainsi adapt\u00e9es de fa\u00e7on incr\u00e9mentale en fonction du crit\u00e8re d'optimisation retenu.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Construction des repr\u00e9sentations lexicales distribu\u00e9es",
"sec_num": "3.2"
},
{
"text": "\u00c0 la section pr\u00e9c\u00e9dente, nous avons d\u00e9fini la fa\u00e7on dont sont construites les repr\u00e9sentations lexicales distribu\u00e9es pour l'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels, en reprenant fortement les principes d\u00e9finis dans (Collobert & Weston, 2008) . Nous avons n\u00e9anmoins r\u00e9alis\u00e9 une modification sp\u00e9cifique de cette m\u00e9thode pour une meilleure adaptation des repr\u00e9sentations construites \u00e0 notre t\u00e2che. L'id\u00e9e sous-jacente \u00e0 cette modification est de favoriser, dans les exemples fournis pour l'entra\u00eenement du mod\u00e8le, la pr\u00e9sence de mots importants du domaine, de telle sorte que l'apprentissage s'effectue plus rapidement. ",
"cite_spans": [
{
"start": 208,
"end": 234,
"text": "(Collobert & Weston, 2008)",
"ref_id": "BIBREF8"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Strat\u00e9gie d'adaptation des repr\u00e9sentations distribu\u00e9es \u00e0 la t\u00e2che",
"sec_num": "3.3"
},
{
"text": "Les repr\u00e9sentations apprises pour chacun des mots permettent de calculer les traits des exemples donn\u00e9s en entr\u00e9e du classifieur supervis\u00e9 en vue de pr\u00e9dire leur \u00e9tiquette, i.e. leur r\u00f4le \u00e9v\u00e9nementiel. N\u00e9anmoins, les r\u00f4les \u00e9v\u00e9nementiels ne sont en g\u00e9n\u00e9ral pas occup\u00e9s par de simples mots mais plut\u00f4t par des groupes nominaux, pouvant s'identifier dans certains cas \u00e0 des entit\u00e9s nomm\u00e9es. Pour l'identification de ces r\u00f4les \u00e9v\u00e9nementiels, nous avons donc op\u00e9r\u00e9 en deux temps. En premier lieu, nous avons appliqu\u00e9 un analyseur en chunks pour identifier les candidats \u00e0 ces r\u00f4les. En l'occurrence, tout chunk nominal est consid\u00e9r\u00e9 comme un candidat, les constituants des autres chunks recevant une \u00e9tiquette NULL (cf. section 4.2).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Utilisation des repr\u00e9sentations distribu\u00e9es pour l'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels",
"sec_num": "3.4"
},
{
"text": "Dans un second temps, nous avons appliqu\u00e9 un classifieur pr\u00e9alablement entra\u00een\u00e9 sur un corpus annot\u00e9 pour d\u00e9cider quel r\u00f4le, s'il en occupe un, un chunk occupe pour le type d'\u00e9v\u00e9nement consid\u00e9r\u00e9. Pour ce faire, il est n\u00e9cessaire de passer de la repr\u00e9sentation construite pour chaque mot \u00e0 la repr\u00e9sentation d'un chunk. Ce passage est r\u00e9alis\u00e9 via le m\u00e9canisme du max-pooling. Un chunk de N mots est ainsi repr\u00e9sent\u00e9 avec le m\u00eame nombre de dimensions qu'un mot et chacune de ses dimensions i prend pour valeur max(w i1 , ..., w iN ) o\u00f9 w ij est la valeur de la dimension i pour le mot w j constituant le chunk.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Utilisation des repr\u00e9sentations distribu\u00e9es pour l'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels",
"sec_num": "3.4"
},
{
"text": "Pour la classification proprement dite, nous nous appuyons sur la variante Extra-Trees (Geurts et al., 2006) Pour notre \u00e9valuation, nous nous sommes concentr\u00e9s sur l'instanciation des attributs texte, de fa\u00e7on similaire aux autres syst\u00e8mes de l'\u00e9tat de l'art. Nous \u00e9valuons ensuite la pr\u00e9cision des extractions. Notons que, comme dans les travaux comparables (Patwardhan & Riloff, 2009; Huang & Riloff, 2010 , 2012b , nous ne nous int\u00e9ressons pas \u00e0 la construction compl\u00e8te des structures \u00e9v\u00e9nementielles mais seulement \u00e0 l'identification des r\u00f4les \u00e9v\u00e9nementiels, quel que soit l'\u00e9v\u00e9nement auquel ils sont reli\u00e9s. Pour \u00e9tablir la correspondance entre les valeurs extraites et les valeurs de r\u00e9f\u00e9rence, on compare les t\u00eates des chunks (l'extraction de men est consid\u00e9r\u00e9e correcte pour une r\u00e9ponse attendue de five armed men), et on fusionne les extractions multiples (de sorte que plusieurs chunks extraits partageant la m\u00eame t\u00eate ne sont compt\u00e9s qu'une seule fois). Enfin, cette \u00e9valuation prend en compte les r\u00f4les multi-valu\u00e9s, en distinguant les conjonctions (lorsque plusieurs victimes sont nomm\u00e9es, on doit les trouver toutes) et les disjonctions (lorsque la m\u00eame entit\u00e9 a plusieurs noms, il suffit d'en trouver un seul).",
"cite_spans": [
{
"start": 87,
"end": 108,
"text": "(Geurts et al., 2006)",
"ref_id": "BIBREF11"
},
{
"start": 359,
"end": 386,
"text": "(Patwardhan & Riloff, 2009;",
"ref_id": "BIBREF28"
},
{
"start": 387,
"end": 407,
"text": "Huang & Riloff, 2010",
"ref_id": "BIBREF14"
},
{
"start": 408,
"end": 415,
"text": ", 2012b",
"ref_id": "BIBREF18"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Utilisation des repr\u00e9sentations distribu\u00e9es pour l'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels",
"sec_num": "3.4"
},
{
"text": "Comme indiqu\u00e9 dans la section 3.4, nous utilisons un classifieur permettant d'associer chaque chunk du texte \u00e0 un r\u00f4le \u00e9v\u00e9nementiel. Ce classifieur doit donc \u00eatre entra\u00een\u00e9 sur un corpus annot\u00e9 correspondant \u00e0 cette t\u00e2che, qui est construit automatiquement \u00e0 partir des \u00e9v\u00e9nements de r\u00e9f\u00e9rence. Les valeurs des attributs sont retrouv\u00e9es dans les documents correspondants, en appliquant un seuil de distance minimale pour aligner les mots. Par exemple, si un attribut a trois valeurs possibles, chacune \u00e9tant form\u00e9e de plusieurs mots, nous recherchons tous les mots dans le texte. Si les positions des diff\u00e9rents mots composant une valeur sont suffisamment proches, on attribue l'\u00e9tiquette du r\u00f4le \u00e0 l'empan d\u00e9limit\u00e9 par ces mots.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tiquetage du corpus pour l'apprentissage supervis\u00e9",
"sec_num": "4.2"
},
{
"text": "Cet \u00e9tiquetage automatique a \u00e9t\u00e9 r\u00e9alis\u00e9 en fonction des syntagmes (i.e. les chunks) propos\u00e9s par l'outil SENNA (\"Semantic/syntactic Extraction using a Neural Network Architecture\", (Collobert et al., 2011)), o\u00f9 \u00e0 chaque mot est attribu\u00e9 un tag unique, soit mot simple (S-NP), d\u00e9but de chunk (B-NP), interne \u00e0 un chunk (I-NP) ou fin de chunk (E-NP). Nous associons \u00e0 l'attribut le plus petit chunk englobant sa valeur. Toutes les variantes des mod\u00e8les instanci\u00e9s sont prises en compte. Les groupes restants, qui ne couvrent aucune valeur d'attribut, sont associ\u00e9s \u00e0 une \u00e9tiquette NULL. Un exemple de phrase annot\u00e9e de cette fa\u00e7on est fourni ci-dessous. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "\u00c9tiquetage du corpus pour l'apprentissage supervis\u00e9",
"sec_num": "4.2"
},
{
"text": "Apr\u00e8s l'annotation automatique du corpus et une normalisation de base (passage du corpus en minuscules, suppression des espaces en trop, d\u00e9coupage en phrases), les repr\u00e9sentations lexicales sont apprises en appliquant le r\u00e9seau de neurones pr\u00e9sent\u00e9 \u00e0 la figure 1.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9rimentations",
"sec_num": "4.3"
},
{
"text": "Apr\u00e8s exp\u00e9rimentations, nous avons retenu des repr\u00e9sentations lexicales form\u00e9es par des vecteurs \u00e0 50 dimensions obtenus par application sur des s\u00e9quences de 5 mots, d\u00e9nomm\u00e9s DRVR-50 (pour Domain-Relevant Vector Representations.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9rimentations",
"sec_num": "4.3"
},
{
"text": "Comme indiqu\u00e9 \u00e0 la section 3.2, nous avons utilis\u00e9 le r\u00e9seau de neurones avec softsign comme fonction non lin\u00e9aire. Vu la faible complexit\u00e9 de cette fonction, la dur\u00e9e d'entra\u00eenement est rapide (environ 12 heures), en comparaison des semaines mentionn\u00e9es dans (Turian et al., 2010) .",
"cite_spans": [
{
"start": 260,
"end": 281,
"text": "(Turian et al., 2010)",
"ref_id": "BIBREF36"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9rimentations",
"sec_num": "4.3"
},
{
"text": "Nous avons effectu\u00e9 un certain nombre d'exp\u00e9rimentations, que nous ne d\u00e9taillerons pas ici, afin de d\u00e9terminer la meilleure combinaison des param\u00e8tres importants de notre syst\u00e8me. Parmi ceux-ci, nous avons accord\u00e9 une attention toute particuli\u00e8re \u00e0 la m\u00e9thode de corruption des s\u00e9quences en consid\u00e9rant trois conditions de choix al\u00e9atoire du mot corrupteur : choix parmi tout le vocabulaire, choix parmi les mots les plus fr\u00e9quents et choix parmi les mots les plus li\u00e9s au domaine selon le crit\u00e8re pr\u00e9sent\u00e9 \u00e0 la section 3.3. Les meilleurs r\u00e9sultats ont \u00e9t\u00e9 obtenus avec cette derni\u00e8re condition, montrant ainsi l'int\u00e9r\u00eat du m\u00e9canisme d'adaptation faiblement supervis\u00e9 au domaine que nous avons propos\u00e9 pour la construction Les r\u00e9sultats pr\u00e9sent\u00e9s \u00e0 la figure 2 sont calcul\u00e9s pour les r\u00f4les consid\u00e9r\u00e9s (AutInd, AutOrg, Cible, Victime, Arme). Nous observons que nos repr\u00e9sentations lexicales (DRVR-50) surpassent les r\u00e9sultats de l'\u00e9tat de l'art indiqu\u00e9s par les points gris, ce qui montre qu'elles permettent de repr\u00e9senter des informations s\u00e9mantiques au moins \u00e9quivalentes pour la t\u00e2che sans avoir \u00e0 ajouter d'autres traits. Par ailleurs, on peut voir qu'elles pr\u00e9sentent une bonne stabilit\u00e9 par rapport \u00e0 la taille du corpus d'apprentissage. La m\u00e9thode que nous proposons est donc une piste int\u00e9ressante pour d\u00e9velopper rapidement des syst\u00e8mes d'extraction d'\u00e9v\u00e9nements sur un nouveau domaine avec peu de donn\u00e9es annot\u00e9es.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9rimentations",
"sec_num": "4.3"
},
{
"text": "La table 1 pr\u00e9sente des r\u00e9sultats comparatifs plus d\u00e9taill\u00e9s. On peut voir dans ce tableau que nos r\u00e9sultats surpassent ceux des mod\u00e8les faiblement supervis\u00e9s (0,73 vs 0,59) et supervis\u00e9s (0,73 vs 0,56). Les r\u00f4les AutOrg et Arme obtiennent m\u00eame une tr\u00e8s bonne pr\u00e9cision, ce qui signifie que pour ces r\u00f4les, un filtre suppl\u00e9mentaire pour \u00e9liminer les faux candidats n'est pas n\u00e9cessaire. De fa\u00e7on g\u00e9n\u00e9rale, le compromis entre la justesse de la r\u00e9ponse et le nombre de candidats trouv\u00e9s devra \u00eatre \u00e9tudi\u00e9 plus pr\u00e9cis\u00e9ment dans de futurs travaux.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9rimentations",
"sec_num": "4.3"
},
{
"text": "L'aspect innovant de notre syst\u00e8me concerne l'utilisation des repr\u00e9sentations lexicales apprises par un mod\u00e8le neuronal. Pour \u00e9tudier de fa\u00e7on plus pouss\u00e9e l'influence de ces repr\u00e9sentations, nous avons compar\u00e9 nos repr\u00e9sentations apprises sur le corpus MUC-4 selon le mod\u00e8le d\u00e9taill\u00e9 en section 3 avec des mod\u00e8les de repr\u00e9sentations lexicales existants : nous avons utilis\u00e9 les donn\u00e9es mises \u00e0 disposition par (Turian et al., 2010) , et plus pr\u00e9cis\u00e9ment, selon les mod\u00e8les de C&W et HLBL 4 . Ces repr\u00e9sentations sont construites \u00e0 partir d'un corpus plus important et plus g\u00e9n\u00e9raliste d'articles de journaux (corpus Reuters RCV1). Les r\u00e9sultats obtenus avec ces repr\u00e9sentations lexicales sont report\u00e9s dans la table 1 et montrent que les scores obtenus avec notre mod\u00e8le restent sup\u00e9rieurs (avec une F1-mesure de 0,72 contre 0,65 et 0,66, due surtout \u00e0 une meilleure pr\u00e9cision). Ceci met en \u00e9vidence qu'un mod\u00e8le appris sur un corpus sp\u00e9cifique \u00e0 un domaine permet d'obtenir de meilleurs r\u00e9sultats, m\u00eame si ce corpus est de taille beaucoup moins importante (alors qu'il est d'usage de consid\u00e9rer que les mod\u00e8les neuronaux n\u00e9cessitent souvent des donn\u00e9es d'entra\u00eenement importantes).",
"cite_spans": [
{
"start": 411,
"end": 432,
"text": "(Turian et al., 2010)",
"ref_id": "BIBREF36"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9rimentations",
"sec_num": "4.3"
},
{
"text": "De fa\u00e7on compl\u00e9mentaire, nous avons compar\u00e9 notre m\u00e9thode pour apprendre les repr\u00e9sentations lexicales sur le corpus MUC-4 avec la m\u00e9thode propos\u00e9e par (Mikolov et al., 2011) 5 , en utilisant le m\u00eame corpus. Les r\u00e9sultats sont pr\u00e9sent\u00e9s dans la table 1 sous le nom W2V50. Les r\u00e9sultats obtenus sont alors comparables avec ceux obtenus par notre syst\u00e8me (l\u00e9g\u00e8rement moins bons), ce qui confirme que l'utilisation d'un corpus sp\u00e9cifique au domaine consid\u00e9r\u00e9 est bien un atout int\u00e9ressant.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9rimentations",
"sec_num": "4.3"
},
{
"text": "4. Ces donn\u00e9es sont disponibles sur http://metaoptimize.com/projects/wordreprs. 5. Son code pour g\u00e9n\u00e9rer les repr\u00e9sentations est disponible \u00e0 l'adresse : https://code.google.com/p/word2vec.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Exp\u00e9rimentations",
"sec_num": "4.3"
},
{
"text": ". A l'exception d'attributs de m\u00e9ta-donn\u00e9es comme les attributs 0 (MESSAGE :ID) et 1 (MESSAGE : TEMPLATE).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
}
],
"back_matter": [],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "Ces types de repr\u00e9sentation sont connus pour \u00eatre ind\u00e9pendants de la t\u00e2che, et nous avons montr\u00e9 que l'on pouvait les utiliser dans une t\u00e2che d'extraction d'\u00e9v\u00e9nements, en obtenant des r\u00e9sultats qui surpassent les r\u00e9sultats actuels sur la m\u00eame t\u00e2che. De plus, les repr\u00e9sentations apprises le sont en tenant compte du domaine \u00e0 analyser et cela contribue \u00e0 l'am\u00e9lioration des r\u00e9sultats obtenus. Nous avons aussi montr\u00e9 qu'elles \u00e9taient stables sur diff\u00e9rentes tailles de corpus d'apprentissage. Un second point important de ces r\u00e9sultats concerne l'adaptation d'un syst\u00e8me \u00e0 un nouveau domaine. Dans notre cas, il suffit de fournir seulement des exemples de valeurs de r\u00f4les \u00e0 \u00e9tiqueter et un corpus pas n\u00e9cessairement tr\u00e8s important, et on peut d\u00e9velopper rapidement un syst\u00e8me d'extraction d'information. Aucune d\u00e9finition de nouveaux traits ou \u00e9tude de leur adaptation au domaine n'est requise",
"authors": [],
"year": null,
"venue": "Nous avons pr\u00e9sent\u00e9 une nouvelle approche d'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels qui permet de r\u00e9duire le nombre de traits \u00e0 concevoir manuellement en utilisant des repr\u00e9sentations lexicales distribu\u00e9es apprises de mani\u00e8re non supervis\u00e9e",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Nous avons pr\u00e9sent\u00e9 une nouvelle approche d'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels qui permet de r\u00e9duire le nombre de traits \u00e0 concevoir manuellement en utilisant des repr\u00e9sentations lexicales distribu\u00e9es apprises de mani\u00e8re non supervis\u00e9e. Ces types de repr\u00e9sentation sont connus pour \u00eatre ind\u00e9pendants de la t\u00e2che, et nous avons montr\u00e9 que l'on pouvait les utiliser dans une t\u00e2che d'extraction d'\u00e9v\u00e9nements, en obtenant des r\u00e9sultats qui surpassent les r\u00e9sultats actuels sur la m\u00eame t\u00e2che. De plus, les repr\u00e9sentations apprises le sont en tenant compte du domaine \u00e0 analyser et cela contribue \u00e0 l'am\u00e9lioration des r\u00e9sultats obtenus. Nous avons aussi montr\u00e9 qu'elles \u00e9taient stables sur diff\u00e9rentes tailles de corpus d'apprentissage. Un second point important de ces r\u00e9sultats concerne l'adaptation d'un syst\u00e8me \u00e0 un nouveau domaine. Dans notre cas, il suffit de fournir seulement des exemples de valeurs de r\u00f4les \u00e0 \u00e9tiqueter et un corpus pas n\u00e9cessairement tr\u00e8s important, et on peut d\u00e9velopper rapidement un syst\u00e8me d'extraction d'information. Aucune d\u00e9finition de nouveaux traits ou \u00e9tude de leur adaptation au domaine n'est requise. Il reste \u00e0 v\u00e9rifier que l'on peut obtenir d'aussi bons r\u00e9sultats sur un domaine diff\u00e9rent.",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "nous envisageons de tester d'autres architectures de r\u00e9seau de neurones pour tirer parti d'informations que l'on peut obtenir \u00e0 partir d'un analyseur tel qu'un analyseur \u00e0 base de grammaire probabiliste hors-contexte. Nous envisageons aussi d'\u00e9tendre le syst\u00e8me \u00e0 l'ensemble de la t\u00e2che",
"authors": [
{
"first": "",
"middle": [],
"last": "Dans Le Futur",
"suffix": ""
}
],
"year": null,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "Dans le futur, nous envisageons de tester d'autres architectures de r\u00e9seau de neurones pour tirer parti d'informations que l'on peut obtenir \u00e0 partir d'un analyseur tel qu'un analyseur \u00e0 base de grammaire probabiliste hors-contexte. Nous envisageons aussi d'\u00e9tendre le syst\u00e8me \u00e0 l'ensemble de la t\u00e2che, en consid\u00e9rant toutes les sous-t\u00e2ches ensembles lors de l'apprentissage de mani\u00e8re \u00e0 consid\u00e9rer les relations qu'elles entretiennent.",
"links": null
},
"BIBREF2": {
"ref_id": "b2",
"title": "A neural probabilistic language model",
"authors": [
{
"first": "Y",
"middle": [],
"last": "Bengio",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Ducharme R",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Vincent P",
"suffix": ""
}
],
"year": 2003,
"venue": "Journal of Machine Learning Research",
"volume": "3",
"issue": "",
"pages": "1137--1155",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BENGIO Y., DUCHARME R. & VINCENT P. (2003). A neural probabilistic language model. Journal of Machine Learning Research, 3, 1137-1155.",
"links": null
},
"BIBREF3": {
"ref_id": "b3",
"title": "Neural probabilistic language models",
"authors": [
{
"first": "Y",
"middle": [],
"last": "Bengio",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Schwenk",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Sen\u00e9cal J.-S",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Morin F. & Gauvain J.-L",
"suffix": ""
}
],
"year": 2006,
"venue": "Innovations in Machine Learning",
"volume": "194",
"issue": "",
"pages": "138--186",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BENGIO Y., SCHWENK H., SEN\u00c9CAL J.-S., MORIN F. & GAUVAIN J.-L. (2006). Neural probabilistic language models. In D. HOLMES & L. JAIN, Eds., Innovations in Machine Learning, volume 194 of Studies in Fuzziness and Soft Computing, p. 138-186. Springer Berlin Heidelberg.",
"links": null
},
"BIBREF4": {
"ref_id": "b4",
"title": "Collective information extraction with relational markov networks",
"authors": [
{
"first": "",
"middle": [
"&"
],
"last": "Bunescu R",
"suffix": ""
},
{
"first": "",
"middle": [
"J"
],
"last": "Mooney R",
"suffix": ""
}
],
"year": 2004,
"venue": "42nd Annual Meeting of the Association for Computational Linguistics (ACL'04)",
"volume": "",
"issue": "",
"pages": "438--445",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BUNESCU R. & MOONEY R. J. (2004). Collective information extraction with relational markov networks. In 42nd Annual Meeting of the Association for Computational Linguistics (ACL'04), p. 438-445.",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "Closing the gap : Learning-based information extraction rivaling knowledge-engineering methods",
"authors": [
{
"first": "H",
"middle": [
"L"
],
"last": "Chieu",
"suffix": ""
},
{
"first": "H",
"middle": [
"T"
],
"last": "Ng",
"suffix": ""
},
{
"first": "",
"middle": [
"K"
],
"last": "Lee Y",
"suffix": ""
}
],
"year": 2003,
"venue": "41st Annual Meeting of the Association for Computational Linguistics (ACL'03)",
"volume": "",
"issue": "",
"pages": "216--223",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CHIEU H. L., NG H. T. & LEE Y. K. (2003). Closing the gap : Learning-based information extraction rivaling knowledge-engineering methods. In 41st Annual Meeting of the Association for Computational Linguistics (ACL'03), p. 216-223.",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "Unsupervised event extraction from biomedical literature using co-occurrence information and basic patterns",
"authors": [
{
"first": "Chun H.-W",
"middle": [],
"last": "Hwang Y.-S. & Rim H.-C",
"suffix": ""
}
],
"year": 2004,
"venue": "",
"volume": "",
"issue": "",
"pages": "777--786",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CHUN H.-W., HWANG Y.-S. & RIM H.-C. (2005). Unsupervised event extraction from biomedical literature using co-occurrence information and basic patterns. In IJCNLP 2004, p. 777-786. Springer.",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "High-precision biological event extraction with a concept recognizer",
"authors": [
{
"first": "",
"middle": [
"B"
],
"last": "Cohen K",
"suffix": ""
},
{
"first": "K",
"middle": [],
"last": "Verspoor",
"suffix": ""
},
{
"first": "H",
"middle": [
"L"
],
"last": "Johnson",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Roeder",
"suffix": ""
},
{
"first": "P",
"middle": [
"V"
],
"last": "Ogren",
"suffix": ""
},
{
"first": "",
"middle": [
"A"
],
"last": "Baumgartner Jr W",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "White E",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Tipney",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Hunter L",
"suffix": ""
}
],
"year": 2009,
"venue": "Workshop on Current Trends in Biomedical Natural Language Processing : Shared Task",
"volume": "",
"issue": "",
"pages": "50--58",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "COHEN K. B., VERSPOOR K., JOHNSON H. L., ROEDER C., OGREN P. V., BAUMGARTNER JR W. A., WHITE E., TIPNEY H. & HUNTER L. (2009). High-precision biological event extraction with a concept recognizer. In Workshop on Current Trends in Biomedical Natural Language Processing : Shared Task, p. 50-58.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "A unified architecture for natural language processing : Deep neural networks with multitask learning",
"authors": [
{
"first": "",
"middle": [],
"last": "Collobert R",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Weston J",
"suffix": ""
}
],
"year": 2008,
"venue": "25rd International Conference of Machine learning",
"volume": "",
"issue": "",
"pages": "160--167",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "COLLOBERT R. & WESTON J. (2008). A unified architecture for natural language processing : Deep neural networks with multitask learning. In 25rd International Conference of Machine learning, p. 160-167 : ACM.",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "Natural language processing (almost) from scratch",
"authors": [
{
"first": "",
"middle": [],
"last": "Collobert R",
"suffix": ""
},
{
"first": "J",
"middle": [],
"last": "Weston",
"suffix": ""
},
{
"first": "L",
"middle": [],
"last": "Battou",
"suffix": ""
},
{
"first": "Karlen",
"middle": [
"M"
],
"last": "Kavukcuoglu K. & Kuksa P",
"suffix": ""
}
],
"year": 2011,
"venue": "Journal of Machine Learning Approach",
"volume": "12",
"issue": "",
"pages": "2493--2537",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "COLLOBERT R., WESTON J., BATTOU L., KARLEN M., KAVUKCUOGLU K. & KUKSA P. (2011). Natural language processing (almost) from scratch. Journal of Machine Learning Approach, 12, 2493-2537.",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "Information extraction from HTML : Application of a general machine learning approach",
"authors": [
{
"first": "",
"middle": [],
"last": "Freitag D",
"suffix": ""
}
],
"year": 1998,
"venue": "AAAI",
"volume": "",
"issue": "",
"pages": "517--523",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "FREITAG D. (1998). Information extraction from HTML : Application of a general machine learning approach. In AAAI, p. 517-523.",
"links": null
},
"BIBREF11": {
"ref_id": "b11",
"title": "Extremely randomized trees",
"authors": [
{
"first": "P",
"middle": [],
"last": "Geurts",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Ernst D. & Wehenkel L",
"suffix": ""
}
],
"year": 2006,
"venue": "Machine Learning",
"volume": "63",
"issue": "",
"pages": "3--42",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GEURTS P., ERNST D. & WEHENKEL L. (2006). Extremely randomized trees. Machine Learning, 63(1), 3-42.",
"links": null
},
"BIBREF12": {
"ref_id": "b12",
"title": "Message understanding conference-6 : A brief history",
"authors": [
{
"first": "",
"middle": [],
"last": "Grishman R. & Sundheim B",
"suffix": ""
}
],
"year": 1996,
"venue": "",
"volume": "",
"issue": "",
"pages": "466--471",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GRISHMAN R. & SUNDHEIM B. (1996). Message understanding conference-6 : A brief history. In COLING 1996, p. 466-471.",
"links": null
},
"BIBREF13": {
"ref_id": "b13",
"title": "SRI International : Description of the FASTUS system used for MUC-4",
"authors": [
{
"first": "J",
"middle": [
"R"
],
"last": "Hobbs",
"suffix": ""
},
{
"first": "D",
"middle": [],
"last": "Appelt",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Tyson M",
"suffix": ""
},
{
"first": "J",
"middle": [],
"last": "Bear",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Israel D",
"suffix": ""
}
],
"year": 1992,
"venue": "4th Conference on Message understanding",
"volume": "",
"issue": "",
"pages": "268--275",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HOBBS J. R., APPELT D., TYSON M., BEAR J. & ISRAEL D. (1992). SRI International : Description of the FASTUS system used for MUC-4. In 4th Conference on Message understanding, p. 268-275.",
"links": null
},
"BIBREF14": {
"ref_id": "b14",
"title": "Inducing domain-specific semantic class taggers from (almost) nothing",
"authors": [
{
"first": "",
"middle": [],
"last": "Huang R. & Riloff E",
"suffix": ""
}
],
"year": 2010,
"venue": "48th Annual Meeting of the Association for Computational Linguistics",
"volume": "",
"issue": "",
"pages": "275--285",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HUANG R. & RILOFF E. (2010). Inducing domain-specific semantic class taggers from (almost) nothing. In 48th Annual Meeting of the Association for Computational Linguistics, p. 275-285.",
"links": null
},
"BIBREF15": {
"ref_id": "b15",
"title": "Peeling back the layers : Detecting event role fillers in secondary contexts",
"authors": [
{
"first": "",
"middle": [],
"last": "Huang R. & Riloff E",
"suffix": ""
}
],
"year": 2011,
"venue": "",
"volume": "",
"issue": "",
"pages": "1137--1147",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HUANG R. & RILOFF E. (2011). Peeling back the layers : Detecting event role fillers in secondary contexts. In ACL 2011, p. 1137-1147.",
"links": null
},
"BIBREF17": {
"ref_id": "b17",
"title": "Bootstrapped training of event extraction classifiers",
"authors": [
{
"first": "",
"middle": [],
"last": "Huang R. & Riloff E",
"suffix": ""
}
],
"year": 2012,
"venue": "13th Conference of the European Chapter of the Association for Computational Linguistics",
"volume": "",
"issue": "",
"pages": "286--295",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HUANG R. & RILOFF E. (2012a). Bootstrapped training of event extraction classifiers. In 13th Conference of the European Chapter of the Association for Computational Linguistics, p. 286-295.",
"links": null
},
"BIBREF18": {
"ref_id": "b18",
"title": "Modeling textual cohesion for event extraction",
"authors": [
{
"first": "",
"middle": [],
"last": "Huang R. & Riloff E",
"suffix": ""
}
],
"year": 2012,
"venue": "26th Conference on Artificial Intelligence (AAAI 2012",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HUANG R. & RILOFF E. (2012b). Modeling textual cohesion for event extraction. In 26th Conference on Artificial Intelligence (AAAI 2012).",
"links": null
},
"BIBREF19": {
"ref_id": "b19",
"title": "Web mining for event-based commonsense knowledge using lexicosyntactic pattern matching and semantic role labeling",
"authors": [
{
"first": "Hung S.-H",
"middle": [],
"last": "",
"suffix": ""
},
{
"first": "Lin C.-H. & Hong J.-S",
"middle": [],
"last": "",
"suffix": ""
}
],
"year": 2010,
"venue": "Expert Systems with Applications",
"volume": "37",
"issue": "1",
"pages": "341--347",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HUNG S.-H., LIN C.-H. & HONG J.-S. (2010). Web mining for event-based commonsense knowledge using lexico- syntactic pattern matching and semantic role labeling. Expert Systems with Applications, 37(1), 341-347.",
"links": null
},
"BIBREF20": {
"ref_id": "b20",
"title": "Text segmentation and graph-based method for template filling in information extraction",
"authors": [
{
"first": "Louis",
"middle": [
"L"
],
"last": "Jean-",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Besan\u00e7on R. & Ferret O",
"suffix": ""
}
],
"year": 2011,
"venue": "5th International Joint Conference on Natural Language Processing",
"volume": "",
"issue": "",
"pages": "723--731",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "JEAN-LOUIS L., BESAN\u00c7ON R. & FERRET O. (2011). Text segmentation and graph-based method for template filling in information extraction. In 5th International Joint Conference on Natural Language Processing (IJCNLP 2011), p. 723-731.",
"links": null
},
"BIBREF21": {
"ref_id": "b21",
"title": "GE : Description of the NLToolset System as Used for MUC-3",
"authors": [
{
"first": "G",
"middle": [],
"last": "Krupka",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Jacobs",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Rau L. & Iwa\u0144ska L",
"suffix": ""
}
],
"year": 1991,
"venue": "3rd Conference on Message understanding",
"volume": "",
"issue": "",
"pages": "144--149",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KRUPKA G., JACOBS P., RAU L. & IWA\u0143SKA L. (1991). GE : Description of the NLToolset System as Used for MUC-3. In 3rd Conference on Message understanding, p. 144-149.",
"links": null
},
"BIBREF22": {
"ref_id": "b22",
"title": "An introduction to latent semantic analysis",
"authors": [
{
"first": "",
"middle": [
"K"
],
"last": "Landauer T",
"suffix": ""
},
{
"first": "",
"middle": [
"W"
],
"last": "Foltz P",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Laham D",
"suffix": ""
}
],
"year": 1998,
"venue": "Discourse processes",
"volume": "25",
"issue": "",
"pages": "259--284",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LANDAUER T. K., FOLTZ P. W. & LAHAM D. (1998). An introduction to latent semantic analysis. Discourse processes, 25(2-3), 259-284.",
"links": null
},
"BIBREF23": {
"ref_id": "b23",
"title": "University of Massachusetts : MUC-4 test results and analysis",
"authors": [
{
"first": "",
"middle": [],
"last": "Lehnert W",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Cardie",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Fisher D",
"suffix": ""
},
{
"first": "J",
"middle": [],
"last": "Mccarthy",
"suffix": ""
},
{
"first": "Riloff",
"middle": [
"E &"
],
"last": "Soderland S",
"suffix": ""
}
],
"year": 1992,
"venue": "4th Conference on Message understanding",
"volume": "",
"issue": "",
"pages": "151--158",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LEHNERT W., CARDIE C., FISHER D., MCCARTHY J., RILOFF E. & SODERLAND S. (1992). University of Massa- chusetts : MUC-4 test results and analysis. In 4th Conference on Message understanding, p. 151-158.",
"links": null
},
"BIBREF24": {
"ref_id": "b24",
"title": "Price reactions to dividend initiations and omissions : overreaction or drift ?",
"authors": [
{
"first": "",
"middle": [],
"last": "Michaely R",
"suffix": ""
},
{
"first": "",
"middle": [
"H"
],
"last": "Thaler R",
"suffix": ""
},
{
"first": "",
"middle": [
"L"
],
"last": "Womack K",
"suffix": ""
}
],
"year": 1995,
"venue": "The Journal of Finance",
"volume": "50",
"issue": "2",
"pages": "573--608",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MICHAELY R., THALER R. H. & WOMACK K. L. (1995). Price reactions to dividend initiations and omissions : overreaction or drift ? The Journal of Finance, 50(2), 573-608.",
"links": null
},
"BIBREF25": {
"ref_id": "b25",
"title": "Extensions of recurrent neural network language model",
"authors": [
{
"first": "",
"middle": [],
"last": "Mikolov T",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Kombrink",
"suffix": ""
},
{
"first": "L",
"middle": [],
"last": "Burget",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Cernocky J. & Khudanpur S",
"suffix": ""
}
],
"year": 2011,
"venue": "2011 IEEE International Conference on Acoustics, Speech and Signal Processing",
"volume": "",
"issue": "",
"pages": "5528--5531",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MIKOLOV T., KOMBRINK S., BURGET L., CERNOCKY J. & KHUDANPUR S. (2011). Extensions of recurrent neural network language model. In 2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), p. 5528-5531.",
"links": null
},
"BIBREF26": {
"ref_id": "b26",
"title": "Widening the field of view of information extraction through sentential event recognition",
"authors": [
{
"first": "",
"middle": [],
"last": "Patwardhan S",
"suffix": ""
}
],
"year": 2010,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PATWARDHAN S. (2010). Widening the field of view of information extraction through sentential event recognition. PhD thesis, University of Utah.",
"links": null
},
"BIBREF27": {
"ref_id": "b27",
"title": "Effective information extraction with semantic affinity patterns and relevant regions",
"authors": [
{
"first": "",
"middle": [],
"last": "Patwardhan S. & Riloff E",
"suffix": ""
}
],
"year": 2007,
"venue": "EMNLP-CoNLL",
"volume": "",
"issue": "",
"pages": "717--727",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PATWARDHAN S. & RILOFF E. (2007). Effective information extraction with semantic affinity patterns and relevant regions. In EMNLP-CoNLL 2007, p. 717-727.",
"links": null
},
"BIBREF28": {
"ref_id": "b28",
"title": "A unified model of phrasal and sentential evidence for information extraction",
"authors": [
{
"first": "",
"middle": [],
"last": "Patwardhan S. & Riloff E",
"suffix": ""
}
],
"year": 2009,
"venue": "Conference on Empirical Methods in Natural Language Processing",
"volume": "",
"issue": "",
"pages": "151--160",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PATWARDHAN S. & RILOFF E. (2009). A unified model of phrasal and sentential evidence for information extraction. In 2009 Conference on Empirical Methods in Natural Language Processing, p. 151-160.",
"links": null
},
"BIBREF30": {
"ref_id": "b30",
"title": "Scikit-learn : Machine learning in Python",
"authors": [
{
"first": "&",
"middle": [],
"last": "Duchesnay",
"suffix": ""
},
{
"first": "E",
"middle": [],
"last": "",
"suffix": ""
}
],
"year": 2011,
"venue": "Journal of Machine Learning Research",
"volume": "12",
"issue": "",
"pages": "2825--2830",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "& DUCHESNAY E. (2011). Scikit-learn : Machine learning in Python. Journal of Machine Learning Research, 12, 2825-2830.",
"links": null
},
"BIBREF31": {
"ref_id": "b31",
"title": "Automatically generating extraction patterns from untagged text",
"authors": [
{
"first": "Riloff",
"middle": [
"E"
],
"last": "",
"suffix": ""
}
],
"year": 1996,
"venue": "AAAI'96",
"volume": "",
"issue": "",
"pages": "1044--1049",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "RILOFF E. (1996a). Automatically generating extraction patterns from untagged text. In AAAI'96, p. 1044-1049.",
"links": null
},
"BIBREF32": {
"ref_id": "b32",
"title": "An empirical study of automated dictionary construction for information extraction in three domains",
"authors": [
{
"first": "Riloff",
"middle": [
"E"
],
"last": "",
"suffix": ""
}
],
"year": 1996,
"venue": "Artificial intelligence",
"volume": "85",
"issue": "1",
"pages": "101--134",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "RILOFF E. (1996b). An empirical study of automated dictionary construction for information extraction in three domains. Artificial intelligence, 85(1), 101-134.",
"links": null
},
"BIBREF33": {
"ref_id": "b33",
"title": "Linguistic resources and evaluation techniques for evaluation of cross-document automatic content extraction",
"authors": [
{
"first": "",
"middle": [],
"last": "Strassel S",
"suffix": ""
},
{
"first": "M",
"middle": [
"A"
],
"last": "Przybocki",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Peterson K",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Song Z. & Maeda K",
"suffix": ""
}
],
"year": 2008,
"venue": "LREC",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "STRASSEL S., PRZYBOCKI M. A., PETERSON K., SONG Z. & MAEDA K. (2008). Linguistic resources and evaluation techniques for evaluation of cross-document automatic content extraction. In LREC 2008.",
"links": null
},
"BIBREF34": {
"ref_id": "b34",
"title": "An improved extraction pattern representation model for automatic ie pattern acquisition",
"authors": [
{
"first": "",
"middle": [],
"last": "Sudo K",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Sekine S. & Grishman R",
"suffix": ""
}
],
"year": 2003,
"venue": "41st Annual Meeting of the Association for Computational Linguistics (ACL'03)",
"volume": "",
"issue": "",
"pages": "224--231",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SUDO K., SEKINE S. & GRISHMAN R. (2003). An improved extraction pattern representation model for automatic ie pattern acquisition. In 41st Annual Meeting of the Association for Computational Linguistics (ACL'03), p. 224-231.",
"links": null
},
"BIBREF35": {
"ref_id": "b35",
"title": "A hybrid approach for the acquisition of information extraction patterns",
"authors": [
{
"first": "M",
"middle": [],
"last": "Surdeanu",
"suffix": ""
},
{
"first": "J",
"middle": [
"&"
],
"last": "Turmo",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Ageno A",
"suffix": ""
}
],
"year": 2006,
"venue": "EACL-2006 Workshop on Adaptive Text Extraction and Mining",
"volume": "",
"issue": "",
"pages": "48--55",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SURDEANU M., TURMO J. & AGENO A. (2006). A hybrid approach for the acquisition of information extraction patterns. In EACL-2006 Workshop on Adaptive Text Extraction and Mining (ATEM 2006), p. 48-55.",
"links": null
},
"BIBREF36": {
"ref_id": "b36",
"title": "Word representations : a simple and general method for semi-supervised learning",
"authors": [
{
"first": "J",
"middle": [],
"last": "Turian",
"suffix": ""
},
{
"first": "L",
"middle": [
"&"
],
"last": "Ratinov",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Bengio Y",
"suffix": ""
}
],
"year": 2010,
"venue": "48th international Annual Meeting on Association for Computational Linguistics",
"volume": "",
"issue": "",
"pages": "384--394",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "TURIAN J., RATINOV L. & BENGIO Y. (2010). Word representations : a simple and general method for semi-supervised learning. In 48th international Annual Meeting on Association for Computational Linguistics, p. 384-394.",
"links": null
},
"BIBREF37": {
"ref_id": "b37",
"title": "Overview of the TREC 2011 medical records track",
"authors": [
{
"first": "Voorhees",
"middle": [
"E &"
],
"last": "Tong R",
"suffix": ""
}
],
"year": 2011,
"venue": "TREC",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "VOORHEES E. & TONG R. (2011). Overview of the TREC 2011 medical records track. In TREC 2011.",
"links": null
},
"BIBREF38": {
"ref_id": "b38",
"title": "Event extraction from biomedical papers using a full parser",
"authors": [
{
"first": "",
"middle": [],
"last": "Yakushiji A",
"suffix": ""
},
{
"first": "Y",
"middle": [],
"last": "Tateisi",
"suffix": ""
},
{
"first": "Y",
"middle": [
"&"
],
"last": "Miyao",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Tsujii J",
"suffix": ""
}
],
"year": 2001,
"venue": "Pacific Symposium on Biocomputing",
"volume": "6",
"issue": "",
"pages": "408--419",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "YAKUSHIJI A., TATEISI Y., MIYAO Y. & TSUJII J. (2001). Event extraction from biomedical papers using a full parser. In Pacific Symposium on Biocomputing, volume 6, p. 408-419.",
"links": null
},
"BIBREF39": {
"ref_id": "b39",
"title": "Automatic acquisition of domain knowledge for information extraction",
"authors": [
{
"first": "",
"middle": [],
"last": "Yangarber R",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Grishman R",
"suffix": ""
},
{
"first": "P",
"middle": [
"&"
],
"last": "Tapanainen",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Huttunen S",
"suffix": ""
}
],
"year": 2000,
"venue": "18th Conference on Computational linguistics",
"volume": "",
"issue": "",
"pages": "940--946",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "YANGARBER R., GRISHMAN R., TAPANAINEN P. & HUTTUNEN S. (2000). Automatic acquisition of domain know- ledge for information extraction. In 18th Conference on Computational linguistics (COLING 2000), p. 940-946.",
"links": null
}
},
"ref_entries": {
"FIGREF0": {
"text": "Nous nous inscrivons dans le prolongement de(Collobert & Weston, 2008) pour construire des repr\u00e9sentations d\u00e9di\u00e9es \u00e0 l'\u00e9tiquetage en r\u00f4les \u00e9v\u00e9nementiels. Cette construction prend la forme de l'apprentissage d'un mod\u00e8le permettant de diff\u00e9rencier de fa\u00e7on g\u00e9n\u00e9rique une s\u00e9quence de mots issue d'un corpus repr\u00e9sentatif d'un domaine et une s\u00e9quence de mots proche mais ne figurant pas dans le corpus. En pratique, les secondes sont construites par l'alt\u00e9ration des premi\u00e8res en changeant un de leurs mots, en l'occurrence celui du milieu. Nous verrons \u00e0 la section suivante comment s'effectue ce changement. La t\u00e2che peut donc \u00eatre vue comme un test de compatibilit\u00e9 du mot central d'une s\u00e9quence avec son contexte environnant du point de vue du corpus consid\u00e9r\u00e9 et donc, de son domaine associ\u00e9.Le mod\u00e8le \u00e0 apprendre prend plus sp\u00e9cifiquement la forme d'un r\u00e9seau de neurones \u00e0 trois couches, comme l'illustre la figure 1, avec une premi\u00e8re couche (de gauche \u00e0 droite) permettant de repr\u00e9senter les s\u00e9quences en entr\u00e9e et une couche \u00c9TIQUETAGE EN R\u00d4LES \u00c9V\u00c9NEMENTIELS finale ayant pour r\u00f4le de leur attribuer un score. Les s\u00e9quences correspondent au contenu d'une fen\u00eatre glissante d\u00e9plac\u00e9e sur les textes et compos\u00e9e de m = 2n + 1 mots. Chaque unit\u00e9 de la couche d'entr\u00e9e du r\u00e9seau de la figure 1 ne correspond pas directement \u00e0 un mot de cette fen\u00eatre mais \u00e0 une des k dimensions de sa repr\u00e9sentation distribu\u00e9e. La couche d'entr\u00e9e du r\u00e9seau est ainsi form\u00e9e de la concat\u00e9nation des repr\u00e9sentations distribu\u00e9es des m mots de la fen\u00eatre et contient donc k \u2022 m unit\u00e9s. Architecture du r\u00e9seau de neurones utilis\u00e9 Lors de la premi\u00e8re phase du processus d'apprentissage, les diff\u00e9rentes dimensions de la repr\u00e9sentation d'un mot sont initialis\u00e9es de mani\u00e8re al\u00e9atoire selon une loi uniforme. L'activation correspondante est propag\u00e9e dans le r\u00e9seau, d'abord vers la couche cach\u00e9e, puis vers la couche de sortie pour aboutir au calcul d'un score associ\u00e9 \u00e0 la s\u00e9quence d'entr\u00e9e. D'un point de vue plus formel, pour la s\u00e9quence d'entr\u00e9e w",
"uris": null,
"type_str": "figure",
"num": null
},
"FIGREF1": {
"text": "De fa\u00e7on similaire \u00e0 (Patwardhan & Riloff, 2009), nous distinguons cinq grands groupes d'attributs : AutInd (PERP :INDIVIDUAL ID) AutOrg (PERP :ORGANIZATION ID) Cible (PHYS TGT :ID) Victime (HUM TGT :NAME, HUM TGT :DESCRIPTION) Arme (INCIDENT :INSTRUMENT ID, INCIDENT :INSTRUMENT TYPE)",
"uris": null,
"type_str": "figure",
"num": null
},
"FIGREF2": {
"text": "r\u00f4les \u00e9v\u00e9nementiels S-AGENT NULL B-TARGET I-TARGET I-TARGET I-TARGET E-TARGET",
"uris": null,
"type_str": "figure",
"num": null
},
"FIGREF3": {
"text": "F1-Mesure pour les r\u00f4les texte de TST3+TST4 avec diff\u00e9rents param\u00e8tres, en relation avec la courbe d'apprentissage de TIER(Huang & Riloff, 2012a",
"uris": null,
"type_str": "figure",
"num": null
},
"TABREF1": {
"html": null,
"text": "Pour \u00e9valuer l'importance d'un mot par rapport \u00e0 un domaine, lequel s'identifie dans notre cas \u00e0 un type d'\u00e9v\u00e9nement, nous adoptons une approche faiblement supervis\u00e9e en \u00e9valuant la proximit\u00e9 s\u00e9mantique entre ce mot et un ensemble de mots repr\u00e9sentatifs des \u00e9v\u00e9nements consid\u00e9r\u00e9s, appel\u00e9s \u00e9tiquettes \u00e9v\u00e9nements. Par exemple, dans le cas du corpus MUC que nous avons utilis\u00e9 pour nos exp\u00e9rimentations de la section 4, les \u00e9v\u00e9nements sont des attaques terroristes et les mots choisis pour les repr\u00e9senter sont les \u00e9tiquettes \u00e9v\u00e9nements {attack, bombing, kidnapping, arson}. La proximit\u00e9 s\u00e9mantique entre un mot et une \u00e9tiquette \u00e9v\u00e9nement est d\u00e9finie par la mesure de Leacock Chodorow. Cette mesure de similarit\u00e9 lexicale se fonde sur WordNet, en l'occurrence sa version 3.0, et d\u00e9pend de la longueur du chemin le plus court entre deux synsets dans la hi\u00e9rarchie de WordNet, normalis\u00e9e par la hauteur de cette hi\u00e9rarchie. Plus formellement, elle s'\u00e9crit : \u2212log(p/2 \u2022 D) o\u00f9 p est la longueur du chemin entre les synsets des mots consid\u00e9r\u00e9s et D est la hauteur de la hi\u00e9rarchie de WordNet. La proximit\u00e9 d'un mot par rapport \u00e0 un domaine est ainsi donn\u00e9e par la valeur moyenne de la mesure de Leacock Chodorow entre ce mot et chacun des mots \u00e9v\u00e9nements du domaine.Pour favoriser la pr\u00e9sence des mots importants du domaine dans les exemples, nous choisissons de modifier la strat\u00e9gie de s\u00e9lection du mot rempla\u00e7ant le mot central d'une s\u00e9quence exemple lors de la corruption de cette s\u00e9quence. Dans(Collobert & Weston, 2008), ce choix est al\u00e9atoire parmi la totalit\u00e9 des mots du vocabulaire pris en compte pour construire les repr\u00e9sentations. Dans notre cas, nous utilisons la m\u00e9thode d'\u00e9valuation de l'importance d'un mot par rapport au domaine pr\u00e9sent\u00e9e ci-dessus pour ordonner les mots du vocabulaire et choisir le mot rempla\u00e7ant de fa\u00e7on al\u00e9atoire parmi les mots ayant un score sup\u00e9rieur \u00e0 un seuil donn\u00e9.",
"content": "<table/>",
"num": null,
"type_str": "table"
},
"TABREF2": {
"html": null,
"text": "Description de la t\u00e2cheNous avons \u00e9valu\u00e9 le syst\u00e8me pr\u00e9sent\u00e9 sur les donn\u00e9es de la campagne d'\u00e9valuation MUC-4, qui forment un corpus d'\u00e9valuation standard pour la t\u00e2che d'extraction d'\u00e9v\u00e9nement. Le corpus d'entra\u00eenement comporte 1 500 textes et mod\u00e8les d'\u00e9v\u00e9nements (template) instanci\u00e9s associ\u00e9s. La t\u00e2che consiste \u00e0 extraire les informations descriptives d'\u00e9v\u00e9nements terroristes en Am\u00e9rique Latine. \u00c9tant donn\u00e9 un texte, il s'agit de remplir une structure pour chaque \u00e9v\u00e9nement d\u00e9crit (par exemple attaque, enl\u00e8vement, prise d'otage, pose de bombe, etc.). Si le texte d\u00e9crit plus d'un \u00e9v\u00e9nement, il faut remplir une structure pour chacun d'eux. Les tests officiels, nomm\u00e9s TST3 et TST4, contiennent 100 documents chacun provenant de cet ensemble. Nous avons entra\u00een\u00e9 notre syst\u00e8me sur 1300 documents et l'avons test\u00e9 \u00e0 chaque fois sur le m\u00eame ensemble de test, form\u00e9 de la conjonction des deux ensembles de tests TST3+TST4.",
"content": "<table><tr><td>\u00c9TIQUETAGE EN R\u00d4LES \u00c9V\u00c9NEMENTIELS</td></tr><tr><td>4 Exp\u00e9rimentations et r\u00e9sultats</td></tr><tr><td>4.1 Une mod\u00e8le d'\u00e9v\u00e9nement comporte un ensemble d'attributs pr\u00e9d\u00e9finis correspondant aux valeurs qui doivent \u00eatre trouv\u00e9es</td></tr><tr><td>dans les textes, (dans les mod\u00e8les d'\u00e9v\u00e9nements de MUC-4, il y a 25 attributs). Ces attributs sont de types diff\u00e9rents qui</td></tr><tr><td>n\u00e9cessitent d'\u00eatre trait\u00e9s diff\u00e9remment, les valeurs de ces attributs devant \u00eatre extraites ou inf\u00e9r\u00e9es \u00e0 partir des textes 3 .</td></tr><tr><td>Ces attributs peuvent \u00eatre divis\u00e9s en trois cat\u00e9gories :</td></tr><tr><td>1. les attributs de type texte : ces attributs sont remplis par des cha\u00eenes de caract\u00e8res extraites directement des textes</td></tr><tr><td>(6. INCIDENT : INSTRUMENT ID, 9. PERP : INDIVIDUAL ID, 10. PERP : ORGANIZATION ID, 12. PHYS</td></tr><tr><td>TGT : ID, 18. HUM TGT : NAME, 19. HUM TGT : DESCRIPTION, 6. INCIDENT : INSTRUMENT ID, 7.</td></tr><tr><td>INCIDENT : INSTRUMENT TYPE). Ils ne correspondent pas forc\u00e9ment \u00e0 une entit\u00e9 nomm\u00e9e ;</td></tr><tr><td>2. les attributs calcul\u00e9s : les valeurs doivent \u00eatre calcul\u00e9es \u00e0 partir d'extraits de textes. Par exemple, INCIDENT :</td></tr><tr><td>DATE doit \u00eatre inf\u00e9r\u00e9e d'expressions temporelles telles que today, last week, etc.</td></tr></table>",
"num": null,
"type_str": "table"
},
"TABREF3": {
"html": null,
"text": "). Les points gris repr\u00e9sentent des r\u00e9sultats marquant de la t\u00e2che. Trees), avec 500 arbres, valeur adopt\u00e9e pour toutes les exp\u00e9rimentations men\u00e9es.",
"content": "<table><tr><td colspan=\"5\">\u00c9TIQUETAGE EN R\u00d4LES \u00c9V\u00c9NEMENTIELS</td><td/><td/></tr><tr><td/><td/><td colspan=\"2\">TST3 + TST4</td><td/><td/><td/></tr><tr><td/><td colspan=\"4\">Approches faiblement supervis\u00e9es</td><td/><td/></tr><tr><td/><td>AutInd</td><td>AutOrg</td><td>Cible</td><td>Victime</td><td>Arme</td><td>Moyenne</td></tr><tr><td>Autoslog-TS (1996)</td><td colspan=\"6\">33/49/40 53/33/41 54/59/56 49/54/51 38/44/41 45/48/46</td></tr><tr><td>Piper Best (2007)</td><td colspan=\"6\">39/48/43 55/31/40 37/60/46 44/46/45 47/47/47 44/36/40</td></tr><tr><td>TIER lite (2012)</td><td colspan=\"6\">47/51/47 60/39/47 37/65/47 39/53/45 53/55/54 47/53/50</td></tr><tr><td>Chambers+Jurafsky (2011)</td><td>-</td><td>-</td><td>-</td><td>-</td><td>-</td><td>44/36/40</td></tr><tr><td/><td/><td colspan=\"2\">Mod\u00e8les supervis\u00e9s</td><td/><td/><td/></tr><tr><td>GLACIER (2009)</td><td colspan=\"6\">51/58/54 34/45/38 43/72/53 55/58/56 57/53/55 48/57/52</td></tr><tr><td>TIER (2011)</td><td colspan=\"6\">48/57/52 46/53/50 51/73/60 56/60/58 53/64/58 51/62/56</td></tr><tr><td>(Huang &amp; Riloff, 2012b)</td><td colspan=\"6\">54/57/56 55/49/51 55/68/61 63/59/61 62/64/63 58/60/59</td></tr><tr><td/><td/><td colspan=\"2\">Mod\u00e8les neuronaux</td><td/><td/><td/></tr><tr><td>C&amp;W-50</td><td colspan=\"6\">80/55/65 64/65/64 76/72/74 53/63/57 85/64/73 68/63/65</td></tr><tr><td>HLBL-50</td><td colspan=\"6\">81/53/64 63/67/65 78/72/75 53/63/58 93/64/75 69/62/66</td></tr><tr><td>W2V-50</td><td colspan=\"6\">79/57/66 88/71/79 74/72/73 69/75/71 97/65/78 77/68/72</td></tr><tr><td>DRVR-50</td><td colspan=\"6\">79/57/66 91/74/81 79/57/66 77/75/76 92/58/81 80/67/73</td></tr><tr><td colspan=\"7\">TABLE 1 -R\u00e9sultats sur les r\u00f4les texte de TST3 + TST4 P/R/F1 (Pr\u00e9cision/Rappel/F1-Mesure)</td></tr><tr><td>des repr\u00e9sentations lexicales distribu\u00e9es.</td><td/><td/><td/><td/><td/><td/></tr><tr><td colspan=\"7\">Pour la t\u00e2che d'\u00e9tiquetage supervis\u00e9, nous utilisons comme indiqu\u00e9 pr\u00e9c\u00e9demment un algorithme de for\u00eats d'arbres d\u00e9ci-</td></tr><tr><td>sionnels (Extra-</td><td/><td/><td/><td/><td/><td/></tr></table>",
"num": null,
"type_str": "table"
}
}
}
}