|
{ |
|
"paper_id": "F14-1020", |
|
"header": { |
|
"generated_with": "S2ORC 1.0.0", |
|
"date_generated": "2023-01-19T10:22:43.435414Z" |
|
}, |
|
"title": "Explorer le graphe de voisinage pour am\u00e9liorer les th\u00e9saurus distributionnels", |
|
"authors": [ |
|
{ |
|
"first": "Vincent", |
|
"middle": [], |
|
"last": "Claveau", |
|
"suffix": "", |
|
"affiliation": { |
|
"laboratory": "", |
|
"institution": "IRISA -CNRS -Univ Rennes 1", |
|
"location": { |
|
"addrLine": "Campus de Beaulieu", |
|
"postCode": "F-35042", |
|
"settlement": "Rennes" |
|
} |
|
}, |
|
"email": "[email protected]" |
|
}, |
|
{ |
|
"first": "Ewa", |
|
"middle": [], |
|
"last": "Kijak", |
|
"suffix": "", |
|
"affiliation": { |
|
"laboratory": "", |
|
"institution": "IRISA -CNRS -Univ Rennes 1", |
|
"location": { |
|
"addrLine": "Campus de Beaulieu", |
|
"postCode": "F-35042", |
|
"settlement": "Rennes" |
|
} |
|
}, |
|
"email": "[email protected]" |
|
}, |
|
{ |
|
"first": "Olivier", |
|
"middle": [], |
|
"last": "Ferret", |
|
"suffix": "", |
|
"affiliation": { |
|
"laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus", |
|
"institution": "LIST", |
|
"location": { |
|
"postCode": "F-91191", |
|
"settlement": "Gif-sur-Yvette" |
|
} |
|
}, |
|
"email": "[email protected]" |
|
} |
|
], |
|
"year": "", |
|
"venue": null, |
|
"identifiers": {}, |
|
"abstract": "Dans cet article, nous abordons le probl\u00e8me de construction et d'am\u00e9lioration de th\u00e9saurus distributionnels. Nous montrons d'une part que les outils de recherche d'information peuvent \u00eatre directement utilis\u00e9s pour la construction de ces th\u00e9saurus, en offrant des performances comparables \u00e0 l'\u00e9tat de l'art. Nous nous int\u00e9ressons d'autre part plus sp\u00e9cifiquement \u00e0 l'am\u00e9lioration des th\u00e9saurus obtenus, vus comme des graphes de plus proches voisins. En tirant parti de certaines des informations de voisinage contenues dans ces graphes nous proposons plusieurs contributions. 1) Nous montrons comment am\u00e9liorer globalement les listes de voisins en prenant en compte la r\u00e9ciprocit\u00e9 de la relation de voisinage, c'est-\u00e0-dire le fait qu'un mot soit un voisin proche d'un autre et vice-versa. 2) Nous proposons \u00e9galement une m\u00e9thode permettant d'associer \u00e0 chaque liste de voisins (i.e. \u00e0 chaque entr\u00e9es du th\u00e9saurus construit) un score de confiance. 3) Enfin, nous montrons comment utiliser ce score de confiance pour r\u00e9ordonner les listes de voisins les plus proches. Ces diff\u00e9rentes contributions sont valid\u00e9es exp\u00e9rimentalement et offrent des am\u00e9liorations significatives sur l'\u00e9tat de l'art.", |
|
"pdf_parse": { |
|
"paper_id": "F14-1020", |
|
"_pdf_hash": "", |
|
"abstract": [ |
|
{ |
|
"text": "Dans cet article, nous abordons le probl\u00e8me de construction et d'am\u00e9lioration de th\u00e9saurus distributionnels. Nous montrons d'une part que les outils de recherche d'information peuvent \u00eatre directement utilis\u00e9s pour la construction de ces th\u00e9saurus, en offrant des performances comparables \u00e0 l'\u00e9tat de l'art. Nous nous int\u00e9ressons d'autre part plus sp\u00e9cifiquement \u00e0 l'am\u00e9lioration des th\u00e9saurus obtenus, vus comme des graphes de plus proches voisins. En tirant parti de certaines des informations de voisinage contenues dans ces graphes nous proposons plusieurs contributions. 1) Nous montrons comment am\u00e9liorer globalement les listes de voisins en prenant en compte la r\u00e9ciprocit\u00e9 de la relation de voisinage, c'est-\u00e0-dire le fait qu'un mot soit un voisin proche d'un autre et vice-versa. 2) Nous proposons \u00e9galement une m\u00e9thode permettant d'associer \u00e0 chaque liste de voisins (i.e. \u00e0 chaque entr\u00e9es du th\u00e9saurus construit) un score de confiance. 3) Enfin, nous montrons comment utiliser ce score de confiance pour r\u00e9ordonner les listes de voisins les plus proches. Ces diff\u00e9rentes contributions sont valid\u00e9es exp\u00e9rimentalement et offrent des am\u00e9liorations significatives sur l'\u00e9tat de l'art.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Abstract", |
|
"sec_num": null |
|
} |
|
], |
|
"body_text": [ |
|
{ |
|
"text": "Les th\u00e9saurus distributionnels sont utiles \u00e0 de nombreuses t\u00e2ches du TAL et leur construction est un probl\u00e8me largement abord\u00e9 depuis plusieurs ann\u00e9es (Grefenstette, 1994) . Cela reste n\u00e9anmoins un champ de recherche tr\u00e8s actif, entretenu par la mise \u00e0 disposition de corpus toujours plus volumineux et de nombreuses applications. Ces th\u00e9saurus associent \u00e0 chacune de leurs entr\u00e9es une liste de mots qui se veulent proches s\u00e9mantiquement de l'entr\u00e9e. Cette notion de proximit\u00e9 est variable selon les travaux (synonymie, autres relations paradigmatiques, relations syntagmatiques (Budanitsky & Hirst, 2006; Adam et al., 2013 , pour une discussion)), mais les m\u00e9thodes utilis\u00e9es pour la construction automatique de ces th\u00e9saurus sont souvent partag\u00e9es. Pour une grande part, ces m\u00e9thodes reposent sur l'hypoth\u00e8se distributionnelle de Firth (1957) : chaque mot est caract\u00e9ris\u00e9 par l'ensemble des contextes dans lesquels il appara\u00eet, et la proximit\u00e9 s\u00e9mantique de deux mots peut \u00eatre d\u00e9duite de la proximit\u00e9 de leurs contextes. Cette hypoth\u00e8se a donc \u00e9t\u00e9 mise en oeuvre de diff\u00e9rentes fa\u00e7ons, et plusieurs pistes pour en am\u00e9liorer les r\u00e9sultats ont \u00e9t\u00e9 suivies (voir section suivante pour un \u00e9tat de l'art).", |
|
"cite_spans": [ |
|
{ |
|
"start": 151, |
|
"end": 171, |
|
"text": "(Grefenstette, 1994)", |
|
"ref_id": "BIBREF13" |
|
}, |
|
{ |
|
"start": 579, |
|
"end": 605, |
|
"text": "(Budanitsky & Hirst, 2006;", |
|
"ref_id": "BIBREF3" |
|
}, |
|
{ |
|
"start": 606, |
|
"end": 623, |
|
"text": "Adam et al., 2013", |
|
"ref_id": "BIBREF0" |
|
}, |
|
{ |
|
"start": 829, |
|
"end": 844, |
|
"text": "de Firth (1957)", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "La notion de th\u00e9saurus distributionnel est \u00e0 la fois bien connue et en m\u00eame temps relativement peu abord\u00e9e de fa\u00e7on sp\u00e9cifique, sans doute \u00e0 cause de ses liens \u00e9troits avec la notion de similarit\u00e9 s\u00e9mantique. Beaucoup de travaux portent sur des am\u00e9liorations concernant les mesures de similarit\u00e9 s\u00e9mantique de nature distributionnelle, c'est-\u00e0-dire directement \u00e0 la construction du th\u00e9saurus. Nous les examinons dans la sous-section suivante. Mais quelques travaux pr\u00e9sent\u00e9s dans la sous-section 2.2 ont aussi cherch\u00e9, une fois le th\u00e9saurus obtenu, \u00e0 l'am\u00e9liorer, comme nous nous proposons de le faire en l'examinant comme un graphe de plus proches voisins.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "\u00c9tat de l'art", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "Si l'on consid\u00e8re comme point de r\u00e9f\u00e9rence le paradigme d\u00e9fini par Grefenstette (1994) , repris \u00e0 sa suite notamment par Lin (1998) et Curran & Moens (2002) , une premi\u00e8re voie d'am\u00e9lioration a port\u00e9 sur la pond\u00e9ration des \u00e9l\u00e9ments constitutifs des contextes distributionnels, simples mots dans le cas de cooccurrents graphiques et paires (mot, relation de d\u00e9pendance syntaxique) dans le cas de cooccurrents syntaxiques. Dans cette optique, Broda et al. (2009) ont ainsi propos\u00e9 de remplacer les poids associ\u00e9s aux cooccurrents par une fonction tenant compte de leur rang dans ces contextes, ce qui a l'avantage de rendre ce poids moins d\u00e9pendant d'une fonction de pond\u00e9ration sp\u00e9cifique. Zhitomirsky-Geffet & Dagan (2009) op\u00e8re cette modification de pond\u00e9ration par le biais d'un m\u00e9canisme d'amor\u00e7age en faisant l'hypoth\u00e8se que les premiers voisins d'une entr\u00e9e sont plus pertinents que les autres et que de ce fait, les cooccurrents qui leur sont le plus fortement associ\u00e9s dans leurs contextes distributionnels sont aussi plus repr\u00e9sentatifs de l'entr\u00e9e du point de vue s\u00e9mantique. Le poids de ces cooccurrents est alors renforc\u00e9 pour accro\u00eetre leur influence lors du r\u00e9ordonnancement des voisins. Yamamoto & Asakura (2010) en est une variante prenant en compte un plus large ensemble de cooccurrents dans les contextes.", |
|
"cite_spans": [ |
|
{ |
|
"start": 67, |
|
"end": 86, |
|
"text": "Grefenstette (1994)", |
|
"ref_id": "BIBREF13" |
|
}, |
|
{ |
|
"start": 135, |
|
"end": 156, |
|
"text": "Curran & Moens (2002)", |
|
"ref_id": "BIBREF4" |
|
}, |
|
{ |
|
"start": 441, |
|
"end": 460, |
|
"text": "Broda et al. (2009)", |
|
"ref_id": "BIBREF2" |
|
}, |
|
{ |
|
"start": 689, |
|
"end": 722, |
|
"text": "Zhitomirsky-Geffet & Dagan (2009)", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Construction des th\u00e9saurus", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "Au-del\u00e0 des changements de pond\u00e9ration, certains travaux se sont attach\u00e9s au contenu m\u00eame des contextes distributionnels. De ce point de vue, une premi\u00e8re distinction, op\u00e9r\u00e9e d\u00e9j\u00e0 par Grefenstette (1994) mais explor\u00e9e plus en d\u00e9tail par Curran & Moens (2002) , a \u00e9t\u00e9 r\u00e9alis\u00e9e entre cooccurrents graphiques et syntaxiques, avec un avantage donn\u00e9 \u00e0 ces derniers. Parall\u00e8lement \u00e0 la nature de l'information contenue dans les contextes, la question de sa forme s'est pos\u00e9e en faisant l'hypoth\u00e8se que l'information port\u00e9e par les cooccurrents peut \u00eatre repr\u00e9sent\u00e9e de fa\u00e7on plus dense par des dimensions sous-jacentes. Cette id\u00e9e est d'ailleurs renforc\u00e9e par le constat de Hagiwara et al. (2006) , par le biais de la s\u00e9lection de caract\u00e9ristiques dans un cadre supervis\u00e9, que bon nombre de cooccurrents peuvent \u00eatre filtr\u00e9s sans alt\u00e9rer significativement l'identification des similarit\u00e9s s\u00e9mantiques entre mots. Une partie des travaux visant \u00e0 am\u00e9liorer l'approche distributionnelle s'est donc focalis\u00e9e sur l'application de m\u00e9thodes de r\u00e9duction de dimensions, depuis l'Analyse S\u00e9mantique Latente (Landauer & Dumais, 1997) , \u00e9tendue par Pad\u00f3 & Lapata (2007) aux cooccurrents syntaxiques, jusqu'\u00e0 la factorisation de matrice non n\u00e9gative (Van de Cruys, 2010) en passant par le Random Indexing (Sahlgren, 2001) . Ces m\u00e9thodes ont cependant donn\u00e9 des r\u00e9sultats limit\u00e9s (Van de Cruys, 2010). Dans ce cadre, l'apprentissage de repr\u00e9sentations distribu\u00e9es GRAPHE DE VOISINAGE DISTRIBUTIONNEL r\u00e9alis\u00e9es au moyen de r\u00e9seaux de neurones (Huang et al., 2012; Mikolov et al., 2013) est \u00e9galement \u00e0 mentionner, m\u00eame si ces travaux sortent un peu du cadre distributionnel traditionnel.", |
|
"cite_spans": [ |
|
{ |
|
"start": 184, |
|
"end": 203, |
|
"text": "Grefenstette (1994)", |
|
"ref_id": "BIBREF13" |
|
}, |
|
{ |
|
"start": 237, |
|
"end": 258, |
|
"text": "Curran & Moens (2002)", |
|
"ref_id": "BIBREF4" |
|
}, |
|
{ |
|
"start": 665, |
|
"end": 690, |
|
"text": "de Hagiwara et al. (2006)", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 1093, |
|
"end": 1118, |
|
"text": "(Landauer & Dumais, 1997)", |
|
"ref_id": "BIBREF18" |
|
}, |
|
{ |
|
"start": 1133, |
|
"end": 1153, |
|
"text": "Pad\u00f3 & Lapata (2007)", |
|
"ref_id": "BIBREF22" |
|
}, |
|
{ |
|
"start": 1288, |
|
"end": 1304, |
|
"text": "(Sahlgren, 2001)", |
|
"ref_id": "BIBREF26" |
|
}, |
|
{ |
|
"start": 1524, |
|
"end": 1544, |
|
"text": "(Huang et al., 2012;", |
|
"ref_id": "BIBREF15" |
|
}, |
|
{ |
|
"start": 1545, |
|
"end": 1566, |
|
"text": "Mikolov et al., 2013)", |
|
"ref_id": "BIBREF20" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Construction des th\u00e9saurus", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "Les travaux que nous consid\u00e9rons ici se concentrent sur des am\u00e9liorations exploitant plus sp\u00e9cifiquement la structure du th\u00e9saurus pour en am\u00e9liorer la qualit\u00e9 comme nous nous proposons de le faire. Zhitomirsky-Geffet & Dagan (2009) pourrait dans une certaine mesure \u00eatre rattach\u00e9 \u00e0 cette cat\u00e9gorie dans la mesure o\u00f9 sa repond\u00e9ration des \u00e9l\u00e9ments de contexte d'un terme d\u00e9pend de ses voisins s\u00e9mantiques, donc de la structure du th\u00e9saurus.", |
|
"cite_spans": [ |
|
{ |
|
"start": 199, |
|
"end": 232, |
|
"text": "Zhitomirsky-Geffet & Dagan (2009)", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Am\u00e9lioration des th\u00e9saurus", |
|
"sec_num": "2.2" |
|
}, |
|
{ |
|
"text": "Deux autres voies ont \u00e9galement \u00e9t\u00e9 explor\u00e9es. La premi\u00e8re consiste \u00e0 utiliser un th\u00e9saurus initial afin de s\u00e9lectionner de fa\u00e7on non supervis\u00e9e un ensemble d'exemples positifs et n\u00e9gatifs de termes s\u00e9mantiquement similaires ou li\u00e9s (Ferret, 2012 (Ferret, , 2013b . Cet ensemble est utilis\u00e9 pour entra\u00eener un classifieur permettant ensuite de r\u00e9ordonner les voisins initiaux. Dans le cas de (Ferret, 2012), cette s\u00e9lection est fond\u00e9e sur un crit\u00e8re de sym\u00e9trie de la relation de similarit\u00e9 s\u00e9mantique : si A est trouv\u00e9 comme voisin proche de B et B comme voisin proche de A, A et B sont probablement des exemples positifs de mots s\u00e9mantiquement similaires. On retrouve l\u00e0 la condition de r\u00e9ciprocit\u00e9 que nous explorons dans un autre cadre en section 4. (Ferret, 2013b) s'appuie pour sa part sur l'hypoth\u00e8se que des constituants similaires, au sens de leur voisinage dans un th\u00e9saurus, occupant le m\u00eame r\u00f4le syntaxique dans des mots compos\u00e9s eux-m\u00eames similaires sont de probables exemples positifs de mots similaires.", |
|
"cite_spans": [ |
|
{ |
|
"start": 233, |
|
"end": 246, |
|
"text": "(Ferret, 2012", |
|
"ref_id": "BIBREF8" |
|
}, |
|
{ |
|
"start": 247, |
|
"end": 263, |
|
"text": "(Ferret, , 2013b", |
|
"ref_id": "BIBREF10" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Am\u00e9lioration des th\u00e9saurus", |
|
"sec_num": "2.2" |
|
}, |
|
{ |
|
"text": "La seconde approche, propos\u00e9e dans (Ferret, 2013a), est plus indirecte. Elle r\u00e9alise un r\u00e9ordonnancement des voisins s\u00e9mantiques par le biais d'un processus de d\u00e9tection et de d\u00e9classement des voisins les moins susceptibles d'\u00eatre s\u00e9mantiquement li\u00e9s \u00e0 leur entr\u00e9e. Cette d\u00e9tection est r\u00e9alis\u00e9e en appliquant un mod\u00e8le discriminant de l'entr\u00e9e en contexte \u00e0 un \u00e9chantillon des occurrences de ses voisins et en jugeant de la proximit\u00e9 entre entr\u00e9e et voisin sur la base des d\u00e9cisions de ce mod\u00e8le.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Am\u00e9lioration des th\u00e9saurus", |
|
"sec_num": "2.2" |
|
}, |
|
{ |
|
"text": "Comme dans ces derniers travaux, nous nous proposons d'am\u00e9liorer la qualit\u00e9 des th\u00e9saurus produits, notamment en r\u00e9ordonnant les listes de voisins. Notre travail repose en partie sur des consid\u00e9rations proches, notamment en ce qui concerne la r\u00e9ciprocit\u00e9, mais dans une optique diff\u00e9rente dans laquelle les listes de plus proches voisins sont directement r\u00e9ordonn\u00e9es en fonction des voisinages observ\u00e9s dans le th\u00e9saurus. En cela, nos travaux peuvent se rapprocher de ceux de (Pedronette et al., 2014), faits dans un tout autre contexte applicatif (recherche d'images), mais reposant \u00e9galement sur l'examen des voisinages observ\u00e9s dans un graphe de k plus proches voisins.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Am\u00e9lioration des th\u00e9saurus", |
|
"sec_num": "2.2" |
|
}, |
|
{ |
|
"text": "3 Mod\u00e8le de RI pour la construction de th\u00e9saurus distributionnels", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Am\u00e9lioration des th\u00e9saurus", |
|
"sec_num": "2.2" |
|
}, |
|
{ |
|
"text": "Comme cela appara\u00eet dans les travaux cit\u00e9s de l'\u00e9tat-de-l'art, le coeur des approches distributionnelles est de calculer des similarit\u00e9s entre repr\u00e9sentations textuelles des contextes des mots \u00e9tudi\u00e9s. Les m\u00e9thodes de calcul de similarit\u00e9 utilis\u00e9es en recherche d'information semblent donc pertinentes pour ce probl\u00e8me. Pour un mot donn\u00e9, l'ensemble des contextes de ses occurrences est consid\u00e9r\u00e9 comme un document ; pour un mot w i , on note ce document C wi . La proximit\u00e9 entre deux mots est alors mesur\u00e9e par une fonction de similarit\u00e9 RI sur leur contexte. Cette piste a beaucoup de liens avec les travaux de l'\u00e9tat de l'art mais semble relativement peu explor\u00e9e en tant que telle, \u00e0 l'exception de Vechtomova & Robertson (2012) dans le cas particulier de la recherche d'entit\u00e9s nomm\u00e9es similaires. Elle offre pourtant l'avantage d'\u00eatre tr\u00e8s facilement impl\u00e9mentable du fait des nombreux outils de RI disponibles.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Principes", |
|
"sec_num": "3.1" |
|
}, |
|
{ |
|
"text": "Bien entendu, quelques adaptations doivent \u00eatre faites. Dans les exp\u00e9riences rapport\u00e9es ci-dessous, le contexte consid\u00e9r\u00e9 est de deux mots avant et apr\u00e8s chaque occurrence. Contrairement \u00e0 la RI, on souhaite garder les mots outils, mais aussi les positions de ces mots par rapport \u00e0 l'occurrence du mot examin\u00e9. Par exemple, pour l'occurrence de freedom dans l'extrait : \u00ab ... all forms of restrictions on freedom of expression , threats ... \u00bb, les termes d'indexation restrictions-2, on-1, of+1, expression+2 sont ajout\u00e9s \u00e0 la description de freedom (i.e. sont ajout\u00e9s \u00e0 C(freedom)). Pour trouver les voisins distributionnels d'un mot, l'ensemble des contextes collect\u00e9s pour ce mot sert de requ\u00eate, qui est alors utilis\u00e9e pour trouver les mots les plus proches (i.e. dont les contextes sont les plus proches) au sens d'une mesure de similarit\u00e9 RI.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Principes", |
|
"sec_num": "3.1" |
|
}, |
|
{ |
|
"text": "Dans les exp\u00e9riences que nous pr\u00e9sentons ci-dessous, nous avons test\u00e9 quelques unes des mesures les plus classiquement utilis\u00e9es en RI : la similarit\u00e9 d'Hellinger (Escoffier, 1978; Domeng\u00e8s & Volle, 1979) , un TF-IDF/cosinus, et une similarit\u00e9 Okapi- BM-25 (Robertson et al., 1998) . Ce dernier mod\u00e8le peut \u00eatre vu comme une version plus moderne du TF-IDF, prenant notamment mieux en compte les diff\u00e9rences de tailles des documents. Ce point est important puisque dans notre cas, les documents, c'est-\u00e0-dire l'ensemble des contextes d'un mot, sont effectivement de tailles tr\u00e8s variables du fait du nombre d'occurrences lui-m\u00eame tr\u00e8s variable des diff\u00e9rents mots. La similarit\u00e9 Okapi-BM25 entre un mot w i (C(w i ) est vu comme une requ\u00eate), et w j (C(w j ) vu comme un document), s'exprime par l'\u00e9quation 1 dans laquelle les composants correspondent respectivement au poids du mot consid\u00e9r\u00e9 dans la requ\u00eate, \u00e0 son TF et \u00e0 son IDF dans le document. qtf est le nombre d'occurrence du mot t dans le contexte de la requ\u00eate C(w i ), et similairement tf est le nombre d'occurrences dans C(w j ), dl est la taille des contextes de w j (nombre de mots dans C(w j )), dl avg la taille moyenne des contextes, n est le nombre de documents, c'est-\u00e0-dire dans notre cas le nombre de mots examin\u00e9s (nombre d'entr\u00e9es du th\u00e9saurus), df (t) est le nombre de contextes (C(\u2022)) dans lesquels t appara\u00eet, et enfin k 1 , k 3 et b sont des constantes, fix\u00e9es par d\u00e9faut \u00e0 k 1 = 2, k 3 = 1000 et b = 0.75.", |
|
"cite_spans": [ |
|
{ |
|
"start": 163, |
|
"end": 180, |
|
"text": "(Escoffier, 1978;", |
|
"ref_id": "BIBREF7" |
|
}, |
|
{ |
|
"start": 181, |
|
"end": 204, |
|
"text": "Domeng\u00e8s & Volle, 1979)", |
|
"ref_id": "BIBREF6" |
|
}, |
|
{ |
|
"start": 251, |
|
"end": 281, |
|
"text": "BM-25 (Robertson et al., 1998)", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Principes", |
|
"sec_num": "3.1" |
|
}, |
|
{ |
|
"text": "EQUATION", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [ |
|
{ |
|
"start": 0, |
|
"end": 8, |
|
"text": "EQUATION", |
|
"ref_id": "EQREF", |
|
"raw_str": "similarit\u00e9(wi, wj) = t\u2208C(w i ) (k3 + 1) * qtf k3 + qtf * tf * (k1 + 1) tf + k1 * (1 \u2212 b + b * dl(C(w j )) dlavg ) * log n \u2212 df (t) + 0.5 df (t) + 0.5", |
|
"eq_num": "(1)" |
|
} |
|
], |
|
"section": "Principes", |
|
"sec_num": "3.1" |
|
}, |
|
{ |
|
"text": "Nous proposons \u00e9galement dans les exp\u00e9riences rapport\u00e9es ci-dessous une version dite ajust\u00e9e de la similarit\u00e9 Okapi-BM25, dans laquelle l'influence de la taille du document est renforc\u00e9e, en prenant b = 1, et en mettant l'IDF au carr\u00e9 pour donner plus d'importance aux mots de contexte plus discriminants.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Principes", |
|
"sec_num": "3.1" |
|
}, |
|
{ |
|
"text": "Ces mod\u00e8les de RI, tr\u00e8s classiques, ne sont pas d\u00e9taill\u00e9s plus avant ici ; le lecteur int\u00e9ress\u00e9 trouvera les notions et d\u00e9tails utiles dans les r\u00e9f\u00e9rences cit\u00e9es ou des ouvrages g\u00e9n\u00e9ralistes (Boughanem & Savoy, 2008, par exemple).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Principes", |
|
"sec_num": "3.1" |
|
}, |
|
{ |
|
"text": "Les donn\u00e9es et r\u00e9f\u00e9rences utilis\u00e9es pour nos exp\u00e9riences tout au long de cet article sont celles employ\u00e9es par Ferret (2013a) et mises \u00e0 notre disposition par l'auteur. Cela nous permet d'avoir un cadre exp\u00e9rimental compl\u00e8tement comparable aux r\u00e9sultats publi\u00e9s. Pour construire les th\u00e9saurus distributionnels, le corpus utilis\u00e9 est AQUAINT-2, une collection d'articles de presse en anglais d'environ 380 millions de mots. Tous les noms de fr\u00e9quence > 10 de ce corpus sont consid\u00e9r\u00e9s, soit 25 000 noms (on note n ce nombre dans la suite) ; ils formeront les entr\u00e9es des th\u00e9saurus. Le corpus est \u00e9tiquet\u00e9 en parties-du-discours par TreeTagger, ce qui permet de rep\u00e9rer les noms qui formeront les entr\u00e9es du th\u00e9saurus pour nous comparer aux travaux existants. Ces informations ne sont pas utilis\u00e9es pour la suite de la construction du th\u00e9saurus, ce qui assure une certaine portabilit\u00e9 de la m\u00e9thode \u00e0 d'autres langues (Freitag et al., 2005) .", |
|
"cite_spans": [ |
|
{ |
|
"start": 916, |
|
"end": 938, |
|
"text": "(Freitag et al., 2005)", |
|
"ref_id": "BIBREF12" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Contexte exp\u00e9rimental", |
|
"sec_num": "3.2" |
|
}, |
|
{ |
|
"text": "Pour \u00e9valuer les th\u00e9saurus produits, deux r\u00e9f\u00e9rences sont utilis\u00e9es, soit s\u00e9par\u00e9ment, soit conjointement. ", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Contexte exp\u00e9rimental", |
|
"sec_num": "3.2" |
|
}, |
|
{ |
|
"text": "Pour un nom donn\u00e9, notre approche par mod\u00e8les de RI, comme les autres approches de l'\u00e9tat de l'art, ordonne les autres noms par similarit\u00e9 d\u00e9croissante. La liste obtenue est compar\u00e9e \u00e0 la liste de r\u00e9f\u00e9rence, et des mesures classiques d'\u00e9valuation sont calcul\u00e9es. Il s'agit de la pr\u00e9cision \u00e0 divers seuils (apr\u00e8s 1, 5, 10, 50, 100 voisins, not\u00e9s P@1, P@5...), la Mean GRAPHE DE VOISINAGE DISTRIBUTIONNEL R\u00e9f\u00e9rence M\u00e9thode MAP R-Prec P@1 P@5 P@10 P@50 P@100 ", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats", |
|
"sec_num": "3.3" |
|
}, |
|
{ |
|
"text": "Le calcul de toutes les similarit\u00e9s entre toutes les paires de mots produit un graphe valu\u00e9 de voisinage : chaque mot est li\u00e9, avec une certaine force, aux n autres mots. Les r\u00e9sultats obtenus ci-dessus ne tiennent pas compte de cette structure. L'objet des sections suivantes est d'examiner comment tirer parti au mieux des relations de voisinage enfouies dans ce graphe.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9ciprocit\u00e9 dans le graphe des k-NN", |
|
"sec_num": "4" |
|
}, |
|
{ |
|
"text": "Il faut pr\u00e9alablement noter que certaines des mesures de similarit\u00e9s RI que nous avons utilis\u00e9es, notamment Okapi-BM25, ne sont pas sym\u00e9triques. La similarit\u00e9 entre un mot w i , utilis\u00e9 comme requ\u00eate, et un autre mot w j ne donne pas la m\u00eame valeur que la similarit\u00e9 entre la requ\u00eate w j et w i . Ind\u00e9pendamment de cela, m\u00eame pour une mesure sym\u00e9trique, la relation de plus-proche voisin n'est pas non plus sym\u00e9trique : un mot w j peut-\u00eatre dans les k-plus-proches voisins de w i mais l'inverse peut \u00eatre faux.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9ciprocit\u00e9 dans le graphe des k-NN", |
|
"sec_num": "4" |
|
}, |
|
{ |
|
"text": "Il semble alors raisonnable de penser que la r\u00e9ciprocit\u00e9 de voisinage entre deux mots (chacun est dans les k plus proches voisins de l'autre) est tout de m\u00eame un gage de confiance sur la proximit\u00e9 entre ces mots. L'utilisation de cette information pour am\u00e9liorer les r\u00e9sultats pr\u00e9c\u00e9dents est examin\u00e9e dans cette section. Dans la suite, on note \u03c4 wi (w j ) le rang de w j dans la liste des voisins de w i , qui varie donc entre 1 et n. ", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9ciprocit\u00e9 dans le graphe des k-NN", |
|
"sec_num": "4" |
|
}, |
|
{ |
|
"text": "La r\u00e9ciprocit\u00e9 de la relation de voisinage distributionnel a d\u00e9j\u00e0 \u00e9t\u00e9 examin\u00e9e et utilis\u00e9e dans certains travaux (Ferret, 2013b) en s\u00e9mantique distributionnelle, ou plus g\u00e9n\u00e9ralement sur des graphes de plus proches voisins (Pedronette et al., 2014). Dans ces derniers travaux, la prise en compte de la r\u00e9ciprocit\u00e9 pour mener \u00e0 un nouveau score de similarit\u00e9 a \u00e9t\u00e9 faite simplement. Pour un mot w i et son voisin w j , le maximum ou le minimum des rangs (\u03c4 wi (w j ) et \u03c4 wj (w i )) est pris comme nouveau rang. Ces deux op\u00e9rateurs apparaissent comme trop brutaux puisque seul l'un des rangs est pris en consid\u00e9ration pour d\u00e9cider du score final, ce qui se transcrit par des performances tr\u00e8s d\u00e9grad\u00e9es comme nous allons le voir.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Graphe de voisinage distributionnel", |
|
"sec_num": "4.1" |
|
}, |
|
{ |
|
"text": "Cependant, beaucoup d'autres op\u00e9rateurs d'agr\u00e9gation, avec des comportements peut-\u00eatre plus appropri\u00e9s \u00e0 la t\u00e2che ont \u00e9t\u00e9 propos\u00e9s dans d'autres cadres, notamment en logique floue (Detyniecki, 2000 , pour une revue tr\u00e8s compl\u00e8te). Ces op\u00e9rateurs ont une certaine s\u00e9mantique permettant d'appr\u00e9hender leur comportement, comme par exemple les T-normes (ET en logique floue) et S-normes (ou T-conormes, OU flou). Dans la suite de cette section, nous testons quelques uns de ces op\u00e9rateurs sans pr\u00e9tention d'exhaustivit\u00e9. Ceux-ci \u00e9tant d\u00e9finis sur le domaine [0, 1] 2 et 1 repr\u00e9sentant la certitude, ils sont utilis\u00e9s pour g\u00e9n\u00e9rer un nouveau score de similarit\u00e9 sous la forme :", |
|
"cite_spans": [ |
|
{ |
|
"start": 180, |
|
"end": 197, |
|
"text": "(Detyniecki, 2000", |
|
"ref_id": "BIBREF5" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Graphe de voisinage distributionnel", |
|
"sec_num": "4.1" |
|
}, |
|
{ |
|
"text": "score wi (w j ) = Agreg(1 \u2212 \u03c4 wi (w j )/n, 1 \u2212 \u03c4 wj (w i )/n)", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Graphe de voisinage distributionnel", |
|
"sec_num": "4.1" |
|
}, |
|
{ |
|
"text": "o\u00f9 Agreg est un op\u00e9rateur d'agr\u00e9gation (cf. infra pour le test de quelques fonctions possibles). Les scores obtenus sont alors utilis\u00e9s pour produire une nouvelle liste de plus proches voisins de w i (plus le score est \u00e9lev\u00e9, plus la proximit\u00e9 sera av\u00e9r\u00e9e). On a bien ainsi la s\u00e9mantique associ\u00e9e \u00e0 ces op\u00e9rateurs ; par exemple, si la fonction d'agr\u00e9gation est max, on a bien le comportement de OU flou attendu associ\u00e9 \u00e0 cette S-norme : w j sera class\u00e9 tr\u00e8s proche de w i dans la nouvelle liste si w j \u00e9tait proche de w i ou si w i \u00e9tait proche de w j . Pour la T-norme min, il faut que w j soit proche de w i et que w i soit proche de w j .", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Graphe de voisinage distributionnel", |
|
"sec_num": "4.1" |
|
}, |
|
{ |
|
"text": "Pour la fonction d'agr\u00e9gation Agreg, outre le min et le max, nous rapportons dans la figure 1 les r\u00e9sultats obtenus avec les T-normes (ou familles de T-normes d\u00e9pendant d'un param\u00e8tre \u03b3) suivantes :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats", |
|
"sec_num": "4.2" |
|
}, |
|
{ |
|
"text": "T Prob (x, y) = x * y T Lukasiewicz (x, y) = max(x + y \u2212 1, 0) T Hamacher (x, y) = x * y \u03b3+(1\u2212\u03b3) * (x+y\u2212x * y) with \u03b3 \u2265 0 T Yager (x, y) = max(0, 1 \u2212 \u03b3 (1 \u2212 x) \u03b3 + (1 \u2212 y) \u03b3 ) with \u03b3 > 0", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats", |
|
"sec_num": "4.2" |
|
}, |
|
{ |
|
"text": "Nous testons aussi les S-normes associ\u00e9es, obtenues par g\u00e9n\u00e9ralisation de la loi de De Morgan : S(x, y) = 1\u2212T (1\u2212x, 1\u2212 y). Pour les familles de T-normes d\u00e9pendant d'un param\u00e8tre, nous avons fait varier ce dernier de mani\u00e8re syst\u00e9matique et les r\u00e9sultats rapport\u00e9s sont ceux maximisant la MAP.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats", |
|
"sec_num": "4.2" |
|
}, |
|
{ |
|
"text": "On remarque que ces op\u00e9rateurs obtiennent des r\u00e9sultats tr\u00e8s divers. Ceux qui induisent un seuil (i.e. pour certaines valeurs de \u03c4 wi (w j ) et \u03c4 wj (w i ), ces op\u00e9rateurs renvoient une valeur par d\u00e9faut g\u00e9n\u00e9rant trop d'ex aequo parmi les voisins, comme le min, max, les normes Lukasiewicz, et d'autres pour certains \u03b3) d\u00e9gradent la qualit\u00e9 des listes de plus proches voisins.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats", |
|
"sec_num": "4.2" |
|
}, |
|
{ |
|
"text": "MAP R-Prec P@1 P@5 P@10 P@50 P@100 WordNet + Moby 9.30 (+3.75) 11.06 (+2.03) 30.42 (-2.53) ", |
|
"cite_spans": [ |
|
{ |
|
"start": 83, |
|
"end": 90, |
|
"text": "(-2.53)", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9f\u00e9rence", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "On fait l'hypoth\u00e8se suivante : la liste de plus proches voisins d'un mot w est probablement de bonne qualit\u00e9 si la proximit\u00e9 (en terme de rang) entre w et chacun de ses voisins w i est coh\u00e9rente avec la proximit\u00e9 observ\u00e9e entre ces m\u00eames mots (w, w i ) dans les listes de voisins d'autres mots. L'intuition est que des mots suppos\u00e9s proches doivent aussi se retrouver proches des m\u00eames mots. Par exemple, si w i est un voisin tr\u00e8s proche de w, et que w est un voisin tr\u00e8s proche de w j , on s'attend \u00e0 ce que w i soit aussi tr\u00e8s proche de w j . Si les k plus proches voisins de w ont cette qualit\u00e9, alors on accorde une certaine confiance \u00e0 cette liste de voisins.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Principe", |
|
"sec_num": "5.1" |
|
}, |
|
{ |
|
"text": "Formellement, nous d\u00e9finissons en terme probabiliste l'indice de confiance de la liste des k plus proches voisins de w par :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Principe", |
|
"sec_num": "5.1" |
|
}, |
|
{ |
|
"text": "Q(w) = {wi|\u03c4w(wi)\u2264k} p(\u03b4(w, w i ) = \u03c4 w (w i ))", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Principe", |
|
"sec_num": "5.1" |
|
}, |
|
{ |
|
"text": "avec p(\u03b4(w, w i ) = \u03c4 w (w i )) la probabilit\u00e9 que w i soit le \u03c4 w (w i )\u00e8me voisin de w (i.e. l'\u00e9cart en terme de nombre de voisins, not\u00e9 \u03b4(w, w i ), est de \u03c4 w (w i )).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Principe", |
|
"sec_num": "5.1" |
|
}, |
|
{ |
|
"text": "Le probl\u00e8me est alors d'estimer pour chaque couple de mots (w, w i ) la distribution de probabilit\u00e9 p(\u03b4(w, w i )). On utilise pour cela une m\u00e9thode d'estimation de densit\u00e9 non-param\u00e9trique par fen\u00eatre de Parzen. Nous d\u00e9crivons comment cette m\u00e9thode classique (Parzen, 1962; Wasserman, 2005) est appliqu\u00e9e dans notre cas ci-apr\u00e8s. En effet, on peut alors estimer la densit\u00e9 de probabilit\u00e9 de x ab avec la technique des fen\u00eatres de Parzen gr\u00e2ce \u00e0 un estimateur \u00e0 noyau (\u00e9quation 2) avec h un param\u00e8tre de lissage \u00e0 fixer, et K un noyau permettant d'estimer la densit\u00e9 localement.", |
|
"cite_spans": [ |
|
{ |
|
"start": 259, |
|
"end": 273, |
|
"text": "(Parzen, 1962;", |
|
"ref_id": "BIBREF23" |
|
}, |
|
{ |
|
"start": 274, |
|
"end": 290, |
|
"text": "Wasserman, 2005)", |
|
"ref_id": "BIBREF31" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Principe", |
|
"sec_num": "5.1" |
|
}, |
|
{ |
|
"text": "p h (x ab ) = 1 n h n i=1 K x ab \u2212 x i ab h (2) avec K(u) = 1 \u221a 2\u03c0 e \u2212u 2 2", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Estimation par fen\u00eatres de Parzen", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "(3) et\u0125 = 0.9 min(\u03c3,", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Estimation par fen\u00eatres de Parzen", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "EQUATION", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [ |
|
{ |
|
"start": 0, |
|
"end": 8, |
|
"text": "EQUATION", |
|
"ref_id": "EQREF", |
|
"raw_str": "q 3 \u2212 q 1 1.34 ) n \u2212 1 5", |
|
"eq_num": "(4)" |
|
} |
|
], |
|
"section": "Estimation par fen\u00eatres de Parzen", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "Dans notre cas, nous choisissons classiquement un noyau gaussien (\u00e9quation 3). La probabilit\u00e9 r\u00e9sultante est donc un m\u00e9lange de gaussiennes centr\u00e9es r\u00e9duites sur chaque x i . Il est montr\u00e9 que le choix du noyau a une influence r\u00e9duite sur l'estimation. En revanche, ces m\u00e9thodes sont connues pour \u00eatre sensibles au choix du param\u00e8tre de lissage h, qui contr\u00f4le la r\u00e9gularit\u00e9 de l'estimation. Son choix crucial est un probl\u00e8me particuli\u00e8rement difficile, mais largement abord\u00e9 dans la litt\u00e9rature. Pour le fixer, nous utilisons la r\u00e8gle empirique de Silverman (Silverman, 1986, page 48, eqn (3.31) ). Sous l'hypoth\u00e8se de normalit\u00e9 de la distribution sous-jacente, cette r\u00e8gle propose une fa\u00e7on simple de calculer le param\u00e8tre h optimum lorsque des fonctions gaussiennes sont utilis\u00e9es pour approximer des donn\u00e9es univari\u00e9es (\u00e9quation 4 o\u00f9\u03c3 est l'\u00e9cart type estim\u00e9 sur l'\u00e9chantillon, q 1 et q 3 respectivement les premier et troisi\u00e8me quartiles).", |
|
"cite_spans": [ |
|
{ |
|
"start": 559, |
|
"end": 596, |
|
"text": "(Silverman, 1986, page 48, eqn (3.31)", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Estimation par fen\u00eatres de Parzen", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "Une fois ces probabilit\u00e9s estim\u00e9es sur chacun des k plus proches voisins de w, on peut alors calculer le score de confiance Q(w). La complexit\u00e9 de ce calcul pour l'ensemble des listes de voisinage est donc en O(k * n 2 ).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Estimation par fen\u00eatres de Parzen", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "L'int\u00e9r\u00eat attendu du score de confiance est de permettre d'avoir un indice a priori de la qualit\u00e9 d'une liste de voisins pour un mot donn\u00e9. Un tel score peut ainsi \u00eatre utile pour de nombreuses applications exploitant les th\u00e9saurus produits par notre approche. Une \u00e9valuation du score de confiance par le biais de telles applications serait certainement le plus adapt\u00e9, mais d\u00e9passe le cadre de cet article. Nous utilisons \u00e0 d\u00e9faut une \u00e9valuation directe vis-\u00e0-vis de la MAP : nous mesurons la corr\u00e9lation entre la MAP et le score de confiance, l'id\u00e9e \u00e9tant qu'une entr\u00e9e avec une liste de voisins de faible qualit\u00e9 correspond \u00e0 une entr\u00e9e ayant une MAP faible.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Utilit\u00e9 du score de confiance", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Plusieurs indices de corr\u00e9lation peuvent \u00eatre employ\u00e9s. L'indice r de Pearson mesure une corr\u00e9lation lin\u00e9aire entre score et MAP. Nous utilisons \u00e9galement les corr\u00e9lations \u03c1 de Spearman et \u03c4 de Kendall qui ne font pas d'hypoth\u00e8se de lin\u00e9arit\u00e9 et comparent uniquement l'ordre des mots class\u00e9s selon la MAP \u00e0 l'ordre selon le score de confiance. Les r\u00e9sultats de ces trois coefficients sont donn\u00e9s dans le tableau 3 (1 indique une corr\u00e9lation parfaite, 0 une absence de corr\u00e9lation et -1 une corr\u00e9lation inverse), avec pour chacun la p-valeur du test de significativit\u00e9 associ\u00e9 (une p-valeur faible, par exemple < 0.05, indique un r\u00e9sultat statistiquement significatif). Les scores de confiance sont obtenus avec k = 20 ; d'autres exp\u00e9riences non rapport\u00e9es ici montrent que ce param\u00e8tre, s'il est choisi entre 5 et 100, influence peu les valeurs de corr\u00e9lation. Ces mesures montrent une corr\u00e9lation certaine et statistiquement significative entre notre score de confiance et la MAP, mais n\u00e9anmoins imparfaite et non lin\u00e9aire. Le score de confiance est tout de m\u00eame un bon indicateur de qualit\u00e9 comme en t\u00e9moigne aussi le graphe en figure 3 o\u00f9 est repr\u00e9sent\u00e9e la moyenne des MAP (en ordonn\u00e9) sur les listes de voisins ayant un score de confiance inf\u00e9rieur \u00e0 un seuil que nous faisons varier (en abscisse). FIGURE 3: MAP des mots dont le score de confiance est inf\u00e9rieur \u00e0 un certain seuil (donn\u00e9 en abscisse (log)) et proportion cumul\u00e9e de mots concern\u00e9s Le score de confiance peut \u00eatre utilis\u00e9 pour am\u00e9liorer les r\u00e9sultats des techniques d'agr\u00e9gation vus en section 4. L'id\u00e9e est simplement d'int\u00e9grer le score de confiance dans le score final :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Utilit\u00e9 du score de confiance", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "score wi (w j ) = Q(w j ) * Agreg(1 \u2212 \u03c4 wi (w j )/n, 1 \u2212 \u03c4 wj (w i )/n)", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Utilit\u00e9 du score de confiance", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Comme on le voit dans le tableau 4, l'ajout de cette information permet des gains encore plus importants que ceux rapport\u00e9s dans la section pr\u00e9c\u00e9dente. Comme pr\u00e9c\u00e9demment, ces gains sont plus sensibles en fin de liste (P@50, P@100). Dans la section suivante, nous tentons d'am\u00e9liorer \u00e9galement les r\u00e9sultats en d\u00e9but de liste, c'est-\u00e0-dire sur les voisins jug\u00e9s les plus proches, en utilisant diff\u00e9remment les scores de confiance.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Utilit\u00e9 du score de confiance", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "M\u00e9thode MAP R-Prec P@1 P@5 P@10 P@50 P@100 S Hamacher \u03b3 = 0.95 9.61 (+7.20) 11.59 (+5.85) 30.86 (-0.53 ", |
|
"cite_spans": [ |
|
{ |
|
"start": 96, |
|
"end": 102, |
|
"text": "(-0.53", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Utilit\u00e9 du score de confiance", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "La m\u00e9thode pr\u00e9c\u00e9dente donne un score global \u00e0 la liste, mais on peut aussi exploiter les probabilit\u00e9s de classements individuelles (les p(\u03b4(w i , w j ))) calcul\u00e9es selon la m\u00e9thode des fen\u00eatres de Parzen. Pour un mot donn\u00e9 w, on dispose pour chacun de ses voisins w j d'un score de confiance individuel li\u00e9 \u00e0 son rang actuel (p(\u03b4(w, w j )) = \u03c4 w (w j )), et l'on peut \u00e9galement calculer les probabilit\u00e9s de voir ce voisin \u00e0 n'importe quel autre rang \u03c4 (probabilit\u00e9 que ce mot soit au rang 1, 2...). Dans cette section, on se propose d'utiliser ces informations plus locales pour am\u00e9liorer les r\u00e9sultats en r\u00e9ordonnant les k-plus-proches voisins.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9ordonnancement local", |
|
"sec_num": "6" |
|
}, |
|
{ |
|
"text": "Une premi\u00e8re approche consisterait \u00e0 r\u00e9ordonner la liste sur la base de ce crit\u00e8re, des voisins les plus probables aux moins probables. Mais notre crit\u00e8re de qualit\u00e9 associ\u00e9 \u00e0 chaque mot est imparfait, et un tel r\u00e9ordonnancement d\u00e9grade fortement les r\u00e9sultats. On propose donc \u00e0 la place une m\u00e9thode permettant de r\u00e9ordonner les k-plus-proches voisins de mani\u00e8re locale (un mot qui n'\u00e9tait pas dans les k-plus-proches ne peut pas y entrer) et contr\u00f4l\u00e9e (un mot ne peut pas s'\u00e9loigner trop de son rang initial).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9ordonner par l'algorithme hongrois", |
|
"sec_num": "6.1" |
|
}, |
|
{ |
|
"text": "Notre probl\u00e8me s'exprime par la matrice suivante, dite matrice de profit, dans laquelle les lignes correspondent aux mots dans l'ordre du classement actuel (not\u00e9s w 1 \u00e0 w k ), et les colonnes correspondent aux nouveaux rangs auxquels assigner ces mots. \u00c9tant donn\u00e9es les probabilit\u00e9s de chaque mot w j d'appara\u00eetre \u00e0 un rang \u03c4 , l'objectif est de trouver la permutation des k plus proches voisins la plus probable, c'est-\u00e0-dire celle qui \"profite\" le plus.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9ordonner par l'algorithme hongrois", |
|
"sec_num": "6.1" |
|
}, |
|
{ |
|
"text": "Mprofit = \uf8eb \uf8ec \uf8ed p(\u03b4(w, w1) = 1) \u2022 \u2022 \u2022 p(\u03b4(w, w1) = k) . . . . . . . . . p(\u03b4(w, w k ) = 1) \u2022 \u2022 \u2022 p(\u03b4(w, w k ) = k) \uf8f6 \uf8f7 \uf8f8 Mp\u00e9nalit\u00e9 = \uf8eb \uf8ec \uf8ec \uf8ec \uf8ed 1 k\u22121 k \u2022 \u2022 \u2022 0 k\u22121 k 1 \u2022 \u2022 \u2022 1 k . . . . . . . . . 0 1 k \u2022 \u2022 \u2022 1 \uf8f6 \uf8f7 \uf8f7 \uf8f7 \uf8f8", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9ordonner par l'algorithme hongrois", |
|
"sec_num": "6.1" |
|
}, |
|
{ |
|
"text": "Comme nous l'avons soulign\u00e9, on souhaite par ailleurs limiter les d\u00e9placements importants, pour \u00e9viter qu'un voisin initialement tr\u00e8s proche se retrouve beaucoup plus loin et inversement. On ajoute cette contrainte \u00e0 la matrice de profit en prenant le produit d'Hadamard (produit de matrices composante par composante, not\u00e9 \u2022) avec la matrice de p\u00e9nalit\u00e9 M p\u00e9nalit\u00e9 .", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9ordonner par l'algorithme hongrois", |
|
"sec_num": "6.1" |
|
}, |
|
{ |
|
"text": "On se trouve alors face \u00e0 un probl\u00e8me d'optimisation combinatoire, qui peut se r\u00e9soudre en un temps polynomial en appliquant l'algorithme hongrois (Kuhn & Yaw, 1955 , pour une description de l'algorithme) sur M profit \u2022 M p\u00e9nalit\u00e9 . Cet algorithme a \u00e9t\u00e9 initialement propos\u00e9 pour optimiser l'assignation de travailleurs (dans notre cas les voisins) sur des t\u00e2ches (dans notre cas, le rang), selon le profit d\u00e9gag\u00e9 par chaque travailleur pour chaque t\u00e2che (ici, la probabilit\u00e9 que ce voisin soit \u00e0 ce rang). Il permet de trouver l'assignation optimale \u00e9tant donn\u00e9e une matrice de profit. Son r\u00e9sultat nous indique donc un nouveau rang pour chaque mot. L'algorithme converge sur une solution optimale et est de complexit\u00e9 O(k 3 ) (pour le r\u00e9ordonnancement des k-plus-proches voisins).", |
|
"cite_spans": [ |
|
{ |
|
"start": 147, |
|
"end": 164, |
|
"text": "(Kuhn & Yaw, 1955", |
|
"ref_id": "BIBREF17" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9ordonner par l'algorithme hongrois", |
|
"sec_num": "6.1" |
|
}, |
|
{ |
|
"text": "Le tableau 5 pr\u00e9sente les performances obtenues par rapport \u00e0 notre r\u00e9f\u00e9rence Okapi-BM25 ajust\u00e9 selon les m\u00eames modalit\u00e9s exp\u00e9rimentales que pr\u00e9c\u00e9demment. Comme pr\u00e9c\u00e9demment, on a fix\u00e9 le voisinage consid\u00e9r\u00e9 \u00e0 k = 20 ; les pr\u00e9cisions au del\u00e0 de ce seuil sont donc inchang\u00e9es et ne sont pas report\u00e9es. Nous testons l'efficacit\u00e9 de ce r\u00e9ordonnancement sur l'ensemble des listes de voisins et sur le tiers des listes ayant les scores de qualit\u00e9 les plus faibles. Il en ressort que le r\u00e9ordonnancement sur l'ensemble des listes n'apporte pas de v\u00e9ritable gain ; en revanche, sur les listes dont le score de confiance est faible, le gain est substantiel. Par ailleurs, contrairement aux exp\u00e9riences de la section 4, ces gains portent par construction sur les t\u00eates de listes, qui sont les plus \u00e0 m\u00eame d'\u00eatre utilis\u00e9es en pratique. La diff\u00e9rence entre le traitement de l'ensemble des mots et celui sur le tiers ayant le score de confiance le plus bas s'explique de deux mani\u00e8res. D'une part, les listes ayant les plus forts scores de confiance correspondent en majeure partie aux listes ayant les meilleures MAP, comme attendu (et illustr\u00e9 en figure 3). Celles-ci laissent donc a priori peu de marge \u00e0 l'am\u00e9lioration. D'autre part, ind\u00e9- ", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats", |
|
"sec_num": "6.2" |
|
}, |
|
{ |
|
"text": "GRAPHE DE VOISINAGE DISTRIBUTIONNEL pendamment de leur MAP, on peut aussi supposer que ces m\u00eames listes ont d\u00e9j\u00e0 un arrangement optimal des probabilit\u00e9s individuelles qui explique le fort score de confiance, le r\u00e9ordonnancement ne concernant alors que peu de voisins.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "230", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "Les diff\u00e9rentes contributions propos\u00e9es dans cet article ne se placent pas toutes au m\u00eame niveau. La construction de th\u00e9saurus en utilisant des outils issus de la RI n'est pas une innovation conceptuelle majeure, mais cette approche semble curieusement inexplor\u00e9e bien qu'elle fournisse des r\u00e9sultats tr\u00e8s comp\u00e9titifs en demandant un minimum de travail de mise-en-oeuvre gr\u00e2ce aux outils existants de la RI.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Conclusion et perspectives", |
|
"sec_num": "7" |
|
}, |
|
{ |
|
"text": "Les diff\u00e9rentes propositions exploitant le graphe de voisinage pour am\u00e9liorer le th\u00e9saurus rel\u00e8vent d'une d\u00e9marche plus originale o\u00f9 l'ensemble du th\u00e9saurus est consid\u00e9r\u00e9. Nous y avons en particulier examin\u00e9 les aspects de r\u00e9ciprocit\u00e9 et de distance, en terme de rang, entre deux mots pour proposer plusieurs contributions. Certaines hypoth\u00e8ses, comme la r\u00e9ciprocit\u00e9, se d\u00e9fendent ais\u00e9ment pour des relations comme la synonymie, mais restent \u00e0 valider pour des relations plus complexes. \u00c0 ce titre, une analyse plus fine par type de relations en s'appuyant sur la typologie de Moby reste \u00e0 faire. Cependant, les am\u00e9liorations apport\u00e9es par l'agr\u00e9gation sur l'ensemble des voisins ou la technique de r\u00e9ordonnancement \u00e0 partir des scores de confiance valident globalement notre d\u00e9marche. Il convient de noter \u00e0 ce propos que les gains obtenus sont petits en valeur absolue, mais constituent, par rapport \u00e0 ceux observ\u00e9s dans le domaine, des am\u00e9liorations significatives. Une analyse contrastive entre Moby et WordNet apporterait \u00e9galement des \u00e9l\u00e9ments int\u00e9ressants et compl\u00e9mentaires \u00e0 Ferret (2013b).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Conclusion et perspectives", |
|
"sec_num": "7" |
|
}, |
|
{ |
|
"text": "Les diff\u00e9rents aspects de ce travail ouvrent de nombreuses pistes de recherche. Par exemple, beaucoup d'autres fonctions d'agr\u00e9gation outre celles test\u00e9es en section 4 existent dans la litt\u00e9rature. Certaines pourraient d'ailleurs offrir la possibilit\u00e9 d'incorporer le score de confiance associ\u00e9 \u00e0 chaque voisin, comme les int\u00e9grales de Choquet ou de Sugeno (Detyniecki, 2000) . Plus largement, il serait int\u00e9ressant d'utiliser it\u00e9rativement les am\u00e9liorations des listes de voisins pour mettre \u00e0 jour les scores de confiance, etc., en s'inspirant par exemple de ce qui est propos\u00e9 par Pedronette et al. (2014). Au del\u00e0 des th\u00e9saurus distributionnels, les m\u00e9thodes propos\u00e9es pour calculer des scores de confiance ou r\u00e9ordonner les listes de voisins peuvent s'appliquer \u00e0 d'autres probl\u00e8mes o\u00f9 ces graphes de k plus proches voisins sont construits. Notons \u00e9galement que nous n'avons consid\u00e9r\u00e9 qu'une petite partie de l'information port\u00e9e par le graphe de voisinage. Nous nous sommes concentr\u00e9s sur les aspects de r\u00e9ciprocit\u00e9, mais d'autres travaux, prenant en compte d'autres aspects de ce graphe (la transitivit\u00e9 notamment, ou plus globalement sa topologie), pourraient mener \u00e0 d'autres am\u00e9liorations.", |
|
"cite_spans": [ |
|
{ |
|
"start": 357, |
|
"end": 375, |
|
"text": "(Detyniecki, 2000)", |
|
"ref_id": "BIBREF5" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Conclusion et perspectives", |
|
"sec_num": "7" |
|
}, |
|
{ |
|
"text": "Plusieurs \u00e9l\u00e9ments m\u00e9ritent d'\u00eatre not\u00e9s dans ces premiers r\u00e9sultats. Notons tout d'abord que comme pour les autres travaux de la litt\u00e9rature, nos r\u00e9sultats sont globalement faibles, ce qui atteste de la difficult\u00e9 de la t\u00e2che. Outre ces mesures de pr\u00e9cision, le rappel \u00e0 100 est par exemple de 21.2 % pour la version ajust\u00e9 d'Okapi sur la r\u00e9f\u00e9rence WordNet+Moby. On constate par ailleurs que certaines similarit\u00e9s RI sont assez peu performantes, notamment le TF seul ou la similarit\u00e9 d'Hellinger. Cela est peu surprenant puisque ces similarit\u00e9s utilisent des pond\u00e9rations basiques qui ne permettent pas de mettre en valeur les contextes discriminants des mots. Les similarit\u00e9s incluant une notion d'IDF obtiennent en cela de meilleurs r\u00e9sultats. Les similarit\u00e9s de type Okapi-BM25 offrent de bons r\u00e9sultats ; la version standard d'Okapi obtient des performances similaires \u00e0 l'\u00e9tat de l'art, et la version ajust\u00e9e d\u00e9passe m\u00eame largement les deux syst\u00e8mes de (Ferret, 2013a), notamment en terme de qualit\u00e9 globale (mesur\u00e9e par la MAP), quelle que soit la r\u00e9f\u00e9rence utilis\u00e9e. C'est cette derni\u00e8re version du syst\u00e8me qui nous sert de r\u00e9f\u00e9rence pour la suite de cet article.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "Estimation de la confiance d'une liste de voisins distributionnelsDans la section pr\u00e9c\u00e9dente, le rang de w i dans la liste des voisins de w j est utilis\u00e9 pour am\u00e9liorer le classement de w j dans la liste des voisins de w i . On peut aussi s'int\u00e9resser d'une mani\u00e8re plus g\u00e9n\u00e9rale aux positions relatives de w i et w j dans toutes les listes de voisins de tous les mots pour en tirer une information peut-\u00eatre plus compl\u00e8te. Dans un premier temps, nous proposons d'en tirer un crit\u00e8re de confiance associ\u00e9 \u00e0 chaque liste de plus-proches voisins en se basant uniquement sur des \u00e9l\u00e9ments du graphe de voisinage.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
} |
|
], |
|
"back_matter": [], |
|
"bib_entries": { |
|
"BIBREF0": { |
|
"ref_id": "b0", |
|
"title": "\u00c9valuer et am\u00e9liorer une ressource distributionnelle : protocole d'annotation de liens s\u00e9mantiques en contexte", |
|
"authors": [ |
|
{ |
|
"first": "Adam", |
|
"middle": [ |
|
"C" |
|
], |
|
"last": "Fabre", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [ |
|
"&" |
|
], |
|
"last": "Muller P", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2013, |
|
"venue": "TAL", |
|
"volume": "54", |
|
"issue": "1", |
|
"pages": "71--97", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "ADAM C., FABRE C. & MULLER P. (2013). \u00c9valuer et am\u00e9liorer une ressource distributionnelle : protocole d'annotation de liens s\u00e9mantiques en contexte. TAL, 54(1), 71-97.", |
|
"links": null |
|
}, |
|
"BIBREF1": { |
|
"ref_id": "b1", |
|
"title": "Recherche d'information : \u00e9tats des lieux et perspectives", |
|
"authors": [], |
|
"year": 2008, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "M. BOUGHANEM & J. SAVOY, Eds. (2008). Recherche d'information : \u00e9tats des lieux et perspectives.", |
|
"links": null |
|
}, |
|
"BIBREF2": { |
|
"ref_id": "b2", |
|
"title": "Rank-Based Transformation in Measuring Semantic Relatedness", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Broda B", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"&" |
|
], |
|
"last": "Piasecki M", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Szpakowicz S", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2009, |
|
"venue": "22 nd Canadian Conference on Artificial Intelligence", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "187--190", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BRODA B., PIASECKI M. & SZPAKOWICZ S. (2009). Rank-Based Transformation in Measuring Semantic Relatedness. In 22 nd Canadian Conference on Artificial Intelligence, p. 187-190.", |
|
"links": null |
|
}, |
|
"BIBREF3": { |
|
"ref_id": "b3", |
|
"title": "Evaluating wordnet-based measures of lexical semantic relatedness", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Budanitsky A", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Hirst G", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2006, |
|
"venue": "Computational Linguistics", |
|
"volume": "32", |
|
"issue": "1", |
|
"pages": "13--47", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BUDANITSKY A. & HIRST G. (2006). Evaluating wordnet-based measures of lexical semantic relatedness. Computa- tional Linguistics, 32(1), 13-47.", |
|
"links": null |
|
}, |
|
"BIBREF4": { |
|
"ref_id": "b4", |
|
"title": "Improvements in automatic thesaurus extraction", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"R" |
|
], |
|
"last": "Curran", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Moens M", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2002, |
|
"venue": "Workshop of the ACL Special Interest Group on the Lexicon (SIGLEX)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "59--66", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "CURRAN J. R. & MOENS M. (2002). Improvements in automatic thesaurus extraction. In Workshop of the ACL Special Interest Group on the Lexicon (SIGLEX), p. 59-66, Philadelphia, USA.", |
|
"links": null |
|
}, |
|
"BIBREF5": { |
|
"ref_id": "b5", |
|
"title": "Mathematical aggregation operators and their application to video querying", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Detyniecki", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2000, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "DETYNIECKI M. (2000). Mathematical aggregation operators and their application to video querying. PhD thesis, Universit\u00e9 de Paris 6.", |
|
"links": null |
|
}, |
|
"BIBREF6": { |
|
"ref_id": "b6", |
|
"title": "Analyse factorielle sph\u00e9rique : une exploration", |
|
"authors": [ |
|
{ |
|
"first": "Domeng\u00e8s", |
|
"middle": [ |
|
"D &" |
|
], |
|
"last": "Volle M", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1979, |
|
"venue": "Annales de l'INSEE", |
|
"volume": "35", |
|
"issue": "", |
|
"pages": "3--83", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "DOMENG\u00c8S D. & VOLLE M. (1979). Analyse factorielle sph\u00e9rique : une exploration. Annales de l'INSEE, 35, 3-83.", |
|
"links": null |
|
}, |
|
"BIBREF7": { |
|
"ref_id": "b7", |
|
"title": "Analyse factorielle et distances r\u00e9pondant au principe d'\u00e9quivalence distributionnelle", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Escoffier B", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1978, |
|
"venue": "", |
|
"volume": "26", |
|
"issue": "", |
|
"pages": "29--37", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "ESCOFFIER B. (1978). Analyse factorielle et distances r\u00e9pondant au principe d'\u00e9quivalence distributionnelle. Revue de statistique appliqu\u00e9e, 26(4), 29-37.", |
|
"links": null |
|
}, |
|
"BIBREF8": { |
|
"ref_id": "b8", |
|
"title": "Combining bootstrapping and feature selection for improving a distributional thesaurus", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Ferret O. ; V", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "E", |
|
"middle": [], |
|
"last": "Claveau", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "O", |
|
"middle": [], |
|
"last": "Kijak", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Ferret", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "20 th European Conference on Artificial Intelligence (ECAI 2012)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "336--341", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "FERRET O. (2012). Combining bootstrapping and feature selection for improving a distributional thesaurus. In 20 th European Conference on Artificial Intelligence (ECAI 2012), p. 336-341, Montpellier, France. V. CLAVEAU, E. KIJAK, O. FERRET", |
|
"links": null |
|
}, |
|
"BIBREF9": { |
|
"ref_id": "b9", |
|
"title": "Identifying bad semantic neighbors for improving distributional thesauri", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Ferret O", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2013, |
|
"venue": "51 st Annual Meeting of the Association for Computational Linguistics (ACL 2013)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "561--571", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "FERRET O. (2013a). Identifying bad semantic neighbors for improving distributional thesauri. In 51 st Annual Meeting of the Association for Computational Linguistics (ACL 2013), p. 561-571, Sofia, Bulgaria.", |
|
"links": null |
|
}, |
|
"BIBREF10": { |
|
"ref_id": "b10", |
|
"title": "S\u00e9lection non supervis\u00e9e de relations s\u00e9mantiques pour am\u00e9liorer un th\u00e9saurus distributionnel", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Ferret O", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2013, |
|
"venue": "20\u00e8 me Conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN 2013)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "48--61", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "FERRET O. (2013b). S\u00e9lection non supervis\u00e9e de relations s\u00e9mantiques pour am\u00e9liorer un th\u00e9saurus distributionnel. In 20\u00e8 me Conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN 2013), p. 48-61, Les Sables d'Olonne, France.", |
|
"links": null |
|
}, |
|
"BIBREF11": { |
|
"ref_id": "b11", |
|
"title": "Studies in Linguistic Analysis, chapter A synopsis of linguistic theory 1930-1955", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"R" |
|
], |
|
"last": "Firth", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1957, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "1--32", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "FIRTH J. R. (1957). Studies in Linguistic Analysis, chapter A synopsis of linguistic theory 1930-1955, p. 1-32. Black- well : Oxford.", |
|
"links": null |
|
}, |
|
"BIBREF12": { |
|
"ref_id": "b12", |
|
"title": "New experiments in distributional representations of synonymy", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Freitag D", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Blume", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [], |
|
"last": "Byrnes", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Chow E", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Kapadia S", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Rohwer R", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Wang Z", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2005, |
|
"venue": "Ninth Conference on Computational Natural Language Learning (CoNLL)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "25--32", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "FREITAG D., BLUME M., BYRNES J., CHOW E., KAPADIA S., ROHWER R. & WANG Z. (2005). New experiments in distributional representations of synonymy. In Ninth Conference on Computational Natural Language Learning (CoNLL), p. 25-32, Ann Arbor, Michigan, USA.", |
|
"links": null |
|
}, |
|
"BIBREF13": { |
|
"ref_id": "b13", |
|
"title": "Explorations in automatic thesaurus discovery", |
|
"authors": [ |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Grefenstette", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1994, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "GREFENSTETTE G. (1994). Explorations in automatic thesaurus discovery. Kluwer Academic Publishers.", |
|
"links": null |
|
}, |
|
"BIBREF14": { |
|
"ref_id": "b14", |
|
"title": "Selection of effective contextual information for automatic synonym acquisition", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Hagiwara", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "Y", |
|
"middle": [ |
|
"&" |
|
], |
|
"last": "Ogawa", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Toyama K", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2006, |
|
"venue": "21 st International Conference on Computational Linguistics and 44 th Annual Meeting of the Association for Computational Linguistics (COLING-ACL 2006)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "353--360", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "HAGIWARA M., OGAWA Y. & TOYAMA K. (2006). Selection of effective contextual information for automatic synonym acquisition. In 21 st International Conference on Computational Linguistics and 44 th Annual Meeting of the Association for Computational Linguistics (COLING-ACL 2006), p. 353-360, Sydney, Australia.", |
|
"links": null |
|
}, |
|
"BIBREF15": { |
|
"ref_id": "b15", |
|
"title": "Improving word representations via global context and multiple word prototypes", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"H" |
|
], |
|
"last": "Huang E", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Socher R", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"D" |
|
], |
|
"last": "Manning C", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"Y" |
|
], |
|
"last": "Ng A", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "50th Annual Meeting of the Association for Computational Linguistics (ACL'12)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "873--882", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "HUANG E. H., SOCHER R., MANNING C. D. & NG A. Y. (2012). Improving word representations via global context and multiple word prototypes. In 50th Annual Meeting of the Association for Computational Linguistics (ACL'12), p. 873-882.", |
|
"links": null |
|
}, |
|
"BIBREF16": { |
|
"ref_id": "b16", |
|
"title": "Using Statistical Testing in the Evaluation of Retrieval Experiments", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Hull D", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1993, |
|
"venue": "Proc. of the 16 th Annual ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR'93", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "HULL D. (1993). Using Statistical Testing in the Evaluation of Retrieval Experiments. In Proc. of the 16 th Annual ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR'93, Pittsburgh, \u00c9tats-Unis.", |
|
"links": null |
|
}, |
|
"BIBREF17": { |
|
"ref_id": "b17", |
|
"title": "The hungarian method for the assignment problem", |
|
"authors": [ |
|
{ |
|
"first": "H", |
|
"middle": [ |
|
"W" |
|
], |
|
"last": "Kuhn", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Yaw B", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1955, |
|
"venue": "Naval Research Logistic Quarterly", |
|
"volume": "2", |
|
"issue": "", |
|
"pages": "83--97", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "KUHN H. W. & YAW B. (1955). The hungarian method for the assignment problem. Naval Research Logistic Quarterly, 2, 83-97.", |
|
"links": null |
|
}, |
|
"BIBREF18": { |
|
"ref_id": "b18", |
|
"title": "A solution to Plato's problem : the latent semantic analysis theory of acquisition, induction, and representation of knowledge", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"K" |
|
], |
|
"last": "Landauer T", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"T" |
|
], |
|
"last": "Dumais S", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1997, |
|
"venue": "Psychological review", |
|
"volume": "104", |
|
"issue": "2", |
|
"pages": "211--240", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LANDAUER T. K. & DUMAIS S. T. (1997). A solution to Plato's problem : the latent semantic analysis theory of acquisition, induction, and representation of knowledge. Psychological review, 104(2), 211-240.", |
|
"links": null |
|
}, |
|
"BIBREF19": { |
|
"ref_id": "b19", |
|
"title": "Automatic retrieval and clustering of similar words", |
|
"authors": [ |
|
{ |
|
"first": "Lin", |
|
"middle": [ |
|
"D" |
|
], |
|
"last": "", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1998, |
|
"venue": "17 th International Conference on Computational Linguistics and 36 th Annual Meeting of the Association for Computational Linguistics (ACL-COLING'98)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "768--774", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LIN D. (1998). Automatic retrieval and clustering of similar words. In 17 th International Conference on Computational Linguistics and 36 th Annual Meeting of the Association for Computational Linguistics (ACL-COLING'98), p. 768-774, Montr\u00e9al, Canada.", |
|
"links": null |
|
}, |
|
"BIBREF20": { |
|
"ref_id": "b20", |
|
"title": "Linguistic regularities in continuous space word representations", |
|
"authors": [ |
|
{ |
|
"first": "Yih W.-T. & Zweig G", |
|
"middle": [], |
|
"last": "Mikolov T", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2013, |
|
"venue": "2013 Conference of the North American Chapter of the Association for Computational Linguistics : Human Language Technologies (NAACL HLT 2013)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "746--751", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "MIKOLOV T., YIH W.-T. & ZWEIG G. (2013). Linguistic regularities in continuous space word representations. In 2013 Conference of the North American Chapter of the Association for Computational Linguistics : Human Language Technologies (NAACL HLT 2013), p. 746-751, Atlanta, Georgia.", |
|
"links": null |
|
}, |
|
"BIBREF21": { |
|
"ref_id": "b21", |
|
"title": "WordNet : An On-Line Lexical Database", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"A" |
|
], |
|
"last": "Miller G", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1990, |
|
"venue": "International Journal of Lexicography", |
|
"volume": "3", |
|
"issue": "4", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "MILLER G. A. (1990). WordNet : An On-Line Lexical Database. International Journal of Lexicography, 3(4).", |
|
"links": null |
|
}, |
|
"BIBREF22": { |
|
"ref_id": "b22", |
|
"title": "Dependency-based construction of semantic space models", |
|
"authors": [ |
|
{ |
|
"first": "Pad\u00f3", |
|
"middle": [ |
|
"S &" |
|
], |
|
"last": "Lapata M", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2007, |
|
"venue": "Computational Linguistics", |
|
"volume": "33", |
|
"issue": "2", |
|
"pages": "161--199", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "PAD\u00d3 S. & LAPATA M. (2007). Dependency-based construction of semantic space models. Computational Linguistics, 33(2), 161-199.", |
|
"links": null |
|
}, |
|
"BIBREF23": { |
|
"ref_id": "b23", |
|
"title": "On estimation of a probability density function and mode", |
|
"authors": [ |
|
{ |
|
"first": "Parzen", |
|
"middle": [ |
|
"E" |
|
], |
|
"last": "", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1962, |
|
"venue": "Ann. Math. Stat", |
|
"volume": "33", |
|
"issue": "", |
|
"pages": "1065--1076", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "PARZEN E. (1962). On estimation of a probability density function and mode. Ann. Math. Stat., 33, 1065-1076.", |
|
"links": null |
|
}, |
|
"BIBREF24": { |
|
"ref_id": "b24", |
|
"title": "Unsupervised manifold learning using reciprocal knn graphs in image re-ranking and rank aggregation tasks", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"C G" |
|
], |
|
"last": "Pedronette D", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"A" |
|
], |
|
"last": "Penatti O", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Da S", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Torres R", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2014, |
|
"venue": "Image and Vision Computing", |
|
"volume": "32", |
|
"issue": "2", |
|
"pages": "120--130", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "PEDRONETTE D. C. G., PENATTI O. A. & DA S. TORRES R. (2014). Unsupervised manifold learning using reciprocal knn graphs in image re-ranking and rank aggregation tasks. Image and Vision Computing, 32(2), 120 -130.", |
|
"links": null |
|
}, |
|
"BIBREF25": { |
|
"ref_id": "b25", |
|
"title": "Okapi at TREC-7 : Automatic Ad Hoc, Filtering, VLC and Interactive", |
|
"authors": [ |
|
{ |
|
"first": "Walker", |
|
"middle": [ |
|
"E S &" |
|
], |
|
"last": "Robertson S", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Hancock-Beaulieu M", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1998, |
|
"venue": "Proc. of the 7 th Text Retrieval Conference", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "199--210", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "ROBERTSON S. E., WALKER S. & HANCOCK-BEAULIEU M. (1998). Okapi at TREC-7 : Automatic Ad Hoc, Filtering, VLC and Interactive. In Proc. of the 7 th Text Retrieval Conference, TREC-7, p. 199-210.", |
|
"links": null |
|
}, |
|
"BIBREF26": { |
|
"ref_id": "b26", |
|
"title": "Vector-based semantic analysis : Representing word meanings based on random labels", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Sahlgren", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2001, |
|
"venue": "ESSLLI 2001 Workshop on Semantic Knowledge Acquisition and Categorisation", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "SAHLGREN M. (2001). Vector-based semantic analysis : Representing word meanings based on random labels. In ESSLLI 2001 Workshop on Semantic Knowledge Acquisition and Categorisation, Helsinki, Finland.", |
|
"links": null |
|
}, |
|
"BIBREF27": { |
|
"ref_id": "b27", |
|
"title": "Density estimation for statistics and data analysis. Monographs on statistics and applied probability", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"W" |
|
], |
|
"last": "Silverman B", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1986, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "SILVERMAN B. W. (1986). Density estimation for statistics and data analysis. Monographs on statistics and applied probability. London, Glasgow, Weinheim : Chapman and Hall Boca Raton.", |
|
"links": null |
|
}, |
|
"BIBREF28": { |
|
"ref_id": "b28", |
|
"title": "Mining for Meaning. The Extraction of Lexico-semantic Knowledge from Text", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Van De Cruys T", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "VAN DE CRUYS T. (2010). Mining for Meaning. The Extraction of Lexico-semantic Knowledge from Text. PhD thesis, University of Groningen, The Netherlands.", |
|
"links": null |
|
}, |
|
"BIBREF29": { |
|
"ref_id": "b29", |
|
"title": "A domain-independent approach to finding related entities", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"&" |
|
], |
|
"last": "Vechtomova O", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Robertson S", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "Information Processing and Management", |
|
"volume": "48", |
|
"issue": "4", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "VECHTOMOVA O. & ROBERTSON S. (2012). A domain-independent approach to finding related entities. Information Processing and Management, 48(4).", |
|
"links": null |
|
}, |
|
"BIBREF30": { |
|
"ref_id": "b30", |
|
"title": "Moby thesaurus. Moby Project", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Ward G", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1996, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "WARD G. (1996). Moby thesaurus. Moby Project.", |
|
"links": null |
|
}, |
|
"BIBREF31": { |
|
"ref_id": "b31", |
|
"title": "All of Statistics : A Concise Course in Statistical Inference", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Wasserman L", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2005, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "WASSERMAN L. (2005). All of Statistics : A Concise Course in Statistical Inference. Springer Texts in Statistics.", |
|
"links": null |
|
}, |
|
"BIBREF32": { |
|
"ref_id": "b32", |
|
"title": "Even unassociated features can improve lexical distributional similarity", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Yamamoto K. & Asakura T", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2009, |
|
"venue": "Second Workshop on NLP Challenges in the Information Explosion Era", |
|
"volume": "35", |
|
"issue": "", |
|
"pages": "435--461", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "YAMAMOTO K. & ASAKURA T. (2010). Even unassociated features can improve lexical distributional similarity. In Second Workshop on NLP Challenges in the Information Explosion Era (NLPIX 2010), p. 32-39, Beijing, China. ZHITOMIRSKY-GEFFET M. & DAGAN I. (2009). Bootstrapping Distributional Feature Vector Quality. Computational Linguistics, 35(3), 435-461.", |
|
"links": null |
|
} |
|
}, |
|
"ref_entries": { |
|
"FIGREF0": { |
|
"num": null, |
|
"uris": null, |
|
"text": "Performances de l'agr\u00e9gation des rangs r\u00e9ciproques sur la r\u00e9f\u00e9rence WordNet+Moby", |
|
"type_str": "figure" |
|
}, |
|
"FIGREF1": { |
|
"num": null, |
|
"uris": null, |
|
"text": "(a) Deux histogrammes (en bleu et en rouge) des \u00e9carts d'un mot et deux de ses voisins. (b) Deux densit\u00e9s de probabilit\u00e9s (en bleu et en rouge) estim\u00e9es par fen\u00eatres de Parzen, correspondant aux donn\u00e9es de la figure 2a.entre w a et w b dans chacune des listes (compl\u00e8tes) des voisins de chaque mot. On les suppose iid ; cette hypoth\u00e8se n'est certainement pas remplie puisque ces distances sont calcul\u00e9es en partie sur des contextes similaires, mais cette simplification permet une formalisation simple et efficace.", |
|
"type_str": "figure" |
|
}, |
|
"TABREF0": { |
|
"content": "<table/>", |
|
"html": null, |
|
"type_str": "table", |
|
"num": null, |
|
"text": "Il s'agit d'une part des synonymes de WordNet 3.0(Miller, 1990), et d'autre part du th\u00e9saurus Moby(Ward, 1996). Ces deux ressources ont des caract\u00e9ristiques assez diff\u00e9rentes et compl\u00e9mentaires ; notamment, WordNet indique des liens paradigmatiques assez forts entre les mots (synonymie ou quasi-synonymie) et nous fournit ainsi des listes de 3 voisins en moyenne pour 10 473 noms du corpus, tandis que Moby regroupe des mots partageant des relations syntagmatiques ou paradigmatiques plus larges, et fournit des listes de 50 voisins en moyenne pour 9 216 noms. Les deux ressources combin\u00e9es donnent une r\u00e9f\u00e9rence de 38 voisins en moyenne pour 12 243 noms. C'est cette combinaison de WordNet et Moby qui sera utilis\u00e9e comme r\u00e9f\u00e9rence dans toutes les \u00e9valuations de cet article.Cette \u00e9valuation intrins\u00e8que porte donc sur une petite moiti\u00e9 des entr\u00e9es du th\u00e9saurus consid\u00e9r\u00e9, ce que l'on peut consid\u00e9rer, compte tenu de sa taille, comme un ensemble d'\u00e9valuation cons\u00e9quent par rapport \u00e0 des jeux de test classiques (e.g. WordSim 353). Ce type d'\u00e9valuation intrins\u00e8que est bien entendu limit\u00e9 par la nature des relations pr\u00e9sentes dans les ressources de r\u00e9f\u00e9rence. Si cette limite est assez restrictive dans le cas des synonymes de WordNet, elle est beaucoup plus large et pose moins probl\u00e8me dans le cas de Moby, dont les relations sont tr\u00e8s diverses." |
|
}, |
|
"TABREF2": { |
|
"content": "<table/>", |
|
"html": null, |
|
"type_str": "table", |
|
"num": null, |
|
"text": "Performances des mod\u00e8les de RI pour la construction des th\u00e9saurus distributionnels sur la r\u00e9f\u00e9rence Word-Net+Moby Average Precision (MAP, moyenne des pr\u00e9cisions calcul\u00e9es apr\u00e8s chaque mot de la r\u00e9f\u00e9rence trouv\u00e9), la R-pr\u00e9cision (Rprec, pr\u00e9cision apr\u00e8s R voisins ou R est le nombre de voisins dans la liste de r\u00e9f\u00e9rence pour le nom examin\u00e9). Elles sont toutes exprim\u00e9es en pourcentage dans la suite de l'article." |
|
}, |
|
"TABREF3": { |
|
"content": "<table/>", |
|
"html": null, |
|
"type_str": "table", |
|
"num": null, |
|
"text": "19.29 (+4.58) 14.71 (+6.92) 7.09 (+9.78) 4.86 (+7.07) WordNet 15.05 (+6.23) 12.81 (+4.81) 17.55 (+3.41) 7.96 (+12.16) 5.07 (+13.30) 1.63 (+15.69) 0.94 (+12.23) Moby 5.90 (+3.65) 11.86 (+4.14) 31.77 (-1.27) 21.65 (+1.34) 17.0 (+3.53) 8.42 (+5.01) 5.92 (+4.12)" |
|
}, |
|
"TABREF4": { |
|
"content": "<table/>", |
|
"html": null, |
|
"type_str": "table", |
|
"num": null, |
|
"text": "Performances et gains (%) par agr\u00e9gation des rangs r\u00e9ciproques sur les r\u00e9f\u00e9rences WordNet et Moby s\u00e9par\u00e9ment avec une agr\u00e9gation des rangs par S Hamacher \u03b3 = 0.95Les T-normes, privil\u00e9giant les paires de mots proches l'une de l'autre dans les deux sens, sont trop contraignantes. Cela rejoint les conclusions des travaux cit\u00e9s : la condition de r\u00e9ciprocit\u00e9, appliqu\u00e9e trop strictement, ne permet pas d'am\u00e9liorer les listes de plus proches voisins sur l'ensemble des mots. En revanche, les S-normes semblent mieux \u00e0 m\u00eame de tirer parti du classement. Les am\u00e9liorations sont dans ce cas modestes en terme de qualit\u00e9 globale (MAP), mais importantes \u00e0 certains rangs (P@10, P@50).Enfin, il est important de noter que ces r\u00e9sultats d\u00e9pendent beaucoup de la ressource utilis\u00e9e comme r\u00e9f\u00e9rence, comme nous l'illustrons dans le tableau 2 en testant l'agr\u00e9gation avec S Hamacher \u03b3 = 0.95 sur Moby et WordNet s\u00e9par\u00e9ment. Pour s'assurer que les diff\u00e9rences soient statistiquement significatives, nous effectuons un test de Wilcoxon (p < 0.05)(Hull, 1993) ; les r\u00e9sultats non significatifs sont indiqu\u00e9s en italiques. Sur WordNet, bas\u00e9e sur une relation de synonymie assez forte et donc r\u00e9ciproque, les gains obtenus par notre approche sont bien plus importants que sur la r\u00e9f\u00e9rence issue de Moby." |
|
}, |
|
"TABREF7": { |
|
"content": "<table/>", |
|
"html": null, |
|
"type_str": "table", |
|
"num": null, |
|
"text": "Mesures de corr\u00e9lation entre le coefficient de confiance et la MAP, avec leur significativit\u00e9(p-valeur)" |
|
}, |
|
"TABREF9": { |
|
"content": "<table/>", |
|
"html": null, |
|
"type_str": "table", |
|
"num": null, |
|
"text": "Performances et gains (%) par agr\u00e9gation des rangs r\u00e9ciproques prenant en compte le score de confiance sur la r\u00e9f\u00e9rence WordNet+Moby" |
|
}, |
|
"TABREF10": { |
|
"content": "<table><tr><td>M\u00e9thode</td><td>MAP</td><td>R-Prec</td><td>P@1</td><td>P@5</td><td>P@10</td></tr><tr><td>tous les mots</td><td colspan=\"3\">9.16 (+2.17) 11.24 (+2.76) 30.73 (-1.02)</td><td>19.30 (+4.64)</td><td>14.37 (+4.44)</td></tr><tr><td>tiers avec le</td><td/><td/><td/><td/><td/></tr></table>", |
|
"html": null, |
|
"type_str": "table", |
|
"num": null, |
|
"text": "plus faible Q(w i ) 9.55 (+6.44) 11.81 (+7.99) 31.85 (+2.56) 20.43 (+10.81) 15.46 (+12.37)" |
|
}, |
|
"TABREF11": { |
|
"content": "<table><tr><td>[O-L2.2]</td></tr></table>", |
|
"html": null, |
|
"type_str": "table", |
|
"num": null, |
|
"text": "Performances et gains (%) du r\u00e9ordonnancement par l'algorithme hongrois" |
|
} |
|
} |
|
} |
|
} |