|
{ |
|
"paper_id": "F13-1006", |
|
"header": { |
|
"generated_with": "S2ORC 1.0.0", |
|
"date_generated": "2023-01-19T09:41:47.511490Z" |
|
}, |
|
"title": "WoNeF : am\u00e9lioration, extension et \u00e9valuation d'une traduction fran\u00e7aise automatique de WordNet", |
|
"authors": [ |
|
{ |
|
"first": "Quentin", |
|
"middle": [], |
|
"last": "Pradet", |
|
"suffix": "", |
|
"affiliation": { |
|
"laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus", |
|
"institution": "LIST", |
|
"location": { |
|
"postCode": "F-91191", |
|
"settlement": "Gif-sur-Yvette", |
|
"country": "France; (" |
|
} |
|
}, |
|
"email": "[email protected]" |
|
}, |
|
{ |
|
"first": "Jeanne", |
|
"middle": [], |
|
"last": "Baguenier-Desormeaux", |
|
"suffix": "", |
|
"affiliation": { |
|
"laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus", |
|
"institution": "LIST", |
|
"location": { |
|
"postCode": "F-91191", |
|
"settlement": "Gif-sur-Yvette", |
|
"country": "France; (" |
|
} |
|
}, |
|
"email": "" |
|
}, |
|
{ |
|
"first": "Ga\u00ebl", |
|
"middle": [], |
|
"last": "De Chalendar", |
|
"suffix": "", |
|
"affiliation": { |
|
"laboratory": "Laboratoire Vision et Ing\u00e9nierie des Contenus", |
|
"institution": "LIST", |
|
"location": { |
|
"postCode": "F-91191", |
|
"settlement": "Gif-sur-Yvette", |
|
"country": "France; (" |
|
} |
|
}, |
|
"email": "[email protected]" |
|
}, |
|
{ |
|
"first": "Laurence", |
|
"middle": [], |
|
"last": "Danlos", |
|
"suffix": "", |
|
"affiliation": { |
|
"laboratory": "", |
|
"institution": "ALPAGE", |
|
"location": { |
|
"postCode": "UMR-I 001 INRIA" |
|
} |
|
}, |
|
"email": "[email protected]" |
|
} |
|
], |
|
"year": "", |
|
"venue": null, |
|
"identifiers": {}, |
|
"abstract": "Identifier les sens possibles des mots du vocabulaire est un probl\u00e8me difficile demandant un travail manuel tr\u00e8s cons\u00e9quent. Ce travail a \u00e9t\u00e9 entrepris pour l'anglais : le r\u00e9sultat est la base de donn\u00e9es lexicale WordNet, pour laquelle il n'existe encore que peu d'\u00e9quivalents dans d'autres langues. N\u00e9anmoins, des traductions automatiques de WordNet vers de nombreuses langues cibles existent, notamment pour le fran\u00e7ais. JAWS est une telle traduction automatique utilisant des dictionnaires et un mod\u00e8le de langage syntaxique. Nous am\u00e9liorons cette traduction, la compl\u00e9tons avec les verbes et adjectifs de WordNet, et d\u00e9montrons la validit\u00e9 de notre approche via une nouvelle \u00e9valuation manuelle. En plus de la version principale nomm\u00e9e WoNeF, nous produisons deux versions suppl\u00e9mentaires : une version \u00e0 haute pr\u00e9cision (93% de pr\u00e9cision, jusqu'\u00e0 97% pour les noms), et une version \u00e0 haute couverture contenant 109 447 paires (litt\u00e9ral, synset).", |
|
"pdf_parse": { |
|
"paper_id": "F13-1006", |
|
"_pdf_hash": "", |
|
"abstract": [ |
|
{ |
|
"text": "Identifier les sens possibles des mots du vocabulaire est un probl\u00e8me difficile demandant un travail manuel tr\u00e8s cons\u00e9quent. Ce travail a \u00e9t\u00e9 entrepris pour l'anglais : le r\u00e9sultat est la base de donn\u00e9es lexicale WordNet, pour laquelle il n'existe encore que peu d'\u00e9quivalents dans d'autres langues. N\u00e9anmoins, des traductions automatiques de WordNet vers de nombreuses langues cibles existent, notamment pour le fran\u00e7ais. JAWS est une telle traduction automatique utilisant des dictionnaires et un mod\u00e8le de langage syntaxique. Nous am\u00e9liorons cette traduction, la compl\u00e9tons avec les verbes et adjectifs de WordNet, et d\u00e9montrons la validit\u00e9 de notre approche via une nouvelle \u00e9valuation manuelle. En plus de la version principale nomm\u00e9e WoNeF, nous produisons deux versions suppl\u00e9mentaires : une version \u00e0 haute pr\u00e9cision (93% de pr\u00e9cision, jusqu'\u00e0 97% pour les noms), et une version \u00e0 haute couverture contenant 109 447 paires (litt\u00e9ral, synset).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Abstract", |
|
"sec_num": null |
|
} |
|
], |
|
"body_text": [ |
|
{ |
|
"text": "WordNet est une base de donn\u00e9es lexicale en d\u00e9veloppement depuis les ann\u00e9es 80 (Fellbaum, 1998) . Cette base est organis\u00e9e autour du concept de synset (ensemble de synonymes), chaque synset repr\u00e9sentant un sens tr\u00e8s pr\u00e9cis \u00e0 l'aide d'une d\u00e9finition et d'un certain nombre de mots que nous nommons litt\u00e9raux. Ces synsets sont li\u00e9s par diff\u00e9rentes relations s\u00e9mantiques telles que la m\u00e9ronymie et l'hyponymie. Malgr\u00e9 des d\u00e9fauts reconnus (Boyd-Graber et al., 2006) principalement li\u00e9s \u00e0 la granularit\u00e9 trop fine des sens, WordNet reste une ressource extr\u00eamement utile et reproduire ce travail pour d'autres langues serait co\u00fbteux et difficile \u00e0 maintenir. Et malgr\u00e9 quelques probl\u00e8mes th\u00e9oriques, (Fellbaum et Vossen, 2007; de Melo et Weikum, 2008) montrent que traduire WordNet en gardant sa structure et ses synsets m\u00e8ne \u00e0 des ressources linguistiques utiles.", |
|
"cite_spans": [ |
|
{ |
|
"start": 79, |
|
"end": 95, |
|
"text": "(Fellbaum, 1998)", |
|
"ref_id": "BIBREF12" |
|
}, |
|
{ |
|
"start": 436, |
|
"end": 462, |
|
"text": "(Boyd-Graber et al., 2006)", |
|
"ref_id": "BIBREF6" |
|
}, |
|
{ |
|
"start": 695, |
|
"end": 721, |
|
"text": "(Fellbaum et Vossen, 2007;", |
|
"ref_id": "BIBREF13" |
|
}, |
|
{ |
|
"start": 722, |
|
"end": 746, |
|
"text": "de Melo et Weikum, 2008)", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Les traductions automatiques de WordNet emploient une approche dite d'extension (extend approach) : la structure de WordNet est pr\u00e9serv\u00e9e et seuls les litt\u00e9raux sont traduits. Trois techniques principales repr\u00e9sentent cette approche dans la litt\u00e9rature. La plus simple utilise des dictionnaires bilingues pour faciliter le travail des lexicographes qui filtrent ensuite manuellement les entr\u00e9es propos\u00e9es (Vossen, 1998; Pianta et al., 2002; Tufis et al., 2004) . Une deuxi\u00e8me m\u00e9thode de traduction utilise des corpus parall\u00e8les, ce qui \u00e9vite l'utilisation de dictionnaires qui peuvent entra\u00eener un biais lexicographique. (Dyvik, 2004) repr\u00e9sente cette m\u00e9thode en s'appuyant sur des back-translations entre le norv\u00e9gien et l'anglais, alors que (Sagot et Fi\u0161er, 2008 ) combinent un lexique multilingue et les diff\u00e9rents WordNets de BalkaNet comme autant de sources aidant \u00e0 la d\u00e9sambigu\u00efsation. Enfin, plus r\u00e9cemment, des ressources telles que Wikip\u00e9dia ou le Wiktionnaire ont \u00e9t\u00e9 explor\u00e9es. Gr\u00e2ce aux nombreux liens entre les diff\u00e9rentes langues de ces ressources, il est possible de cr\u00e9er de nouveaux wordnets (de Melo et Weikum, 2009; Navigli et Ponzetto, 2010 ) ou d'am\u00e9liorer des wordnets existants (Hanoka et Sagot, 2012) .", |
|
"cite_spans": [ |
|
{ |
|
"start": 405, |
|
"end": 419, |
|
"text": "(Vossen, 1998;", |
|
"ref_id": "BIBREF32" |
|
}, |
|
{ |
|
"start": 420, |
|
"end": 440, |
|
"text": "Pianta et al., 2002;", |
|
"ref_id": "BIBREF25" |
|
}, |
|
{ |
|
"start": 441, |
|
"end": 460, |
|
"text": "Tufis et al., 2004)", |
|
"ref_id": "BIBREF31" |
|
}, |
|
{ |
|
"start": 621, |
|
"end": 634, |
|
"text": "(Dyvik, 2004)", |
|
"ref_id": "BIBREF11" |
|
}, |
|
{ |
|
"start": 743, |
|
"end": 764, |
|
"text": "(Sagot et Fi\u0161er, 2008", |
|
"ref_id": "BIBREF30" |
|
}, |
|
{ |
|
"start": 1114, |
|
"end": 1135, |
|
"text": "Melo et Weikum, 2009;", |
|
"ref_id": "BIBREF10" |
|
}, |
|
{ |
|
"start": 1136, |
|
"end": 1161, |
|
"text": "Navigli et Ponzetto, 2010", |
|
"ref_id": "BIBREF24" |
|
}, |
|
{ |
|
"start": 1202, |
|
"end": 1225, |
|
"text": "(Hanoka et Sagot, 2012)", |
|
"ref_id": "BIBREF17" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Concernant le fran\u00e7ais, l'EuroWordNet (Vossen, 1998) est la premi\u00e8re traduction fran\u00e7aise de WordNet. C'est une ressource d'une couverture limit\u00e9e qui demande des am\u00e9liorations significatives avant de pouvoir \u00eatre utilis\u00e9e (Jacquin et al., 2007) , et qui n'est ni libre ni librement accessible. WOLF est une seconde traduction initialement construite \u00e0 l'aide de corpus parall\u00e8les (Sagot et Fi\u0161er, 2008) et \u00e9tendue depuis avec diff\u00e9rentes techniques (Apidianaki et . WOLF est distribu\u00e9 sous une licence libre compatible avec la LGPL et c'est aujourd'hui le WordNet fran\u00e7ais standard. Enfin, JAWS (Mouton et de Chalendar, 2010) est une traduction des noms de WordNet d\u00e9velopp\u00e9e \u00e0 l'aide de dictionnaires bilingues et d'un mod\u00e8le de langue syntaxique.", |
|
"cite_spans": [ |
|
{ |
|
"start": 38, |
|
"end": 52, |
|
"text": "(Vossen, 1998)", |
|
"ref_id": "BIBREF32" |
|
}, |
|
{ |
|
"start": 223, |
|
"end": 245, |
|
"text": "(Jacquin et al., 2007)", |
|
"ref_id": "BIBREF19" |
|
}, |
|
{ |
|
"start": 381, |
|
"end": 403, |
|
"text": "(Sagot et Fi\u0161er, 2008)", |
|
"ref_id": "BIBREF30" |
|
}, |
|
{ |
|
"start": 596, |
|
"end": 626, |
|
"text": "(Mouton et de Chalendar, 2010)", |
|
"ref_id": "BIBREF23" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Nos travaux \u00e9tendent et am\u00e9liorent les techniques utilis\u00e9es dans JAWS et l'\u00e9valuent \u00e0 l'aide d'une adjudication de deux annotateurs. Le r\u00e9sultat de ce travail est WoNeF 1 . Il se d\u00e9cline en trois versions pour r\u00e9pondre \u00e0 diff\u00e9rents besoins. Le WoNeF principal a un F-score de 70.9%, une autre version a une pr\u00e9cision de 93.3%, et une derni\u00e8re contient 109 447 paires (litt\u00e9ral, synset). L'approche de JAWS consiste \u00e0 combiner des s\u00e9lecteurs vari\u00e9s permettant de choisir les traductions adapt\u00e9es \u00e0 chaque synset (section 2). Les contributions principales de cet article sont l'am\u00e9lioration de JAWS et sa compl\u00e9tion en ajoutant les verbes et les adjectifs (section 3) et son \u00e9valuation (sections 4 et 5). Cette \u00e9valuation se fait \u00e0 travers une adjudication elle-m\u00eame valid\u00e9e par la mesure de l'accord inter-annotateur, ce qui montre la validit\u00e9 de l'approche par extension pour traduire WordNet.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "1. Ce travail a \u00e9t\u00e9 en partie financ\u00e9 par le projet ANR ASFALDA ANR-12-CORD-0023.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "2.1 Processus de traduction (Mouton et de Chalendar, 2010) ont con\u00e7u JAWS comme un algorithme faiblement supervis\u00e9 qui ne demande aucune donn\u00e9e annot\u00e9e manuellement. Pour traduire un wordnet source, JAWS s'appuie sur un dictionnaire bilingue et un mod\u00e8le de langue syntaxique pour le langage cible.", |
|
"cite_spans": [ |
|
{ |
|
"start": 28, |
|
"end": 58, |
|
"text": "(Mouton et de Chalendar, 2010)", |
|
"ref_id": "BIBREF23" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "JAWS", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "Le dictionnaire bilingue est une concat\u00e9nation du dictionnaire bilingue SCI-FRAN-EurADic 2 et des liens entre les Wiktionnaires fran\u00e7ais et anglais 3 . Le mod\u00e8le de langue syntaxique a \u00e9t\u00e9 entra\u00een\u00e9 sur un grand corpus extrait du web (Grefenstette, 2007) . Le corpus a \u00e9t\u00e9 analys\u00e9 par LIMA (Besan\u00e7on et al., 2010) , une cha\u00eene d'analyse linguistique ici utilis\u00e9e comme un analyseur syntaxique \u00e0 base de r\u00e8gles produisant des d\u00e9pendances syntaxiques fines. Pour une relation donn\u00e9e r et un mot x, le mod\u00e8le de langue indique quels sont les 100 premiers mots co-occurrant le plus fr\u00e9quemment avec x dans la relation r. Avec le mot avion et la relation de compl\u00e9ment du nom, le mot billet modifie le plus avion : billet d'avion est fr\u00e9quent dans le corpus. Le mod\u00e8le de langue ici pr\u00e9sent\u00e9 peut-\u00eatre visualis\u00e9 sur http://www.kalisteo. fr/demo/semanticmap/index.php.", |
|
"cite_spans": [ |
|
{ |
|
"start": 233, |
|
"end": 253, |
|
"text": "(Grefenstette, 2007)", |
|
"ref_id": "BIBREF15" |
|
}, |
|
{ |
|
"start": 289, |
|
"end": 312, |
|
"text": "(Besan\u00e7on et al., 2010)", |
|
"ref_id": "BIBREF5" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "JAWS", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "Gr\u00e2ce aux dictionnaires, JAWS n'a pas besoin de s\u00e9lectionner les litt\u00e9raux de chaque synset parmi l'ensemble du vocabulaire mais seulement parmi un petit nombre de candidats (9 en moyenne). Le processus de traduction se fait en trois \u00e9tapes :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "JAWS", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "1. Cr\u00e9er un wordnet vide : la structure de WordNet est pr\u00e9serv\u00e9e, mais les synsets eux-m\u00eames n'ont pas de litt\u00e9raux associ\u00e9s.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "JAWS", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "2. Choisir les traductions les plus faciles parmi les candidats des dictionnaires pour commencer \u00e0 remplir JAWS.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "JAWS", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "3. \u00c9tendre JAWS de mani\u00e8re incr\u00e9mentale en utilisant le mod\u00e8le de langue, les relations entre synsets et le JAWS d\u00e9j\u00e0 existant. Un probl\u00e8me potentiel avec cette approche est que la relation de compl\u00e9ment du nom n'est pas limit\u00e9e \u00e0 la m\u00e9ronymie. Par exemple, le mot m\u00e9moire qui appara\u00eet dans le mod\u00e8le de langue ( Figure 1) M&C ont d\u00e9cid\u00e9 de compl\u00e9ter cette \u00e9valuation limit\u00e9e par une \u00e9valuation manuelle des litt\u00e9raux n'existant pas dans WOLF, mais elle n'a \u00e9t\u00e9 faite que sur 120 paires (litt\u00e9ral, synset). La pr\u00e9cision de JAWS est \u00e9valu\u00e9e \u00e0 67,1% (Mouton, 2011) , ce qui est plus bas que celle de WOLF 0.1.4 et consid\u00e9rablement plus bas que la pr\u00e9cision de WOLF 1.0b 4 . Ce score, m\u00eame bas, est \u00e0 prendre avec pr\u00e9caution \u00e9tant donn\u00e9 la taille de l'\u00e9chantillon de test : l'intervalle de confiance est d'environ 25%. Une autre limite de JAWS est qu'il ne contient qu'une seule et unique ressource qui ne correspond pas \u00e0 tous les besoins. \u00c0 notre connaissance, les traductions automatiques de WordNet actuelles n'existent qu'en une seule version o\u00f9 les auteurs d\u00e9cident eux-m\u00eames quelle m\u00e9trique optimiser. Nous fournissons aussi une telle version, mais ajoutons aussi deux ressources qui peuvent servir des besoins diff\u00e9rents. M\u00eame si notre WoNeF \u00e0 haute pr\u00e9cision est petit, il peut \u00eatre utilis\u00e9 comme une annotation de r\u00e9f\u00e9rence et servir pour entra\u00eener un syst\u00e8me d'apprentissage. Une ressource \u00e0 haute couverture peut servir de base \u00e0 une correction manuelle ou servir pour une intersection \u00e0 d'autres ressources, ce qui est la raison pour laquelle nous en fournissons une aussi.", |
|
"cite_spans": [ |
|
{ |
|
"start": 548, |
|
"end": 562, |
|
"text": "(Mouton, 2011)", |
|
"ref_id": "BIBREF22" |
|
} |
|
], |
|
"ref_spans": [ |
|
{ |
|
"start": 313, |
|
"end": 322, |
|
"text": "Figure 1)", |
|
"ref_id": null |
|
} |
|
], |
|
"eq_spans": [], |
|
"section": "JAWS", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "Cette section pr\u00e9sente les trois am\u00e9liorations essentielles qui ont \u00e9t\u00e9s apport\u00e9es \u00e0 JAWS. Un changement non d\u00e9taill\u00e9 est celui qui a men\u00e9 \u00e0 une meilleure rapidit\u00e9 d'ex\u00e9cution : JAWS se construit en plusieurs heures contre moins d'une minute pour WoNeF, ce qui a facilit\u00e9 les exp\u00e9rimentations.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "WoNeF : un JAWS nominal am\u00e9lior\u00e9", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "4. Nous remercions Beno\u00eet Sagot pour nous avoir fourni cette version pr\u00e9liminaire de WOLF 1.0.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "WoNeF : un JAWS nominal am\u00e9lior\u00e9", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "Les s\u00e9lecteurs initiaux de JAWS ne sont pas optimaux. Alors que les s\u00e9lecteurs par monos\u00e9mie et par unicit\u00e9 sont conserv\u00e9s, nous avons chang\u00e9 les autres s\u00e9lecteurs. Premi\u00e8rement, le s\u00e9lecteur des transfuges est supprim\u00e9 : sa pr\u00e9cision \u00e9tait tr\u00e8s basse, m\u00eame pour les noms.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "S\u00e9lecteurs initiaux", |
|
"sec_num": "3.1" |
|
}, |
|
{ |
|
"text": "Deuxi\u00e8mement, un nouveau s\u00e9lecteur consid\u00e8re les traductions candidates provenant de plusieurs mots anglais diff\u00e9rents dans un synset donn\u00e9 : c'est le s\u00e9lecteur par sources multiples. Par exemple, dans le synset line, railway line, rail line (the road consisting of railroad track and roadbed), les litt\u00e9raux fran\u00e7ais ligne de chemin de fer et voie sont des traductions \u00e0 la fois de line et railway line, et sont donc choisis comme traductions.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "S\u00e9lecteurs initiaux", |
|
"sec_num": "3.1" |
|
}, |
|
{ |
|
"text": "Troisi\u00e8mement, le s\u00e9lecteur de la distance de Levenshtein a \u00e9t\u00e9 am\u00e9lior\u00e9. 28% du vocabulaire anglais est d'origine fran\u00e7aise (Finkenstaedt et al., 1973) , et l'anglicisation a produit des transformations pr\u00e9visibles. Il est possible d'appliquer ces m\u00eames transformations aux litt\u00e9raux candidats fran\u00e7ais, et seulement alors d'appliquer la distance de Levenshtein. Nous commen\u00e7ons par supprimer les accents, puis appliquons diff\u00e9rentes op\u00e9rations. Par exemple, l'inversion des lettres \"r\" et \"e\" prend en compte (order/ordre) et (tiger/tigre) 5 . Toutes les transformations ne s'appliquent qu'\u00e0 la fin des mots : -que est transform\u00e9 en -k ou -c (marque devient mark), -t\u00e9 vers -ty (extremit\u00e9 devient extremity), etc. Les faux-amis ne sont toujours pas explicitement pris en compte.", |
|
"cite_spans": [ |
|
{ |
|
"start": 125, |
|
"end": 152, |
|
"text": "(Finkenstaedt et al., 1973)", |
|
"ref_id": "BIBREF14" |
|
}, |
|
{ |
|
"start": 542, |
|
"end": 543, |
|
"text": "5", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "S\u00e9lecteurs initiaux", |
|
"sec_num": "3.1" |
|
}, |
|
{ |
|
"text": "Dans JAWS, chaque litt\u00e9ral anglais ne peut avoir qu'une traduction fran\u00e7aise correspondante. La traduction choisie est celle qui a le meilleur score, ind\u00e9pendamment des scores des traductions moins bien not\u00e9es. Cela a pour effet de rejeter des candidats valides et d'accepter des candidats erron\u00e9s. Par exemple, JAWS n'inclut pas particulier au synset (a human being) \"there was too much for one person to do\" parce que personne est d\u00e9j\u00e0 inclus avec un score sup\u00e9rieur.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Apprentissage de seuils", |
|
"sec_num": "3.2" |
|
}, |
|
{ |
|
"text": "Dans WoNeF, nous avons donc appris un seuil pour chaque partie du discours et s\u00e9lecteur. Nous avons d'abord g\u00e9n\u00e9r\u00e9 les scores pour toutes les paires (litt\u00e9ral, synset) candidates, puis tri\u00e9 ces paires par score. Les 12 399 paires pr\u00e9sentes dans l'\u00e9valuation manuelle associ\u00e9e \u00e0 WOLF 1.0b (notre ensemble d'apprentissage) ont \u00e9t\u00e9 jug\u00e9es correctes tandis que les paires n'y \u00e9tant pas ont \u00e9t\u00e9 jug\u00e9es erron\u00e9es. Nous avons ensuite calcul\u00e9 les seuils maximisant la pr\u00e9cision et le F-score. Le seuil qui maximise le F-score est utilis\u00e9 dans les ressources \u00e0 haut F-score et \u00e0 haute couverture, tandis que le seuil maximisant la pr\u00e9cision est utilis\u00e9 dans la ressource \u00e0 haute pr\u00e9cision.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Apprentissage de seuils", |
|
"sec_num": "3.2" |
|
}, |
|
{ |
|
"text": "Une fois que ces seuils sont d\u00e9finis, les s\u00e9lecteurs choisissent tous les candidats au-dessus du nouveau seuil, ce qui a deux effets positifs :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Apprentissage de seuils", |
|
"sec_num": "3.2" |
|
}, |
|
{ |
|
"text": "-des candidats valides ne sont plus rejet\u00e9s simplement parce qu'un meilleur candidat est aussi s\u00e9lectionn\u00e9, ce qui am\u00e9liore \u00e0 la fois le rappel et la couverture. -les candidats invalides qui \u00e9taient jusque-l\u00e0 accept\u00e9s sont maintenant rejet\u00e9s gr\u00e2ce au seuil plus strict : la pr\u00e9cision s'en retrouve augment\u00e9e.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Apprentissage de seuils", |
|
"sec_num": "3.2" |
|
}, |
|
{ |
|
"text": "5. La distance de Damerau-Levenshtein qui prend en compte les inversions n'importe-o\u00f9 dans un mot (Damerau, 1964) a donn\u00e9 de moins bons r\u00e9sultats.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Apprentissage de seuils", |
|
"sec_num": "3.2" |
|
}, |
|
{ |
|
"text": "Apr\u00e8s l'application des diff\u00e9rents s\u00e9lecteurs, notre WordNet est large mais contient des synsets bruit\u00e9s. Comme toutes les traductions automatiques de WordNet, WoNeF doit alors \u00eatre nettoy\u00e9 . Dans WoNeF, le bruit provient de diff\u00e9rents facteurs :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Vote", |
|
"sec_num": "3.3" |
|
}, |
|
{ |
|
"text": "-les s\u00e9lecteurs essaient d'inf\u00e9rer des informations s\u00e9mantiques \u00e0 partir d'une analyse syntaxique sans prendre en compte toute la complexit\u00e9 de l'interface syntaxe-s\u00e9mantique, -l'analyseur syntaxique produit lui-m\u00eame des r\u00e9sultats bruit\u00e9s, -le mod\u00e8le de langue syntaxique est produit \u00e0 partir d'un corpus extrait du web lui-m\u00eame bruit\u00e9 (texte mal \u00e9crit, contenu non textuel, phrases non fran\u00e7aises) et n'est pas une \u00ab distribution id\u00e9ale \u00bb (Copestake et Herbelot, 2012) , -les traductions d\u00e9j\u00e0 choisies sont consid\u00e9r\u00e9es comme valides dans les \u00e9tapes suivantes alors que ce n'est pas toujours le cas. , 2008) ), les termes m\u00e9dicaux, les entit\u00e9s nomm\u00e9es (en utilisant Wikipedia) et ainsi de suite. Un autre exemple est celui des adjectifs de jugement : il n'y a pas de bonne traduction de weird en fran\u00e7ais. M\u00eame si la plupart des dictionnaires fournissent bizarre comme traduction, on ne retrouve pas dans bizarre l'aspect stupide du mot weird : les deux adjectifs ne sont pas substituables dans tous les contextes, ce qui est un probl\u00e8me si l'on consid\u00e8re que le sens d'un synset doit \u00eatre conserv\u00e9 par la traduction.", |
|
"cite_spans": [ |
|
{ |
|
"start": 440, |
|
"end": 469, |
|
"text": "(Copestake et Herbelot, 2012)", |
|
"ref_id": "BIBREF7" |
|
} |
|
], |
|
"ref_spans": [ |
|
{ |
|
"start": 600, |
|
"end": 607, |
|
"text": ", 2008)", |
|
"ref_id": null |
|
} |
|
], |
|
"eq_spans": [], |
|
"section": "Vote", |
|
"sec_num": "3.3" |
|
}, |
|
{ |
|
"text": "Malgr\u00e9 les difficult\u00e9s mentionn\u00e9es ci-dessus, l'annotation r\u00e9sultante a \u00e9t\u00e9 valid\u00e9e par la mesure de l'accord inter-annotateurs, qui montre que l'approche par extension pour la cr\u00e9ation de nouveaux wordnets est valide et peut produire des ressources utiles. Deux annotateurs humains, auteurs de cet article, respectivement linguiste informaticien et informaticien linguiste, ont annot\u00e9 de fa\u00e7on ind\u00e9pendante les m\u00eames synsets choisis au hasard pour chaque partie du discours. Ils ont utilis\u00e9 WordNet pour examiner les synsets voisins, le dictionnaire Merriam-Webster, le TLFi (Pierrel, 2003) et des moteurs de recherche pour attester l'utilisation des divers sens des mots consid\u00e9r\u00e9s. Apr\u00e8s adjudication faite par ces deux annotateurs en confrontant leurs opinions en cas de d\u00e9saccord, l'annotation de r\u00e9f\u00e9rence a \u00e9t\u00e9 form\u00e9e. (Powers, 2012) , toutes les tables d'\u00e9valuation existantes consid\u00e8rent ces scores comme \u00e9tant suffisamment \u00e9lev\u00e9s pour d\u00e9crire cet accord inter-annotateurs comme \u00ab bon \u00bb (Gwet, 2001) , ce qui nous permet de dire que notre annotation de r\u00e9f\u00e9rence est de bonne qualit\u00e9. L'approche par extension pour la traduction de WordNet est elle aussi valid\u00e9e.", |
|
"cite_spans": [ |
|
{ |
|
"start": 576, |
|
"end": 591, |
|
"text": "(Pierrel, 2003)", |
|
"ref_id": "BIBREF26" |
|
}, |
|
{ |
|
"start": 826, |
|
"end": 840, |
|
"text": "(Powers, 2012)", |
|
"ref_id": "BIBREF27" |
|
}, |
|
{ |
|
"start": 996, |
|
"end": 1008, |
|
"text": "(Gwet, 2001)", |
|
"ref_id": "BIBREF16" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Accord inter-annotateurs", |
|
"sec_num": "4.2" |
|
}, |
|
{ |
|
"text": "Nous pr\u00e9sentons dans cette section les r\u00e9sultats de WoNeF. Nous commen\u00e7ons par d\u00e9crire les r\u00e9sultats apr\u00e8s l'application de l'\u00e9tape des s\u00e9lecteurs initiaux seulement puis ceux de la ressource compl\u00e8te. Notre annotation de r\u00e9f\u00e9rence est d\u00e9coup\u00e9e en deux parties : 10% des litt\u00e9raux forment l'ensemble de d\u00e9veloppement utilis\u00e9 pour choisir les s\u00e9lecteurs s'appliquant aux diff\u00e9rentes versions de WoNeF, tandis que les 90% restant forment l'ensemble de test servant \u00e0 l'\u00e9valuation. Pr\u00e9cision et rappel sont calcul\u00e9s sur l'intersection des synsets pr\u00e9sents dans WoNeF et l'annotation de r\u00e9f\u00e9rence consid\u00e9r\u00e9e, que ce soit l'ensemble de test de notre propre adjudication (sections 5.1 \u00e0 5.3) ou WOLF (section 5.4). Par exemple, la pr\u00e9cision est la fraction des paires (litt\u00e9ral, synset) correctes au sein de l'intersection en question. ", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats", |
|
"sec_num": "5" |
|
}, |
|
{ |
|
"text": "Nous nous int\u00e9ressons maintenant aux r\u00e9sultats globaux (Table 3) . Ils comprennent l'application des s\u00e9lecteurs initiaux et des s\u00e9lecteurs syntaxiques. Le mode de haute pr\u00e9cision applique \u00e9galement un vote (section 3.3). Comme pour la table pr\u00e9c\u00e9dente, la couverture C indique le nombre de paires (litt\u00e9ral, synset). Dans WordNet, les mots sont majoritairement monos\u00e9miques, mais c'est une petite minorit\u00e9 de mots polys\u00e9miques qui est la plus repr\u00e9sent\u00e9e dans les textes. C'est justement sur cette minorit\u00e9 que nous souhaitons produire une ressource de qualit\u00e9. Pour l'\u00e9valuer, nous utilisons la liste des synsets BCS (Basic Concept Set) fournie par le projet BalkaNet (Tufis et al., 2004) . Cette liste contient les 8 516 synsets lexicalis\u00e9s dans six traductions diff\u00e9rentes de WordNet, et repr\u00e9sente les synsets les plus fr\u00e9quents et ceux qui comportent le plus de mots polys\u00e9miques. Les r\u00e9sultats montrent le nombre de synsets BCS pour les ressources \u00e0 haut F-score et haute couverture. Alors que les ressources \u00e0 haut F-score et \u00e0 haute couverture perdent en pr\u00e9cision pour les synsets BCS, ce n'est pas le cas pour la ressource \u00e0 haute pr\u00e9cision. En effet, le m\u00e9canisme de vote rend la ressource haute-pr\u00e9cision tr\u00e8s robuste, et ce m\u00eame pour les synsets BCS. La table 4 montre les r\u00e9sultats d\u00e9taill\u00e9s pour chaque partie du discours. Concernant les noms, le mode de haute pr\u00e9cision utilise deux s\u00e9lecteurs, tous deux fond\u00e9s sur la relation syntaxique de compl\u00e9ment du nom : le s\u00e9lecteur par m\u00e9ronymie d\u00e9crit \u00e0 la section 2.1, et le s\u00e9lecteur par hyponymie. La ressource de haute pr\u00e9cision pour les noms est notre meilleure ressource. La version avec le F-score optimis\u00e9 a un F-score de 72,4%, ce qui garantit que peu de paires (litt\u00e9ral, synset) sont absentes tout en ayant une pr\u00e9cision l\u00e9g\u00e8rement sup\u00e9rieure \u00e0 celle de JAWS.", |
|
"cite_spans": [ |
|
{ |
|
"start": 669, |
|
"end": 689, |
|
"text": "(Tufis et al., 2004)", |
|
"ref_id": "BIBREF31" |
|
} |
|
], |
|
"ref_spans": [ |
|
{ |
|
"start": 55, |
|
"end": 64, |
|
"text": "(Table 3)", |
|
"ref_id": "TABREF7" |
|
} |
|
], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats globaux", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "Les r\u00e9sultats des verbes sont moins \u00e9lev\u00e9s. L'explication principale est que les verbes sont en moyenne plus polys\u00e9miques dans WordNet et nos dictionnaires que les autres parties du discours : les synsets verbaux ont deux fois plus de candidats que les noms et les adjectifs (Table 1) . Cela montre l'importance du dictionnaire pour limiter le nombre initial de litt\u00e9raux parmi lesquels les algorithmes doivent choisir.", |
|
"cite_spans": [], |
|
"ref_spans": [ |
|
{ |
|
"start": 275, |
|
"end": 284, |
|
"text": "(Table 1)", |
|
"ref_id": null |
|
} |
|
], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats par partie du discours", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Le s\u00e9lecteur par synonymie est le seul s\u00e9lecteur syntaxique appliqu\u00e9 aux verbes. Il utilise les relations syntaxiques de second ordre pour trois types de d\u00e9pendances syntaxiques verbales : si deux verbes partagent les m\u00eames objets, ils sont susceptibles d'\u00eatre synonymes ou quasisynonymes. C'est le cas des verbes d\u00e9vorer et manger qui acceptent tous deux l'objet pain. Les autres s\u00e9lecteurs syntaxiques n'ont pas \u00e9t\u00e9 retenus pour les verbes en raison de leurs faibles r\u00e9sultats. En effet, alors que la d\u00e9tection de l'hyponymie en utilisant seulement l'inclusion de contextes a \u00e9t\u00e9 efficace sur les noms, elle a les performances d'un classifieur al\u00e9atoire pour les verbes. Cela met en \u00e9vidence la complexit\u00e9 de la polys\u00e9mie des verbes.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats par partie du discours", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Pour les adjectifs, comme pour les verbes, seul le s\u00e9lecteur de synonymie a \u00e9t\u00e9 appliqu\u00e9. Pour les ressources \u00e0 haut F-score et haute couverture, ce sont les m\u00eames s\u00e9lecteurs (initiaux et syntaxiques) qui sont appliqu\u00e9s, ce qui explique que les r\u00e9sultats sont les m\u00eames. Alors que l'accord inter-annotateurs \u00e9tait plus bas sur les adjectifs que sur les verbes, les r\u00e9sultats eux sont bien meilleurs pour les adjectifs. Cela s'explique principalement par le nombre de candidats parmi lesquels s\u00e9lectionner : il y en a deux fois moins pour les adjectifs. Cela met en avant l'importance des dictionnaires.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats par partie du discours", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "WOLF 0.1.4 WOLF 1.0b pP pR Ajouts pP pR Ajouts Noms 50.7 40.0 9 646 73.6 46.4 6 842 Verbes 33.0 23.9 1 064 41.7 17.5 1 084 Adjectifs 41.7 46.1 3 009 64.4 53.8 3 172 Adverbes 56.2 44.4 3 061 76.5 41.9 2 835 TABLE 5 -\u00c9valuation de la ressource \u00e0 haute pr\u00e9cision en consid\u00e9rant WOLF 0.1.4 et 1.0b comme des r\u00e9f\u00e9rences. Il n'est pas possible de comparer WOLF et WoNeF en utilisant notre annotation de r\u00e9f\u00e9rence : tout mot correct de WOLF non pr\u00e9sent dans les dictionnaires p\u00e9nalisera WOLF injustement. Nous avons d\u00e9cid\u00e9 d'\u00e9valuer WoNeF en consid\u00e9rant WOLF 0.1.4 et WOLF 1.0b comme des r\u00e9f\u00e9rences (Table 5) . Les mesures ne sont pas de v\u00e9ritables pr\u00e9cision et rappel puisque WOLF lui-m\u00eame n'est pas enti\u00e8rement valid\u00e9. Le dernier article pF donnant des chiffres globaux : iindique un nombre de paires autour de 77 000 pour une pr\u00e9cision de 86% 6 . Nous appelons donc pseudo-pr\u00e9cision (pP) le pourcentage des \u00e9l\u00e9ments pr\u00e9sents dans WoNeF qui sont \u00e9galement pr\u00e9sents dans WOLF, et pseudo-rappel le pourcentage d'\u00e9l\u00e9ments de WOLF qui sont pr\u00e9sents dans WoNeF. Ces chiffres montrent que m\u00eame si WoNeF est encore plus petit que WOLF, il s'agit d'une ressource compl\u00e9mentaire, surtout quand on se souvient que le WoNeF utilis\u00e9 pour cette comparaison est celui pr\u00e9sentant une pr\u00e9cision \u00e9lev\u00e9e, avec une pr\u00e9cision globale de 93,3%. Il convient \u00e9galement de noter que la comparaison de la diff\u00e9rence entre WOLF 0.1.4 et WOLF 1.0b est instructive puisque elle montre l'\u00e9tendue des am\u00e9liorations apport\u00e9es \u00e0 WOLF.", |
|
"cite_spans": [], |
|
"ref_spans": [ |
|
{ |
|
"start": 592, |
|
"end": 601, |
|
"text": "(Table 5)", |
|
"ref_id": null |
|
} |
|
], |
|
"eq_spans": [], |
|
"section": "\u00c9valuation par rapport \u00e0 WOLF", |
|
"sec_num": "5.4" |
|
}, |
|
{ |
|
"text": "La colonne \u00ab Ajouts \u00bb donne le nombre de traductions qui sont pr\u00e9sentes dans WoNeF mais pas dans WOLF. Pour les noms, les verbes et les adjectifs, cela signifie que nous pouvons contribuer 11 098 nouvelles paires (litt\u00e9ral, synset) de haute pr\u00e9cision en cas de fusion de WOLF et WoNeF, soit 94% des paires du WoNeF haute pr\u00e9cision ce qui montre la compl\u00e9mentarit\u00e9 des approches : ce sont des litt\u00e9raux diff\u00e9rents qui sont ici choisis. Cela produira un wordnet fran\u00e7ais 13% plus grand que WOLF avec une pr\u00e9cision am\u00e9lior\u00e9e. Une fusion avec la ressource de F-score \u00e9lev\u00e9e aurait une pr\u00e9cision l\u00e9g\u00e8rement inf\u00e9rieure, mais fournirait 57 032 nouvelles paires (litt\u00e9ral, synset) par rapport \u00e0 WOLF 1.0b, r\u00e9sultant en une fusion contenant 73 712 synsets non vides et 159 705 paires (litt\u00e9ral, synset), augmentant la couverture de WOLF de 56% et celle de WoNeF de 83%.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "\u00c9valuation par rapport \u00e0 WOLF", |
|
"sec_num": "5.4" |
|
}, |
|
{ |
|
"text": "6. Les r\u00e9sultats d\u00e9taill\u00e9s pour WOLF 1.0b ne sont pas actuellement disponibles.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "\u00c9valuation par rapport \u00e0 WOLF", |
|
"sec_num": "5.4" |
|
}, |
|
{ |
|
"text": ". http://catalog.elra.info/product_info.php?products_id=666 3. http://www.wiktionary.org/", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "c ATALA", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
} |
|
], |
|
"back_matter": [], |
|
"bib_entries": { |
|
"BIBREF0": { |
|
"ref_id": "b0", |
|
"title": "nous avons montr\u00e9 que l'utilisation d'un mod\u00e8le de langue syntaxique pour identifier des relations lexicales entre des lex\u00e8mes est possible dans un environnement contraint et conduit \u00e0 des r\u00e9sultats ayant une pr\u00e9cision au niveau de l'\u00e9tat de l'art pour la t\u00e2che de traduction de WordNet", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Dans", |
|
"suffix": "" |
|
} |
|
], |
|
"year": null, |
|
"venue": "Nous offrons trois ressources diff\u00e9rentes", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "Dans ce travail, nous avons montr\u00e9 que l'utilisation d'un mod\u00e8le de langue syntaxique pour identifier des relations lexicales entre des lex\u00e8mes est possible dans un environnement contraint et conduit \u00e0 des r\u00e9sultats ayant une pr\u00e9cision au niveau de l'\u00e9tat de l'art pour la t\u00e2che de traduction de WordNet. Nous offrons trois ressources diff\u00e9rentes, chacune d'elles ayant un objectif diff\u00e9rent.", |
|
"links": null |
|
}, |
|
"BIBREF1": { |
|
"ref_id": "b1", |
|
"title": "nous fournissons une annotation de r\u00e9f\u00e9rence valid\u00e9e de haute qualit\u00e9 qui nous a permis de montrer \u00e0 la fois la validit\u00e9 de l'approche de traduction de WordNet par extension et la validit\u00e9 de notre approche sp\u00e9cifique", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Enfin", |
|
"suffix": "" |
|
} |
|
], |
|
"year": null, |
|
"venue": "Cette annotation de r\u00e9f\u00e9rence peut \u00e9galement \u00eatre utilis\u00e9e pour \u00e9valuer et d\u00e9velopper d'autres traductions fran\u00e7aises de WordNet. WoNeF est disponible librement au format XML DEBVisDic 7 sur", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "Enfin, nous fournissons une annotation de r\u00e9f\u00e9rence valid\u00e9e de haute qualit\u00e9 qui nous a permis de montrer \u00e0 la fois la validit\u00e9 de l'approche de traduction de WordNet par extension et la validit\u00e9 de notre approche sp\u00e9cifique. Cette annotation de r\u00e9f\u00e9rence peut \u00e9galement \u00eatre utilis\u00e9e pour \u00e9valuer et d\u00e9velopper d'autres traductions fran\u00e7aises de WordNet. WoNeF est disponible librement au format XML DEBVisDic 7 sur http://wonef.fr/ sous la licence CC-BY-SA.", |
|
"links": null |
|
}, |
|
"BIBREF2": { |
|
"ref_id": "b2", |
|
"title": "pour lesquels de nouveaux s\u00e9lecteurs efficaces peuvent \u00eatre envisag\u00e9s pour am\u00e9liorer la couverture. Par exemple, le s\u00e9lecteur de similarit\u00e9 peut \u00eatre \u00e9tendu \u00e0 la relation de quasi-synonymit\u00e9 que partagent certains adjectifs dans WordNet", |
|
"authors": [], |
|
"year": null, |
|
"venue": "Les travaux futurs sur WoNeF mettront l'accent sur les verbes, les adjectifs et les adverbes", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "Les travaux futurs sur WoNeF mettront l'accent sur les verbes, les adjectifs et les adverbes, pour lesquels de nouveaux s\u00e9lecteurs efficaces peuvent \u00eatre envisag\u00e9s pour am\u00e9liorer la couverture. Par exemple, le s\u00e9lecteur de similarit\u00e9 peut \u00eatre \u00e9tendu \u00e0 la relation de quasi-synonymit\u00e9 que partagent certains adjectifs dans WordNet. En effet, la synonymie entre les adjectifs est limit\u00e9e par rapport \u00e0 la quasi-synonymie : alors que fast est le seul mot dans son synset, c'est le quasi- synonyme de 20 synsets. Puisque les techniques de s\u00e9mantique distributionnelle ont plut\u00f4t tendance \u00e0 identifier des quasi-synonymes plut\u00f4t que des synonymes, utiliser cette relation de WordNet pour identifier de nouveaux adjectifs fait partie de nos objectifs.", |
|
"links": null |
|
}, |
|
"BIBREF3": { |
|
"ref_id": "b3", |
|
"title": "2012) plus performant. Cela sera coupl\u00e9 avec la collecte d'un corpus issu du Web plus r\u00e9cent et plus grand analys\u00e9 avec une version r\u00e9cente de notre analyseur linguistique LIMA. Cela nous permettra de mesurer l", |
|
"authors": [ |
|
{ |
|
"first": "Le", |
|
"middle": [], |
|
"last": "", |
|
"suffix": "" |
|
} |
|
], |
|
"year": null, |
|
"venue": "Nous aimerions aussi nous orienter vers un mod\u00e8le de langue continu", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "Une autre source importante d'am\u00e9lioration sera l'enrichissement de notre mod\u00e8le de langue syntaxique qui pourra prendre en compte les verbes pronominaux et les expressions multi-mots. Nous aimerions aussi nous orienter vers un mod\u00e8le de langue continu (Le et al., 2012) plus performant. Cela sera coupl\u00e9 avec la collecte d'un corpus issu du Web plus r\u00e9cent et plus grand analys\u00e9 avec une version r\u00e9cente de notre analyseur linguistique LIMA. Cela nous permettra de mesurer l'impact de la qualit\u00e9 du mod\u00e8le de langue sur la traduction de WordNet.", |
|
"links": null |
|
}, |
|
"BIBREF4": { |
|
"ref_id": "b4", |
|
"title": "Applying cross-lingual WSD to wordnet development", |
|
"authors": [], |
|
"year": 2012, |
|
"venue": "Le wordnet fran\u00e7ais WOLF a \u00e9t\u00e9 construit en utilisant plusieurs techniques. La fusion de WOLF et de WoNeF permettra de bient\u00f4t am\u00e9liorer \u00e0 nouveau le statut de la traduction fran\u00e7aise de WordNet : nous travaillons avec les auteurs de WOLF afin de fusionner WOLF et WoNeF. R\u00e9f\u00e9rences APIDIANAKI, M. et SAGOT, B", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "Le wordnet fran\u00e7ais WOLF a \u00e9t\u00e9 construit en utilisant plusieurs techniques. La fusion de WOLF et de WoNeF permettra de bient\u00f4t am\u00e9liorer \u00e0 nouveau le statut de la traduction fran\u00e7aise de WordNet : nous travaillons avec les auteurs de WOLF afin de fusionner WOLF et WoNeF. R\u00e9f\u00e9rences APIDIANAKI, M. et SAGOT, B. (2012). Applying cross-lingual WSD to wordnet development. In LREC 2012.", |
|
"links": null |
|
}, |
|
"BIBREF5": { |
|
"ref_id": "b5", |
|
"title": "LIMA : A multilingual framework for linguistic analysis and linguistic resources development and evaluation", |
|
"authors": [ |
|
{ |
|
"first": "R", |
|
"middle": [], |
|
"last": "Besan\u00e7on", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "Chalendar", |
|
"middle": [], |
|
"last": "De", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Ferret", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "O", |
|
"middle": [], |
|
"last": "Gara", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Laib", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Mesnard", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "O", |
|
"middle": [], |
|
"last": "Semmar", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "N", |
|
"middle": [], |
|
"last": "", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "LREC", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BESAN\u00c7ON, R., de CHALENDAR, G., FERRET, O., GARA, F., LAIB, M., MESNARD, O. et SEMMAR, N. (2010). LIMA : A multilingual framework for linguistic analysis and linguistic resources development and evaluation. In LREC 2010.", |
|
"links": null |
|
}, |
|
"BIBREF6": { |
|
"ref_id": "b6", |
|
"title": "Adding dense, weighted connections to wordnet", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [], |
|
"last": "Boyd-Graber", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Fellbaum", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Osherson", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "R", |
|
"middle": [], |
|
"last": "Schapire", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2006, |
|
"venue": "GWC", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BOYD-GRABER, J., FELLBAUM, C., OSHERSON, D. et SCHAPIRE, R. (2006). Adding dense, weighted connections to wordnet. In GWC 2006.", |
|
"links": null |
|
}, |
|
"BIBREF7": { |
|
"ref_id": "b7", |
|
"title": "Lexicalised compositionality", |
|
"authors": [ |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Copestake", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Herbelot", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "COPESTAKE, A. et HERBELOT, A. (2012). Lexicalised compositionality. Unpublished draft.", |
|
"links": null |
|
}, |
|
"BIBREF8": { |
|
"ref_id": "b8", |
|
"title": "A technique for computer detection and correction of spelling errors", |
|
"authors": [ |
|
{ |
|
"first": "F", |
|
"middle": [ |
|
"J" |
|
], |
|
"last": "Damerau", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1964, |
|
"venue": "Commun. ACM", |
|
"volume": "7", |
|
"issue": "3", |
|
"pages": "171--176", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "DAMERAU, F. J. (1964). A technique for computer detection and correction of spelling errors. Commun. ACM, 7(3):171-176.", |
|
"links": null |
|
}, |
|
"BIBREF9": { |
|
"ref_id": "b9", |
|
"title": "On the Utility of Automatically Generated Wordnets", |
|
"authors": [ |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Melo", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Weikum", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2008, |
|
"venue": "GWC", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "http://nlp.fi.muni.cz/trac/deb2/wiki/WordNetFormat de MELO, G. et WEIKUM, G. (2008). On the Utility of Automatically Generated Wordnets. In GWC 2008.", |
|
"links": null |
|
}, |
|
"BIBREF10": { |
|
"ref_id": "b10", |
|
"title": "Towards a universal wordnet by learning from combined evidence", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "De", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Melo", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Weikum", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2009, |
|
"venue": "CIKM 2009", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "513--522", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "DE MELO, G. et WEIKUM, G. (2009). Towards a universal wordnet by learning from combined evidence. In CIKM 2009, pages 513-522. ACM.", |
|
"links": null |
|
}, |
|
"BIBREF11": { |
|
"ref_id": "b11", |
|
"title": "Translations as semantic mirrors : from parallel corpus to wordnet. Language and computers", |
|
"authors": [ |
|
{ |
|
"first": "H", |
|
"middle": [], |
|
"last": "Dyvik", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2004, |
|
"venue": "", |
|
"volume": "49", |
|
"issue": "", |
|
"pages": "311--326", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "DYVIK, H. (2004). Translations as semantic mirrors : from parallel corpus to wordnet. Language and computers, 49(1):311-326.", |
|
"links": null |
|
}, |
|
"BIBREF12": { |
|
"ref_id": "b12", |
|
"title": "WordNet : an Electronic Lexical Database", |
|
"authors": [ |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Fellbaum", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "\u00c9diteur", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1998, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "FELLBAUM, C., \u00e9diteur (1998). WordNet : an Electronic Lexical Database. The MIT Press.", |
|
"links": null |
|
}, |
|
"BIBREF13": { |
|
"ref_id": "b13", |
|
"title": "Connecting the universal to the specific : Towards the global grid", |
|
"authors": [ |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Fellbaum", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "P", |
|
"middle": [], |
|
"last": "Vossen", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2007, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "1--16", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "FELLBAUM, C. et VOSSEN, P. (2007). Connecting the universal to the specific : Towards the global grid. Intercultural Collaboration, pages 1-16.", |
|
"links": null |
|
}, |
|
"BIBREF14": { |
|
"ref_id": "b14", |
|
"title": "Ordered profusion : Studies in dictionaries and the English lexicon", |
|
"authors": [ |
|
{ |
|
"first": "T", |
|
"middle": [], |
|
"last": "Finkenstaedt", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Wolff", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "H", |
|
"middle": [], |
|
"last": "Neuhaus", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "W", |
|
"middle": [], |
|
"last": "Herget", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1973, |
|
"venue": "", |
|
"volume": "13", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "FINKENSTAEDT, T., WOLFF, D., NEUHAUS, H. et HERGET, W. (1973). Ordered profusion : Studies in dictionaries and the English lexicon, volume 13. C. Winter.", |
|
"links": null |
|
}, |
|
"BIBREF15": { |
|
"ref_id": "b15", |
|
"title": "Conquering language : Using NLP on a massive scale to build high dimensional language models from the web", |
|
"authors": [ |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Grefenstette", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2007, |
|
"venue": "CICLing", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "35--49", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "GREFENSTETTE, G. (2007). Conquering language : Using NLP on a massive scale to build high dimensional language models from the web. In CICLing 2007, pages 35-49.", |
|
"links": null |
|
}, |
|
"BIBREF16": { |
|
"ref_id": "b16", |
|
"title": "Handbook of inter-rater reliability", |
|
"authors": [ |
|
{ |
|
"first": "K", |
|
"middle": [], |
|
"last": "Gwet", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2001, |
|
"venue": "Advanced Analytics, LLC", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "GWET, K. (2001). Handbook of inter-rater reliability. Advanced Analytics, LLC.", |
|
"links": null |
|
}, |
|
"BIBREF17": { |
|
"ref_id": "b17", |
|
"title": "Wordnet extension made simple : A multilingual lexicon-based approach using wiki resources", |
|
"authors": [ |
|
{ |
|
"first": "V", |
|
"middle": [], |
|
"last": "Hanoka", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "Sagot", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "LREC", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "HANOKA, V. et SAGOT, B. (2012). Wordnet extension made simple : A multilingual lexicon-based approach using wiki resources. In LREC 2012.", |
|
"links": null |
|
}, |
|
"BIBREF18": { |
|
"ref_id": "b18", |
|
"title": "Automatic acquisition of hyponyms from large text corpora", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Hearst", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1992, |
|
"venue": "Proceedings of the 14th conference on Computational linguistics", |
|
"volume": "2", |
|
"issue": "", |
|
"pages": "539--545", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "HEARST, M. (1992). Automatic acquisition of hyponyms from large text corpora. In Proceedings of the 14th conference on Computational linguistics -Volume 2, pages 539-545. ACL.", |
|
"links": null |
|
}, |
|
"BIBREF19": { |
|
"ref_id": "b19", |
|
"title": "French EuroWordNet Lexical Database Improvements", |
|
"authors": [ |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Jacquin", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "E", |
|
"middle": [], |
|
"last": "Desmontils", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "L", |
|
"middle": [], |
|
"last": "Monceaux", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2007, |
|
"venue": "CICLing", |
|
"volume": "4394", |
|
"issue": "", |
|
"pages": "12--22", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "JACQUIN, C., DESMONTILS, E. et MONCEAUX, L. (2007). French EuroWordNet Lexical Database Improvements. In CICLing 2007, volume 4394 de LNCS, pages 12-22.", |
|
"links": null |
|
}, |
|
"BIBREF20": { |
|
"ref_id": "b20", |
|
"title": "Continuous Space Translation Models with Neural Networks", |
|
"authors": [ |
|
{ |
|
"first": "H.-S", |
|
"middle": [], |
|
"last": "Le", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Allauzen", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Yvon", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "NAACL-HLT 2012", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "39--48", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LE, H.-S., ALLAUZEN, A. et YVON, F. (2012). Continuous Space Translation Models with Neural Networks. In NAACL-HLT 2012, pages 39-48. ACL.", |
|
"links": null |
|
}, |
|
"BIBREF21": { |
|
"ref_id": "b21", |
|
"title": "Identifying hypernyms in distributional semantic spaces", |
|
"authors": [ |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Lenci", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Benotto", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "*SEM 2012", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "75--79", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LENCI, A. et BENOTTO, G. (2012). Identifying hypernyms in distributional semantic spaces. In *SEM 2012, pages 75-79. ACL.", |
|
"links": null |
|
}, |
|
"BIBREF22": { |
|
"ref_id": "b22", |
|
"title": "Ressources et m\u00e9thodes semi-supervis\u00e9es pour l'analyse s\u00e9mantique de texte en fran\u00e7ais", |
|
"authors": [ |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Mouton", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "MOUTON, C. (2011). Ressources et m\u00e9thodes semi-supervis\u00e9es pour l'analyse s\u00e9mantique de texte en fran\u00e7ais. Th\u00e8se de doctorat.", |
|
"links": null |
|
}, |
|
"BIBREF23": { |
|
"ref_id": "b23", |
|
"title": "JAWS : Just Another WordNet Subset", |
|
"authors": [ |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Mouton", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "Chalendar", |
|
"middle": [], |
|
"last": "De", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "TALN 2010", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "MOUTON, C. et de CHALENDAR, G. (2010). JAWS : Just Another WordNet Subset. In TALN 2010.", |
|
"links": null |
|
}, |
|
"BIBREF24": { |
|
"ref_id": "b24", |
|
"title": "BabelNet : Building a very large multilingual semantic network", |
|
"authors": [ |
|
{ |
|
"first": "R", |
|
"middle": [], |
|
"last": "Navigli", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Ponzetto", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "ACL 2010", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "216--225", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "NAVIGLI, R. et PONZETTO, S. (2010). BabelNet : Building a very large multilingual semantic network. In ACL 2010, pages 216-225.", |
|
"links": null |
|
}, |
|
"BIBREF25": { |
|
"ref_id": "b25", |
|
"title": "MultiWordNet : developing an aligned multilingual database", |
|
"authors": [ |
|
{ |
|
"first": "E", |
|
"middle": [], |
|
"last": "Pianta", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "L", |
|
"middle": [], |
|
"last": "Bentivogli", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Girardi", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2002, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "PIANTA, E., BENTIVOGLI, L. et GIRARDI, C. (2002). MultiWordNet : developing an aligned multilingual database.", |
|
"links": null |
|
}, |
|
"BIBREF26": { |
|
"ref_id": "b26", |
|
"title": "Un ensemble de ressources de r\u00e9f\u00e9rence pour l'\u00e9tude du fran\u00e7ais : TLFi, Frantext et le logiciel Stella. Revue qu\u00e9b\u00e9coise de linguistique", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [], |
|
"last": "Pierrel", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2003, |
|
"venue": "", |
|
"volume": "32", |
|
"issue": "", |
|
"pages": "155--176", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "PIERREL, J. (2003). Un ensemble de ressources de r\u00e9f\u00e9rence pour l'\u00e9tude du fran\u00e7ais : TLFi, Frantext et le logiciel Stella. Revue qu\u00e9b\u00e9coise de linguistique, 32(1):155-176.", |
|
"links": null |
|
}, |
|
"BIBREF27": { |
|
"ref_id": "b27", |
|
"title": "The Problem with Kappa", |
|
"authors": [ |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Powers", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "EACL 2012", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "POWERS, D. (2012). The Problem with Kappa. In EACL 2012, page 345.", |
|
"links": null |
|
}, |
|
"BIBREF28": { |
|
"ref_id": "b28", |
|
"title": "Cleaning noisy wordnets", |
|
"authors": [ |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "Sagot", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Fi\u0161er", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "LREC 2012", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "SAGOT, B. et FI\u0160ER, D. (2012). Cleaning noisy wordnets. In LREC 2012.", |
|
"links": null |
|
}, |
|
"BIBREF29": { |
|
"ref_id": "b29", |
|
"title": "Automatic Extension of WOLF", |
|
"authors": [ |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "Sagot", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Fi\u0161er", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "GWC 2012", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "SAGOT, B. et FI\u0160ER, D. (2012). Automatic Extension of WOLF. In GWC 2012.", |
|
"links": null |
|
}, |
|
"BIBREF30": { |
|
"ref_id": "b30", |
|
"title": "Building a free French wordnet from multilingual resources", |
|
"authors": [ |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "Sagot", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Fi\u0161er", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2008, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "SAGOT, B. et FI\u0160ER, D. (2008). Building a free French wordnet from multilingual resources. In Ontolex 2008.", |
|
"links": null |
|
}, |
|
"BIBREF31": { |
|
"ref_id": "b31", |
|
"title": "BalkaNet : Aims, methods, results and perspectives. a general overview", |
|
"authors": [ |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Tufis", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Cristea", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Stamou", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2004, |
|
"venue": "Romanian Journal of Information Science and Technology", |
|
"volume": "7", |
|
"issue": "1-2", |
|
"pages": "9--43", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "TUFIS, D., CRISTEA, D. et STAMOU, S. (2004). BalkaNet : Aims, methods, results and perspectives. a general overview. Romanian Journal of Information Science and Technology, 7(1-2):9-43.", |
|
"links": null |
|
}, |
|
"BIBREF32": { |
|
"ref_id": "b32", |
|
"title": "EuroWordNet : a multilingual database with lexical semantic networks", |
|
"authors": [ |
|
{ |
|
"first": "P", |
|
"middle": [], |
|
"last": "Vossen", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1998, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "VOSSEN, P. (1998). EuroWordNet : a multilingual database with lexical semantic networks. Kluwer Academic.", |
|
"links": null |
|
} |
|
}, |
|
"ref_entries": { |
|
"TABREF1": { |
|
"type_str": "table", |
|
"text": "Heureusement, m\u00e9moire n'est pas dans les candidats de quill et ne peut pas \u00eatre choisi comme une traduction. Paradoxalement, le mod\u00e8le de langue ne peut pas choisir entre deux mots tr\u00e8s diff\u00e9rents, mais est capable de choisir la traduction correcte d'un mot polys\u00e9mique. Alors que traduire WordNet automatiquement avec un dictionnaire ou un mod\u00e8le de langue syntaxique est impossible, combiner les deux ressources permet de r\u00e9soudre le probl\u00e8me. Pour la synonymie, si deux mots partagent les m\u00eames co-occurents dans une relation syntaxique donn\u00e9e, alors ils peuvent \u00eatre synonymes dans ce contexte. Pour les noms, les relations syntaxiques qui donnent les meilleurs r\u00e9sultats sont les relations de compl\u00e9ment du nom, d'objet du verbe et d'apposition. Concr\u00e8tement, si deux noms qui modifient les m\u00eames noms sont les objets des m\u00eames verbes ou sont appos\u00e9s aux m\u00eames noms, alors il est probable qu'ils soient synonymes et si l'un des deux est d\u00e9j\u00e0 dans un synset, alors on peut y ajouter le second. Par exemple, avant-propos et pr\u00e9face partagent les m\u00eames compl\u00e9ments du noms : livre, \u00e9dition, ouvrage. Le s\u00e9lecteur par synonymie peut ajouter avant-propos une fois que le litt\u00e9ral pr\u00e9face est dans JAWS.(Mouton et de Chalendar, 2010;Mouton, 2011) d\u00e9crivent d'autres s\u00e9lecteurs exploitant notamment les relations d'hyperonymie et d'hyponymie.", |
|
"num": null, |
|
"html": null, |
|
"content": "<table/>" |
|
}, |
|
"TABREF3": { |
|
"type_str": "table", |
|
"text": "Les travaux sur JAWS ont commenc\u00e9 par les noms parce qu'ils repr\u00e9sentent 70% des synsets dans WordNet. Nous avons continu\u00e9 ce travail sur les autres parties du discours qui sont aussi importantes pour examiner le sens d'un texte donn\u00e9 : verbes, adjectifs et adverbes. Les s\u00e9lecteurs g\u00e9n\u00e9riques ont ici \u00e9t\u00e9 modifi\u00e9s, mais il s'agira dans le futur d'impl\u00e9menter des s\u00e9lecteurs prenant en compte les sp\u00e9cificit\u00e9s des diff\u00e9rentes parties du discours dans WordNet.Adjectifs Les adjectifs sont traduits de la m\u00eame mani\u00e8re que les noms : tout d'abord un nombre limit\u00e9 de s\u00e9lecteurs initiaux remplit un WordNet vide, puis les s\u00e9lecteurs syntaxiques compl\u00e8tent cette traduction avec le mod\u00e8le de langue syntaxique. Tous les s\u00e9lecteurs initiaux sont ici choisis, et le s\u00e9lecteur syntaxique choisi est le s\u00e9lecteur par synonymie. Ils ont donn\u00e9 de bons r\u00e9sultats qui sont pr\u00e9sent\u00e9s dans la section 5.3.Adverbes Nous n'avons pas d'annotation de r\u00e9f\u00e9rence pour les adverbes, ce qui explique qu'ils ne sont pas inclus dans WoNeF : nous ne pouvons \u00e9valuer leur pr\u00e9cision. Cependant, la comparaison avec WOLF (section 5.4) montre que les adverbes ont de meilleurs r\u00e9sultats que les autres parties du discours, ce qui laisse penser que c'est une ressource de qualit\u00e9. C'est une ressource aussi tr\u00e8s compl\u00e9mentaire : 87% des adverbes propos\u00e9s ne sont pas dans WOLF. Une fusion entre WoNeF et WOLF aurait trois fois plus d'adverbes que WOLF seul.", |
|
"num": null, |
|
"html": null, |
|
"content": "<table/>" |
|
}, |
|
"TABREF4": { |
|
"type_str": "table", |
|
"text": "Pour chaque partie du discours, 300 synsets ont \u00e9t\u00e9 annot\u00e9s par deux annotateurs locuteurs natifs du fran\u00e7ais. Pour chaque traduction candidate fournie par nos dictionnaires, il fallait d\u00e9cider si oui ou non elle appartenait au synset. Puisque les dictionnaires ne proposent pas de candidats pour tous les synsets et que certains synsets n'ont pas de candidat valable, le nombre r\u00e9el de synsets non vides est inf\u00e9rieur \u00e0 300 (section 4.2).Durant l'annotation manuelle, nous avons rencontr\u00e9 une difficult\u00e9 importante d\u00e9coulant de la tentative de traduire WordNet dans une autre langue. Dans le cas de l'anglais vers le fran\u00e7ais, la plupart des difficult\u00e9s proviennent des verbes et adjectifs figurant dans une collocation. Dans WordNet, ils peuvent \u00eatre regroup\u00e9s d'une mani\u00e8re qui fait sens en anglais, mais qui ne se retrouve pas directement dans une autre langue. Par exemple, l'adjectif pointed est le seul \u00e9l\u00e9ment d'un synset d\u00e9fini comme direct and obvious in meaning or reference ; often unpleasant ; \"a pointed critique\" ; \"a pointed allusion to what was going on\" ; \"another pointed look in their direction\". Ces exemples se traduiraient par trois adjectifs diff\u00e9rents en fran\u00e7ais : une critique dure, une allusion claire et un regard appuy\u00e9. Il n'existe pas de solution satisfaisante lors de la traduction d'un tel synset : le synset r\u00e9sultant contiendra soit trop soit trop peu de traductions. Nous avons d\u00e9cid\u00e9 de ne pas traduire ces synsets dans notre annotation manuelle. Ces probl\u00e8mes de granularit\u00e9 concernent 3% des synsets nominaux, 8% des synsets verbaux et 6% des synsets adjectivaux. Actuellement, WoNeF ne d\u00e9tecte pas de tels synsets.", |
|
"num": null, |
|
"html": null, |
|
"content": "<table><tr><td>4 WoNeF : un JAWS \u00e9valu\u00e9</td></tr><tr><td>4.1 D\u00e9veloppement d'une annotation de r\u00e9f\u00e9rence</td></tr></table>" |
|
}, |
|
"TABREF6": { |
|
"type_str": "table", |
|
"text": "Pour les noms, les verbes et les adjectifs, nous avons calcul\u00e9 l'efficacit\u00e9 de chaque s\u00e9lecteur initial sur notre ensemble de d\u00e9veloppement, et utilis\u00e9 ces donn\u00e9es pour d\u00e9terminer ceux qui doivent \u00eatre inclus dans la version ayant une haute pr\u00e9cision, celle ayant un F-score \u00e9lev\u00e9 et celle pr\u00e9sentant une grande couverture. Les scores ci-dessous sont calcul\u00e9s sur l'ensemble de test, plus grand et plus repr\u00e9sentatif.La table 2 montre les r\u00e9sultats de cette op\u00e9ration. La couverture donne une id\u00e9e de la taille des ressources. En fonction des objectifs de chaque ressource, les s\u00e9lecteurs initiaux choisis seront diff\u00e9rents. Diff\u00e9rents s\u00e9lecteurs peuvent choisir plusieurs fois une m\u00eame traduction, ce qui explique que la somme des couvertures soit sup\u00e9rieure \u00e0 la couverture de la ressource \u00e0 haute couverture. Fait int\u00e9ressant non visible dans la table, le s\u00e9lecteur le moins efficace pour les verbes est la distance de Levenshtein avec une pr\u00e9cision de l'ordre de 25% : les faux amis semblent \u00eatre plus nombreux pour les verbes.", |
|
"num": null, |
|
"html": null, |
|
"content": "<table><tr><td>P</td><td>R</td><td>F1</td><td>C</td></tr><tr><td colspan=\"4\">monos\u00e9mie 71.5 76.6 74.0 54 499</td></tr><tr><td colspan=\"3\">unicit\u00e9 91.7 63.0 75.3</td><td>9 533</td></tr><tr><td colspan=\"4\">sources multiples 64.5 45.0 53.0 27 316</td></tr><tr><td colspan=\"4\">Levenshtein 61.9 29.0 39.3 20 034</td></tr><tr><td colspan=\"4\">haute pr\u00e9cision 93.8 50.1 65.3 13 867</td></tr><tr><td colspan=\"4\">haut F-score 71.1 72.7 71.9 82 730</td></tr><tr><td colspan=\"4\">haute couverture 69.0 69.8 69.4 90 248</td></tr><tr><td colspan=\"4\">TABLE 2 -S\u00e9lecteurs initiaux sur l'ensemble des traductions (noms, verbes et adjectifs). La</td></tr><tr><td colspan=\"4\">couverture C est le nombre total de paires (litt\u00e9ral, synset).</td></tr></table>" |
|
}, |
|
"TABREF7": { |
|
"type_str": "table", |
|
"text": "R\u00e9sultats globaux : tous les synsets et synsets BCS.", |
|
"num": null, |
|
"html": null, |
|
"content": "<table><tr><td/><td colspan=\"2\">Tous synsets</td><td/><td/><td colspan=\"2\">Synsets BCS</td><td/></tr><tr><td>P</td><td>R</td><td>F1</td><td>C</td><td>P</td><td>R</td><td>F1</td><td>C</td></tr><tr><td colspan=\"3\">haute pr\u00e9cision 93.3 51.5 66.4</td><td colspan=\"4\">15 625 90.4 36.5 52.0</td><td>1 877</td></tr><tr><td colspan=\"3\">haut F-score 68.9 73.0 70.9</td><td>88 736</td><td colspan=\"4\">56.5 62.8 59.1 14 405</td></tr><tr><td colspan=\"8\">haute couverture 60.5 74.3 66.7 109 447 44.5 66.9 53.5 23 166</td></tr></table>" |
|
}, |
|
"TABREF8": { |
|
"type_str": "table", |
|
"text": "R\u00e9sultats par partie du discours. JAWS ne contient que des noms : il est compar\u00e9 \u00e0 la ressource nominale \u00e0 haut F-score.", |
|
"num": null, |
|
"html": null, |
|
"content": "<table><tr><td/><td/><td>P</td><td>R</td><td>F1</td><td>C</td></tr><tr><td/><td>noms</td><td colspan=\"3\">96.8 56.6 71.4 11 294</td></tr><tr><td>haute pr\u00e9cision</td><td>verbes</td><td colspan=\"3\">68.4 41.9 52.0</td><td>1 110</td></tr><tr><td/><td colspan=\"4\">adjectifs 90.0 36.7 52.2</td><td>3 221</td></tr><tr><td/><td>noms</td><td colspan=\"3\">71.7 73.2 72.4 59 213</td></tr><tr><td>haut F-score</td><td>JAWS verbes</td><td colspan=\"3\">70.7 68.5 69.6 48.9 76.6 59.6</td><td>55 416 9 138</td></tr><tr><td/><td colspan=\"4\">adjectifs 69.8 71.0 70.4 20 385</td></tr><tr><td/><td>noms</td><td colspan=\"3\">61.8 78.4 69.1 70 218</td></tr><tr><td>haute couverture</td><td>verbes</td><td colspan=\"3\">45.4 61.5 52.2 18 844</td></tr><tr><td/><td colspan=\"4\">adjectifs 69.8 71.9 70.8 20 385</td></tr></table>" |
|
} |
|
} |
|
} |
|
} |