|
{ |
|
"paper_id": "F13-1007", |
|
"header": { |
|
"generated_with": "S2ORC 1.0.0", |
|
"date_generated": "2023-01-19T09:41:40.660863Z" |
|
}, |
|
"title": "Approches statistiques discriminantes pour l'interpr\u00e9tation s\u00e9mantique multilingue de la parole", |
|
"authors": [ |
|
{ |
|
"first": "Bassam", |
|
"middle": [], |
|
"last": "Jabaian", |
|
"suffix": "", |
|
"affiliation": { |
|
"laboratory": "", |
|
"institution": "Universit\u00e9 d'Avignon et des Pays de Vaucluse", |
|
"location": { |
|
"settlement": "Avignon", |
|
"country": "France (" |
|
} |
|
}, |
|
"email": "" |
|
}, |
|
{ |
|
"first": "Fabrice", |
|
"middle": [], |
|
"last": "Lef\u00e8vre", |
|
"suffix": "", |
|
"affiliation": { |
|
"laboratory": "", |
|
"institution": "Universit\u00e9 d'Avignon et des Pays de Vaucluse", |
|
"location": { |
|
"settlement": "Avignon", |
|
"country": "France (" |
|
} |
|
}, |
|
"email": "" |
|
}, |
|
{ |
|
"first": "Laurent", |
|
"middle": [], |
|
"last": "Besacier", |
|
"suffix": "", |
|
"affiliation": { |
|
"laboratory": "", |
|
"institution": "Universit\u00e9 Joseph Fourrier", |
|
"location": { |
|
"settlement": "Grenoble", |
|
"country": "France R\u00c9SUM\u00c9" |
|
} |
|
}, |
|
"email": "" |
|
} |
|
], |
|
"year": "", |
|
"venue": null, |
|
"identifiers": {}, |
|
"abstract": "Les approches statistiques sont maintenant tr\u00e8s r\u00e9pandues dans les diff\u00e9rentes applications du traitement automatique de la langue et le choix d'une approche particuli\u00e8re d\u00e9pend g\u00e9n\u00e9ralement de la t\u00e2che vis\u00e9e. Dans le cadre de l'interpr\u00e9tation s\u00e9mantique multilingue, cet article pr\u00e9sente une comparaison entre les m\u00e9thodes utilis\u00e9es pour la traduction automatique et celles utilis\u00e9es pour la compr\u00e9hension de la parole. Cette comparaison permet de proposer une approche unifi\u00e9e afin de r\u00e9aliser un d\u00e9codage conjoint qui \u00e0 la fois traduit une phrase et lui attribue ses \u00e9tiquettes s\u00e9mantiques. Ce d\u00e9codage est obtenu par une approche \u00e0 base de transducteurs \u00e0 \u00e9tats finis qui permet de composer un graphe de traduction avec un graphe de compr\u00e9hension. Cette repr\u00e9sentation peut \u00eatre g\u00e9n\u00e9ralis\u00e9e pour permettre des transmissions d'informations riches entre les composants d'un syst\u00e8me d'interaction vocale homme-machine.", |
|
"pdf_parse": { |
|
"paper_id": "F13-1007", |
|
"_pdf_hash": "", |
|
"abstract": [ |
|
{ |
|
"text": "Les approches statistiques sont maintenant tr\u00e8s r\u00e9pandues dans les diff\u00e9rentes applications du traitement automatique de la langue et le choix d'une approche particuli\u00e8re d\u00e9pend g\u00e9n\u00e9ralement de la t\u00e2che vis\u00e9e. Dans le cadre de l'interpr\u00e9tation s\u00e9mantique multilingue, cet article pr\u00e9sente une comparaison entre les m\u00e9thodes utilis\u00e9es pour la traduction automatique et celles utilis\u00e9es pour la compr\u00e9hension de la parole. Cette comparaison permet de proposer une approche unifi\u00e9e afin de r\u00e9aliser un d\u00e9codage conjoint qui \u00e0 la fois traduit une phrase et lui attribue ses \u00e9tiquettes s\u00e9mantiques. Ce d\u00e9codage est obtenu par une approche \u00e0 base de transducteurs \u00e0 \u00e9tats finis qui permet de composer un graphe de traduction avec un graphe de compr\u00e9hension. Cette repr\u00e9sentation peut \u00eatre g\u00e9n\u00e9ralis\u00e9e pour permettre des transmissions d'informations riches entre les composants d'un syst\u00e8me d'interaction vocale homme-machine.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Abstract", |
|
"sec_num": null |
|
} |
|
], |
|
"body_text": [ |
|
{ |
|
"text": "Aujourd'hui, les approches statistiques sont tr\u00e8s utilis\u00e9es pour toutes les applications du traitement automatique de la langue (reconnaissance de la parole, traduction automatique, analyse syntaxique, \u00e9tiquetage s\u00e9mantique...). La performance d'une approche particuli\u00e8re d\u00e9pend \u00e9norm\u00e9ment de la t\u00e2che \u00e0 laquelle elle est appliqu\u00e9e. Et, selon les t\u00e2ches, les approches permettant les meilleures performances ne sont pas toujours les m\u00eames.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Par exemple, pour une t\u00e2che de compr\u00e9hension de la parole (Spoken Language Understanding, SLU), assimilable \u00e0 un \u00e9tiquetage s\u00e9quentiel en concepts, les champs al\u00e9atoires conditionnels (Conditional Random Fields, CRF) (Lafferty et al., 2001 ) utilis\u00e9s dans leur version cha\u00eene lin\u00e9aire sont les plus performants (Hahn et al., 2010) . Alors que pour la traduction automatique, ce sont les mod\u00e8les de traduction log-lin\u00e9aires \u00e0 base de segments sous-phrastiques (Log-linear Phrase-Based Statistical Machine Translation, LLPB-SMT) (Koehn et al., 2003) , qui sont le plus souvent utilis\u00e9s.", |
|
"cite_spans": [ |
|
{ |
|
"start": 217, |
|
"end": 239, |
|
"text": "(Lafferty et al., 2001", |
|
"ref_id": "BIBREF17" |
|
}, |
|
{ |
|
"start": 311, |
|
"end": 330, |
|
"text": "(Hahn et al., 2010)", |
|
"ref_id": "BIBREF9" |
|
}, |
|
{ |
|
"start": 527, |
|
"end": 547, |
|
"text": "(Koehn et al., 2003)", |
|
"ref_id": "BIBREF15" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Cependant, malgr\u00e9 les diff\u00e9rences entre les approches statistiques, celles-ci pr\u00e9sentent des points communs et les fronti\u00e8res entre les unes et les autres ont tendance \u00e0 s'estomper. On voit, par exemple, des travaux autour de l'utilisation d'approches discriminantes de type CRF pour la traduction automatique (Och et Ney, 2002; Liang et al., 2006; Lavergne et al., 2011) , tandis que les approches de traduction \u00e0 base de segments, sont aussi utilis\u00e9es dans d'autres t\u00e2ches du traitement automatique de la langue, comme la conversion graph\u00e8me-phon\u00e8mes (Rama et al., 2009) ou le d\u00e9codage de Part-Of-Speech (Gasc\u00f3 i Mora et S\u00e1nchez Peir\u00f3, 2007) .", |
|
"cite_spans": [ |
|
{ |
|
"start": 310, |
|
"end": 328, |
|
"text": "(Och et Ney, 2002;", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 329, |
|
"end": 348, |
|
"text": "Liang et al., 2006;", |
|
"ref_id": "BIBREF20" |
|
}, |
|
{ |
|
"start": 349, |
|
"end": 371, |
|
"text": "Lavergne et al., 2011)", |
|
"ref_id": "BIBREF19" |
|
}, |
|
{ |
|
"start": 553, |
|
"end": 572, |
|
"text": "(Rama et al., 2009)", |
|
"ref_id": "BIBREF26" |
|
}, |
|
{ |
|
"start": 606, |
|
"end": 643, |
|
"text": "(Gasc\u00f3 i Mora et S\u00e1nchez Peir\u00f3, 2007)", |
|
"ref_id": "BIBREF8" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Dans cet article nous comparons les approches CRF-SLU et LLPB-SMT pour les t\u00e2ches de compr\u00e9hension et de traduction. Pour cela nous proposons d'utiliser et d'optimiser une approche LLPB-SMT pour la compr\u00e9hension de la parole, et par ailleurs d'int\u00e9grer des mod\u00e8les \u00e0 base de CRF \u00e0 un module de traduction automatique. Cette \u00e9tude nous permet de mettre en avant les sp\u00e9cificit\u00e9s de chaque t\u00e2che et d'\u00e9valuer les performances des approches respectives sur ces t\u00e2ches. D'autre part, nous avons montr\u00e9 dans un travail pr\u00e9c\u00e9dent (Jabaian et al., 2010 (Jabaian et al., , 2011 ) que l'utilisation de la traduction automatique constitue une solution efficace pour la portabilit\u00e9 multilingue d'un module de compr\u00e9hension d'une langue vers une autre. Cette portabilit\u00e9 peut \u00eatre obtenue en cascadant un module de traduction avec un module de compr\u00e9hension (pour traduire les entr\u00e9es d'un utilisateur vers une langue pour laquelle nous disposons d'un syst\u00e8me de compr\u00e9hension).", |
|
"cite_spans": [ |
|
{ |
|
"start": 524, |
|
"end": 545, |
|
"text": "(Jabaian et al., 2010", |
|
"ref_id": "BIBREF12" |
|
}, |
|
{ |
|
"start": 546, |
|
"end": 569, |
|
"text": "(Jabaian et al., , 2011", |
|
"ref_id": "BIBREF13" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Dans certains cas, la meilleure hypoth\u00e8se de traduction n'est pas l'hypoth\u00e8se pour laquelle le syst\u00e8me de compr\u00e9hension g\u00e9n\u00e8re la meilleure hypoth\u00e8se (souvent pour des raisons li\u00e9es \u00e0 l'ordre des mots). Et donc la s\u00e9lection pr\u00e9alable de la meilleure traduction n'optimise pas forc\u00e9ment le syst\u00e8me lorsqu'on se place selon un sc\u00e9nario de compr\u00e9hension multilingue.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Nous nous basons sur la comparaison r\u00e9alis\u00e9e entre les deux t\u00e2ches afin de pouvoir proposer un mod\u00e8le qui pourra g\u00e9rer la traduction et la compr\u00e9hension d'une mani\u00e8re similaire permettant un d\u00e9codage conjoint entre les modules. Ce d\u00e9codage conjoint permettra de s\u00e9lectionner des traductions en tenant compte des hypoth\u00e8ses d'\u00e9tiquetage s\u00e9mantique. Dans cet esprit, nous ne cherchons plus la meilleure traduction possible mais la traduction qui sera \u00e9tiquet\u00e9e s\u00e9mantiquement de la meilleure mani\u00e8re possible.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Nos exp\u00e9riences sont bas\u00e9es sur le corpus de dialogue fran\u00e7ais MEDIA sur lequel nous apprenons un syst\u00e8me de compr\u00e9hension du fran\u00e7ais. Dans le but de pouvoir utiliser ce syst\u00e8me pour \u00e9tiqueter des entr\u00e9es en italien, nous apprenons un syst\u00e8me de traduction de l'italien vers fran\u00e7ais, qui sera utilis\u00e9 ensuite lors des tests pour traduire les entr\u00e9es italiennes vers le fran\u00e7ais afin de les fournir en entr\u00e9e du syst\u00e8me de compr\u00e9hension.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Cet article est organis\u00e9 de la mani\u00e8re suivante : la section 2 pr\u00e9sente l'utilisation d'une approche de traduction automatique pour la compr\u00e9hension de la parole. La section 3 d\u00e9crit l'utilisation des CRF pour la traduction automatique. Notre proposition pour un d\u00e9codage conjoint entre la compr\u00e9hension et la traduction est pr\u00e9sent\u00e9e dans la section 4. Enfin la section 5 pr\u00e9sente l'\u00e9tude exp\u00e9rimentale et les r\u00e9sultats.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Le probl\u00e8me de la compr\u00e9hension d'un \u00e9nonc\u00e9 utilisateur peut \u00eatre vu comme un probl\u00e8me de traduction de la s\u00e9quence de mots qui forme cet \u00e9nonc\u00e9 (langue source) vers une s\u00e9quence de concepts (langue cible). (Macherey et al., 2001 (Macherey et al., , 2009 ont montr\u00e9 que les approches de la traduction automatique statistique peuvent \u00eatre utilis\u00e9es avec un certain succ\u00e8s pour une t\u00e2che de compr\u00e9hension de la parole. Cette approche part du principe que les s\u00e9quences de concepts sont les traductions des s\u00e9quences de mots initiales.", |
|
"cite_spans": [ |
|
{ |
|
"start": 207, |
|
"end": 229, |
|
"text": "(Macherey et al., 2001", |
|
"ref_id": "BIBREF22" |
|
}, |
|
{ |
|
"start": 230, |
|
"end": 254, |
|
"text": "(Macherey et al., , 2009", |
|
"ref_id": "BIBREF21" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "M\u00e9thode de traduction pour la compr\u00e9hension", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "Malgr\u00e9 l'apparente similitude entre les t\u00e2ches de compr\u00e9hension et de traduction, la compr\u00e9hension a ses sp\u00e9cificit\u00e9s qui doivent \u00eatre prises en consid\u00e9ration afin de pouvoir am\u00e9liorer les performances obtenues par une approche de traduction comme LLPB-SMT.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "M\u00e9thode de traduction pour la compr\u00e9hension", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "Les diff\u00e9rences entre une t\u00e2che de traduction classique (d'une langue naturelle vers une autre) et l'utilisation de la traduction pour la compr\u00e9hension (traduction d'une langue vers des \u00e9tiquettes s\u00e9mantiques) peuvent \u00eatre r\u00e9sum\u00e9es comme suit : -la s\u00e9mantique d'une phrase respecte l'ordre dans lequel les mots sont \u00e9mis contrairement \u00e0 une t\u00e2che de traduction o\u00f9 les mots traduits peuvent avoir un ordre diff\u00e9rent de l'ordre des mots de la phrase source selon le couple de langues consid\u00e9r\u00e9es ; -dans une t\u00e2che de traduction, un mot source peut n'\u00eatre align\u00e9 \u00e0 aucun mot cible (fertilit\u00e9 = 0), alors que pour la compr\u00e9hension chaque mot doit \u00eatre align\u00e9 \u00e0 un concept, sachant que les mots qui ne contribuent pas au sens de la phrase sont \u00e9tiquet\u00e9s par un concept sp\u00e9cifique ; -enfin, les mesures d'\u00e9valuation sont diff\u00e9rentes entre les deux t\u00e2ches (BLEU (Papineni et al., 2002) pour la traduction vs. CER pour la compr\u00e9hension) et donc les outils utilis\u00e9s pour l'optimisation des syst\u00e8mes de traduction doivent \u00eatre adapt\u00e9s pour optimiser le score CER. ", |
|
"cite_spans": [ |
|
{ |
|
"start": 855, |
|
"end": 878, |
|
"text": "(Papineni et al., 2002)", |
|
"ref_id": "BIBREF25" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "M\u00e9thode de traduction pour la compr\u00e9hension", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "Dans cette approche, le probl\u00e8me de la traduction d'une phrase est consid\u00e9r\u00e9 comme un probl\u00e8me d'\u00e9tiquetage de la s\u00e9quence de mots source, avec comme \u00e9tiquettes possibles les mots de la langue cible. L'apprentissage d'un \u00e9tiqueteur fond\u00e9 sur une approche CRF pour une t\u00e2che de traduction n\u00e9cessite un corpus annot\u00e9 (traduit) au niveau des mots. L'application des mod\u00e8les IBM (Brown et al., 1993) permet d'obtenir automatiquement des alignements en mots \u00e0 partir d'un corpus bilingue align\u00e9 au niveau des phrases.", |
|
"cite_spans": [ |
|
{ |
|
"start": 375, |
|
"end": 395, |
|
"text": "(Brown et al., 1993)", |
|
"ref_id": "BIBREF5" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "M\u00e9thode de compr\u00e9hension pour la traduction", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "Comme pour la compr\u00e9hension, o\u00f9 plusieurs mots peuvent \u00eatre associ\u00e9s \u00e0 un seul concept, plusieurs mots source peuvent \u00eatre align\u00e9s avec un seul mot cible. Pour g\u00e9rer cela, la proposition la plus simple est d'appliquer la m\u00eame m\u00e9thode utilis\u00e9e pour la compr\u00e9hension : le passage au format BIO. Ainsi la s\u00e9quence fran\u00e7aise \"je voudrais\" qui est align\u00e9e au mot italien \"vorrei\" sera repr\u00e9sent\u00e9e comme : <je, B_vorrei> <voudrais, I_vorrei>.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "M\u00e9thode de compr\u00e9hension pour la traduction", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "La difficult\u00e9 principale pour apprendre des mod\u00e8les CRF pour la traduction est li\u00e9e au nombre \u00e9lev\u00e9 d'\u00e9tiquettes (correspondant \u00e0 la taille du vocabulaire de la langue cible). (Riedmiller et Braun, 1993) ont propos\u00e9 d'utiliser l'algorithme RPROP pour l'optimisation des param\u00e8tres de mod\u00e8les lorsqu'il s'agit d'un mod\u00e8le avec un nombre important de param\u00e8tres. Cet algorithme r\u00e9duit le besoin en m\u00e9moire par rapport \u00e0 d'autres algorithmes d'optimisation (Turian et al., 2006) .", |
|
"cite_spans": [ |
|
{ |
|
"start": 176, |
|
"end": 203, |
|
"text": "(Riedmiller et Braun, 1993)", |
|
"ref_id": "BIBREF28" |
|
}, |
|
{ |
|
"start": 454, |
|
"end": 475, |
|
"text": "(Turian et al., 2006)", |
|
"ref_id": "BIBREF32" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "M\u00e9thode de compr\u00e9hension pour la traduction", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "Un autre d\u00e9faut important de l'utilisation des CRF pour la traduction est qu'ils ne prennent pas en compte le r\u00e9ordonnancement des mots et que le mod\u00e8le de langage cible limit\u00e9 par la complexit\u00e9 algorithmique lors du d\u00e9codage. Afin d'obtenir un syst\u00e8me de traduction efficace \u00e0 base de CRF, (Lavergne et al., 2011) ont propos\u00e9 un mod\u00e8le fond\u00e9 sur des transducteurs \u00e0 \u00e9tats finis qui composent les diff\u00e9rents \u00e9tapes du processus de traduction. Nous l'appellerons CRFPB-SMT car il int\u00e9gre aussi un m\u00e9canisme pour la mod\u00e9lisation d'une table de traduction par segments sous-phrastiques (appel\u00e9s tuples dans ce contexte).", |
|
"cite_spans": [ |
|
{ |
|
"start": 291, |
|
"end": 314, |
|
"text": "(Lavergne et al., 2011)", |
|
"ref_id": "BIBREF19" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "M\u00e9thode de compr\u00e9hension pour la traduction", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "Le d\u00e9codeur propos\u00e9 pour ce mod\u00e8le est une composition de transducteurs \u00e0 \u00e9tats finis pond\u00e9r\u00e9s (Weighted Finite State Transducer, WFST) qui met en ouvre les fonctionnalit\u00e9s standards des WFST, disponibles dans des biblioth\u00e8ques logicielles comme OpenFST (Allauzen et al., 2007) . Essentiellement, le d\u00e9codeur de traduction est une composition de transducteurs qui repr\u00e9sentent les \u00e9tapes suivantes : le r\u00e9ordonnancement et la segmentation de la phrase source selon les tuples de mots, l'application du mod\u00e8le de traduction (mise en correspondance des parties source et cible des tuples) avec une valuation des hypoth\u00e8ses \u00e0 base de CRF et, enfin, la composition avec un mod\u00e8le de langage dans la langue cible. ", |
|
"cite_spans": [ |
|
{ |
|
"start": 254, |
|
"end": 277, |
|
"text": "(Allauzen et al., 2007)", |
|
"ref_id": "BIBREF2" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "M\u00e9thode de compr\u00e9hension pour la traduction", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "\u03bb t raduction = \u03bb S \u2022 \u03bb R \u2022 \u03bb T \u2022 \u03bb F \u2022 \u03bb L", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "M\u00e9thode de compr\u00e9hension pour la traduction", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "sachant que \u03bb S est l'accepteur de la phrase source, \u03bb R repr\u00e9sente un mod\u00e8le de r\u00e9ordonnancement, \u03bb T est un dictionnaire de tuples, qui associe des s\u00e9quences de la langue source avec leurs traductions possibles en se basant sur l'inventaire des tuples lors de l'apprentissage, \u03bb F est une fonction d'extraction de motifs (feature matcher), qui permet d'attribuer des scores de probabilit\u00e9 aux tuples en les comparant aux motifs des fonctions caract\u00e9ristiques du mod\u00e8le CRF et \u03bb L est un mod\u00e8le de langage de la langue cible.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "M\u00e9thode de compr\u00e9hension pour la traduction", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "Notre \u00e9tude des relations entre les diff\u00e9rentes approches est r\u00e9alis\u00e9e avec l'objectif de pouvoir les combiner du mieux possible pour la portabilit\u00e9 multilingue d'un syst\u00e8me de compr\u00e9hension.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue", |
|
"sec_num": "4" |
|
}, |
|
{ |
|
"text": "Dans des travaux pr\u00e9c\u00e9dents (Jabaian et al., 2010) , nous avons montr\u00e9 que la meilleure m\u00e9thode pour porter un syst\u00e8me de compr\u00e9hension existant vers une nouvelle langue est aussi la plus simple : traduire les \u00e9nonc\u00e9s utilisateurs de la nouvelle langue vers la langue du syst\u00e8me existant et ensuite faire \u00e9tiqueter les \u00e9nonc\u00e9s (traduits) par ce syst\u00e8me.", |
|
"cite_spans": [ |
|
{ |
|
"start": 28, |
|
"end": 50, |
|
"text": "(Jabaian et al., 2010)", |
|
"ref_id": "BIBREF12" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue", |
|
"sec_num": "4" |
|
}, |
|
{ |
|
"text": "Notre proposition est bas\u00e9e sur une cascade d'un syst\u00e8me de traduction (LLPB-SMT) et d'un syst\u00e8me de compr\u00e9hension (CRF-SLU). La meilleure hypoth\u00e8se g\u00e9n\u00e9r\u00e9e par le syst\u00e8me de traduction constitue l'entr\u00e9e du syst\u00e8me de compr\u00e9hension. Cependant, d'autres hypoth\u00e8ses de traductions peuvent diff\u00e9rer (m\u00eame sensiblement, par exemple dans l'ordre des mots) et ces variantes peuvent \u00eatre mieux interpr\u00e9t\u00e9es par l'\u00e9tiqueteur s\u00e9mantique. Donc la s\u00e9lection a priori de la meilleure traduction n'optimise pas forc\u00e9ment le comportement du syst\u00e8me global.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue", |
|
"sec_num": "4" |
|
}, |
|
{ |
|
"text": "Pour faire face \u00e0 ce probl\u00e8me nous proposons d'effectuer un d\u00e9codage conjoint entre la traduction et la compr\u00e9hension. Ce d\u00e9codage conjoint aura l'avantage de pouvoir optimiser la s\u00e9lection de la traduction en prenant compte des \u00e9tiquettes qui peuvent \u00eatre attribu\u00e9es aux diff\u00e9rentes traductions possibles.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue", |
|
"sec_num": "4" |
|
}, |
|
{ |
|
"text": "La proposition d'utiliser l'approche CRFPB-SMT utilisant des transducteurs pour la traduction de graphes d'hypoth\u00e8ses peut \u00eatre appliqu\u00e9e la compr\u00e9hension. Donc un syst\u00e8me de compr\u00e9hension \u03bb compr ehension peut \u00eatre obtenu de la m\u00eame mani\u00e8re que propos\u00e9 dans la section 3. Cette repr\u00e9sentation nous permet alors d'obtenir un graphe de compr\u00e9hension similaire \u00e0 celui obtenu pour la traduction. Vu que le vocabulaire des sorties du graphe de traduction est le m\u00eame que celui de l'entr\u00e9e du graphe de compr\u00e9hension, ces deux graphes peuvent \u00eatre compos\u00e9s facilement en utilisant la fonction de composition pour donner un graphe permettant le d\u00e9codage conjoint : ", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue", |
|
"sec_num": "4" |
|
}, |
|
{ |
|
"text": "\u03bb con joint = \u03bb t raduction \u2022 \u03bb compr ehension", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "D\u00e9codage conjoint pour la traduction et la compr\u00e9hension, application \u00e0 la compr\u00e9hension multilingue", |
|
"sec_num": "4" |
|
}, |
|
{ |
|
"text": "Ce probl\u00e8me rejoint, dans son esprit, le probl\u00e8me classique de la cascade des composants d'un syst\u00e8me d'interaction vocal homme-machine. Dans une architecture standard, le syst\u00e8me de reconnaissance de la parole transmet sa meilleure hypoth\u00e8se de transcription au syst\u00e8me de compr\u00e9hension. Vu que cette hypoth\u00e8se est bruit\u00e9e, elle n'est pas forc\u00e9ment l'hypoth\u00e8se que le syst\u00e8me de compr\u00e9hension pourra \u00e9tiqueter le mieux. (Papineni et al., 2002) qui se base sur des comptes de n-grammes communs entre hypoth\u00e8se et r\u00e9f\u00e9rence est retenu pour \u00e9valuer la t\u00e2che de traduction.", |
|
"cite_spans": [ |
|
{ |
|
"start": 421, |
|
"end": 444, |
|
"text": "(Papineni et al., 2002)", |
|
"ref_id": "BIBREF25" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Travaux connexes", |
|
"sec_num": "4.1" |
|
}, |
|
{ |
|
"text": "La bo\u00eete \u00e0 outils MOSES (Koehn et al., 2007) a \u00e9t\u00e9 utilis\u00e9e pour apprendre un mod\u00e8le LLPB-SMT pour la compr\u00e9hension du fran\u00e7ais. Nos premi\u00e8res tentatives ont clairement montr\u00e9 des performances inf\u00e9rieures \u00e0 celles d'un mod\u00e8le CRF-SLU de r\u00e9f\u00e9rence (CER 23,2% apr\u00e8s r\u00e9glage des param\u00e8tres avec MERT pour le LLPB-SMT \u00e0 comparer aux 12,9% pour CRF-SLU 1 .).", |
|
"cite_spans": [ |
|
{ |
|
"start": 24, |
|
"end": 44, |
|
"text": "(Koehn et al., 2007)", |
|
"ref_id": "BIBREF14" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes de traduction \u00e0 base de segments pour une t\u00e2che de compr\u00e9hension", |
|
"sec_num": "5.1" |
|
}, |
|
{ |
|
"text": "Les am\u00e9liorations progressives du mod\u00e8le propos\u00e9es dans la section 2 sont \u00e9valu\u00e9es dans le tableau 1. L'utilisation de la contrainte de monotonie durant le d\u00e9codage permet une r\u00e9duction de 0,5% absolu. Convertir les donn\u00e9es selon le formalisme BIO avant la phase d'apprentissage r\u00e9duit le CER de fa\u00e7on significative de 2,4%. Enfin, optimiser le score CER \u00e0 la place du score BLEU r\u00e9duit le CER de 0,4% suppl\u00e9mentaire. Enfin, l'ajout d'une liste de villes \u00e0 l'ensemble d'apprentissage avant r\u00e9apprentissage du mod\u00e8le LLPB-SMT r\u00e9pond au probl\u00e8me du traitement des mots hors-vocabulaire et permet une r\u00e9duction finale de 0,8%.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes de traduction \u00e0 base de segments pour une t\u00e2che de compr\u00e9hension", |
|
"sec_num": "5.1" |
|
}, |
|
{ |
|
"text": "Les r\u00e9sultats montrent qu'en d\u00e9pit de r\u00e9glages fins de l'approche LLPB-SMT, les approches \u00e0 base de CRF obtiennent toujours les meilleures performances pour une t\u00e2che de compr\u00e9hension (CER de 12,9% pour CRF-SLU vs. 18,3% pour LLPB-SMT). ", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes de traduction \u00e0 base de segments pour une t\u00e2che de compr\u00e9hension", |
|
"sec_num": "5.1" |
|
}, |
|
{ |
|
"text": "Afin de pouvoir \u00e9valuer notre proposition d'utiliser une approche CRF-SLU pour la traduction nous utilisons la partie traduite manuellement (du fran\u00e7ais vers l'italien) du corpus MEDIA comme corpus parall\u00e8le pour apprendre le mod\u00e8le de traduction. L'outil GIZA++ (disponible avec MOSES) a \u00e9t\u00e9 utilis\u00e9 pour apprendre automatiquement un alignement mot \u00e0 mot entre les corpus des deux langues et l'outil Wapiti (Lavergne et al., 2010) a \u00e9t\u00e9 utilis\u00e9 pour apprendre les param\u00e8tres des mod\u00e8les CRF.", |
|
"cite_spans": [ |
|
{ |
|
"start": 408, |
|
"end": 431, |
|
"text": "(Lavergne et al., 2010)", |
|
"ref_id": "BIBREF18" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "Dans un premier temps, nous cherchons \u00e0 apprendre un mod\u00e8le CRF-SLU pour la traduction, en utilisant l'algorithme RPROP comme propos\u00e9 dans la section 3. Des fonctions caract\u00e9ristiques de type 4-grammes sym\u00e9triques sur les observations et bi-grammes sur les \u00e9tiquettes sont utilis\u00e9es pour apprendre ce mod\u00e8le. Les performances obtenues sont pr\u00e9sent\u00e9es dans le tableau 2. Les r\u00e9sultats montrent que la performance du mod\u00e8le CRF-SLU (BLEU de 42,5) est significativement moins bonne que la performance obtenue par la m\u00e9thode LLPB-SMT classique utilisant MOSES avec des param\u00e8tres de base (47,2) 2 .", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "Afin d'avoir une comparaison juste entre les deux m\u00e9thodes, nous cherchons \u00e0 \u00e9valuer l'approche LLPB-SMT dans les m\u00eames conditions que l'approche CRF-SLU. La m\u00e9thode LLPB-SMT utilise un mod\u00e8le de r\u00e9ordonnancement alors que CRF-SLU, d\u00e9di\u00e9 \u00e0 l'\u00e9tiquetage s\u00e9quentiel, ne comprend pas un tel mod\u00e8le. Pour cela nous rajoutons une contrainte de monotonie dans le d\u00e9codage pour l'approche LLPB-SMT emp\u00eachant tout r\u00e9ordonnancement. Il est aussi important de mentionner que l'approche LLPB-SMT utilise un mod\u00e8le de langage pour s\u00e9lectionner la meilleure traduction. Les performances du mod\u00e8le LLPB-SMT de r\u00e9f\u00e9rence sont obtenues en utilisant un mod\u00e8le de langage tri-grammes (utilis\u00e9 g\u00e9n\u00e9ralement dans les syst\u00e8mes de traduction). Cependant la complexit\u00e9 algorithmique de l'approche CRF-SLU ne permet pas d'utiliser un tel mod\u00e8le de langage sur les \u00e9tiquettes. inconnus (hors-vocabulaire) dans le test ont \u00e9t\u00e9 traduits par d'autres mots du corpus cible selon le contexte g\u00e9n\u00e9ral de la phrase, contrairement \u00e0 l'approche LLPB-SMT qui a tendance \u00e0 projeter les mots hors-vocabulaire tels qu'ils sont dans la phrase traduite. Ces mots, \u00e9tant dans la plupart des cas des noms de ville ou de lieux, leur traduction ne change pas d'une langue \u00e0 l'autre, et donc leur projection dans la sortie traduite est avantageuse pour les mod\u00e8les LLPB-SMT. Pour cela nous proposons un pr\u00e9-traitement des mots inconnus dans la phrase source permettant de les r\u00e9cup\u00e9rer en sortie dans l'approche CRF-SLU.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "Les r\u00e9sultats pr\u00e9sent\u00e9s dans le tableau 2 montrent que le d\u00e9codage monotone d\u00e9grade la performance du mod\u00e8le LLPB-SMT de 0,91% absolu. L'utilisation d'un mod\u00e8le de langage bigrammes augmente la perte de 0,3% suppl\u00e9mentaire. Le traitement des mots hors-vocabulaire permet au mod\u00e8le CRF-SLU de r\u00e9cup\u00e9rer 1,0% de score BLEU par rapport au mod\u00e8le CRF-SLU de r\u00e9f\u00e9rence. On remarque que malgr\u00e9 la d\u00e9gradation du mod\u00e8le LLPB-SMT et les am\u00e9liorations du mod\u00e8le CRF-SLU, la performance de ce dernier reste inf\u00e9rieure \u00e0 celle du mod\u00e8le LLPB-SMT (43,5% pour les CRF vs. 46,0% pour LLPB-SMT).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des \u00e9tiqueteurs s\u00e9mantiques pour une t\u00e2che de traduction automatique", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "Un mod\u00e8le de traduction CRFPB-SMT \u00e0 base de transducteurs valu\u00e9s par des CRF pour la traduction a \u00e9t\u00e9 construit comme d\u00e9crit dans la section 3. Ce mod\u00e8le a \u00e9t\u00e9 construit \u00e0 partir de l'outil n-code (Crego et al., 2011) , impl\u00e9ment\u00e9 pour apprendre des mod\u00e8les de traduction \u00e0 base de n-grammes (Mari\u00f1o et al., 2006) .", |
|
"cite_spans": [ |
|
{ |
|
"start": 197, |
|
"end": 217, |
|
"text": "(Crego et al., 2011)", |
|
"ref_id": "BIBREF7" |
|
}, |
|
{ |
|
"start": 292, |
|
"end": 313, |
|
"text": "(Mari\u00f1o et al., 2006)", |
|
"ref_id": "BIBREF23" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Cet outil utilise la biblioth\u00e8que OpenFst (Allauzen et al., 2007) pour construire un graphe de traduction qui est la composition de plusieurs transducteurs. La diff\u00e9rence entre le mod\u00e8le impl\u00e9ment\u00e9 par cet outil et le mod\u00e8le qu'on cherche \u00e0 d\u00e9veloper r\u00e9side dans les poids du mod\u00e8le de traduction. Nous adaptons donc cet outil pour interroger les param\u00e8tres d'un mod\u00e8le CRF afin d'estimer les probabilit\u00e9s de traduction et ensuite nous appliquons une normalisation des scores de probabilit\u00e9 obtenus par ce mod\u00e8le sur les diff\u00e9rents chemins du graphe (comme cela a \u00e9t\u00e9 propos\u00e9 dans (Lavergne et al., 2011) ).", |
|
"cite_spans": [ |
|
{ |
|
"start": 42, |
|
"end": 65, |
|
"text": "(Allauzen et al., 2007)", |
|
"ref_id": "BIBREF2" |
|
}, |
|
{ |
|
"start": 581, |
|
"end": 604, |
|
"text": "(Lavergne et al., 2011)", |
|
"ref_id": "BIBREF19" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Dans n-code le mod\u00e8le de r\u00e9ordonnancement, propos\u00e9 par , est fond\u00e9 sur une approche \u00e0 base de r\u00e8gles apprises automatiquement sur les donn\u00e9es d'entrainement. Cette approche n\u00e9cessite un \u00e9tiquetage grammatical des phrases source et un alignement au niveau des mots entre les phrases source et les phrases cible pour apprendre le mod\u00e8le \u03bb R . Nous avons utiliser les outils TreeTagger (Schmid, 1994) pour obtenir l'\u00e9tiquetage grammatical et GIZA++ pour l'alignement en mots. Le mod\u00e8le de langage utilis\u00e9 dans nos exp\u00e9riences est un mod\u00e8le tri-grammes appris sur la partie cible de notre corpus d'apprentissage \u00e0 l'aide de l'outil SRILM (Stolcke, 2002) .", |
|
"cite_spans": [ |
|
{ |
|
"start": 383, |
|
"end": 397, |
|
"text": "(Schmid, 1994)", |
|
"ref_id": "BIBREF29" |
|
}, |
|
{ |
|
"start": 634, |
|
"end": 649, |
|
"text": "(Stolcke, 2002)", |
|
"ref_id": "BIBREF30" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Le tableau 3 pr\u00e9sente une comparaison entre trois mod\u00e8les : le mod\u00e8le CRFPB-SMT, le mod\u00e8le LLPB-SMT (de r\u00e9f\u00e9rence) et le mod\u00e8le CRF-SLU de base (pr\u00e9sent\u00e9 dans la section pr\u00e9c\u00e9dente). Les r\u00e9sultats pr\u00e9sent\u00e9s dans ce tableau montrent que l'approche CRFPB-SMT \u00e0 base de transducteurs donne des performances inf\u00e9rieures mais comparables \u00e0 celles obtenues par l'approche LLPB-SMT.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Malgr\u00e9 une d\u00e9gradation de 3,1 points absolu, ces performances restent assez \u00e9lev\u00e9es en valeur pour une t\u00e2che de traduction (malgr\u00e9 un ensemble d'apprentissage de taille r\u00e9duite), ce qui s'explique dans notre contexte par le vocabulaire limit\u00e9 du domaine. Cette diff\u00e9rence de performance est comparable \u00e0 celle observ\u00e9e par le LIMSI (Lavergne et al., 2010 ) (en ne consid\u00e9rant que l'utilisation des param\u00e8tres de base).", |
|
"cite_spans": [ |
|
{ |
|
"start": 332, |
|
"end": 354, |
|
"text": "(Lavergne et al., 2010", |
|
"ref_id": "BIBREF18" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "D'autre part les r\u00e9sultats montrent que l'utilisation de graphes d'hypoth\u00e8ses dans CRFPB-SMT est doublement avantageuse par rapport \u00e0 l'utilisation d'une approche CRF simple ; en plus du fait qu'elle permette de traiter des graphes en entr\u00e9es, cette approche permet d'embl\u00e9e d'augmenter la performance du syst\u00e8me d'environ 1 point absolu.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Le m\u00e9canisme utilis\u00e9 pour obtenir des graphe de traduction peut \u00eatre utilis\u00e9 d'une mani\u00e8re similaire pour la compr\u00e9hension. Dans un premier temps, le graphe d'hypoth\u00e8se de concepts est obtenu en composant tous les mod\u00e8les", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "\u03bb S \u2022 \u03bb R \u2022 \u03bb T \u2022 \u03bb F \u2022 \u03bb L", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "comme cela a \u00e9t\u00e9 propos\u00e9 pour la traduction. Cette approche donne un CER de 15,3%, bien moins bon que l'approche CRF-SLU de base (12,9%).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Afin de prendre les sp\u00e9cificit\u00e9s de la compr\u00e9hension (qui ne comprend pas de mod\u00e8le de r\u00e9ordonnancement, ni de mod\u00e8le de langage cible final), nous proposons d'obtenir le graphe de sorties en combinant uniquement les mod\u00e8les \u03bb S \u2022 \u03bb F . Cela nous a permis d'augmenter la performance de cette approche de 2,2% absolu (15,3% vs 13,1%) permettant de retrouver quasiment les m\u00eames performances qu'avec CRF-SLU (13,1% vs 12.9%). Une comparaison entre les performances des diff\u00e9rentes versions est donn\u00e9e dans le tableau 4. Par la suite, CRFPB-SMT simplifi\u00e9 est utilis\u00e9 pour toutes les exp\u00e9riences de compr\u00e9hension.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Evaluation des syst\u00e8mes \u00e0 base de transducteurs CRFPB-SMT pour la traduction et la compr\u00e9hension", |
|
"sec_num": "5.3" |
|
}, |
|
{ |
|
"text": "Un d\u00e9codage conjoint pour la traduction et la compr\u00e9hension a \u00e9t\u00e9 appliqu\u00e9 comme nous l'avons propos\u00e9 dans la section 4. Ce d\u00e9codage consiste \u00e0 transmettre le graphe de traduction", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "D\u00e9codage conjoint dans un sc\u00e9nario de compr\u00e9hension multilingue", |
|
"sec_num": "5.4" |
|
}, |
|
{ |
|
"text": "Sub Del Ins CER CRF-SLU 3,1 8,1 1,8 12,9 CRFPB-SMT (complet) (", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Mod\u00e8le", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "\u03bb S \u2022 \u03bb R \u2022 \u03bb T \u2022 \u03bb F \u2022 \u03bb L ) 4,2 8,8 2,3 15,3 CRFPB-SMT (simplifi\u00e9) (\u03bb S \u2022 \u03bb T \u2022 \u03bb F )", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Mod\u00e8le", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "3,5 7,6 2,0 13,1 Au moment du d\u00e9codage les deux scores (traduction et compr\u00e9hension) sont pris en consid\u00e9ration. Dans un premier temps nous proposons que le score final pour chaque chemin du graphe soit l'addition simple du score de traduction et du score de compr\u00e9hension sur ce chemin 3 . Le meilleur chemin est ensuite s\u00e9lectionn\u00e9 parmi l'ensemble des chemins possibles dans le graphe. Ce chemin repr\u00e9sente donc un d\u00e9codage conjoint entre la traduction et la compr\u00e9hension (marginalisation de la variabilit\u00e9 al\u00e9atoire li\u00e9e \u00e0 la traduction interm\u00e9diaire).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Mod\u00e8le", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "Afin de pouvoir se positionner par rapport \u00e0 l'\u00e9tat de l'art, nous proposons de r\u00e9aliser le d\u00e9codage conjoint selon deux modes : le syst\u00e8me de traduction utilis\u00e9 est un mod\u00e8le LLPB-SMT (en utilisant la bo\u00eete \u00e0 outils MOSES) dans le premier et un CRFPB-SMT (comme d\u00e9crit dans 5.3) dans le second. Dans les deux cas les performances du d\u00e9codage conjoint sont compar\u00e9es avec ou sans prise en compte du graphe d'hypoth\u00e8ses complet. Dans un premier cas, le meilleur chemin (1-best) du graphe de traduction est fourni en entr\u00e9e du syst\u00e8me de compr\u00e9hension. Dans un second cas, l'oracle du graphe de traduction est donn\u00e9 en entr\u00e9e au module de compr\u00e9hension. Les scores oracle repr\u00e9sentent une \u00e9valuation fond\u00e9e sur le chemin du graphe qui se rapproche le plus de la r\u00e9f\u00e9rence de la traduction. Il est alors possible de mesurer l'impact de la qualit\u00e9 de la traduction sur les performances de compr\u00e9hension.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Mod\u00e8le", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "Le r\u00e9sultat de cette comparaison est donn\u00e9 dans la tableau 5. Nous avons aussi calcul\u00e9 les scores oracle (pour la traduction et la compr\u00e9hension) sur les sorties des diff\u00e9rents couplages de modules, et nous avons calcul\u00e9 le score BLEU sur la traduction s\u00e9lectionn\u00e9e par le d\u00e9codage conjoint (derni\u00e8re colonne du tableau 5).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Mod\u00e8le", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "La premi\u00e8re ligne de ce tableau constitue la combinaison de r\u00e9f\u00e9rence (sans l'utilisation de graphe) dans laquelle la sortie de MOSES est donn\u00e9e en entr\u00e9e d'un mod\u00e8le CRF. Les r\u00e9sultats montrent que le graphe de traduction permet d'am\u00e9liorer la performance du syst\u00e8me par rapport au syst\u00e8me de 1-meilleure traduction (CER 19, 7% vs. 19, 3 vs. 21 ,7 pour CRF). L'utilisation d'un graphe de traduction donne aussi des meilleurs performances par rapport \u00e0 la combinaison avec son oracle (CER 19, 7% vs. 19 LLPB-SMT et 21,3 vs. 21,6 pour CRF). La diff\u00e9rence entre la performance obtenue par le d\u00e9codage conjoint en utilisant un mod\u00e8le LLPB-SMT pour la traduction et celle obtenue en utilisant un mod\u00e8le CRF (CER 19, 7, 8% vs. 21, 3%) peut \u00eatre expliqu\u00e9e par la diff\u00e9rence entre la performance de ces deux mod\u00e8les (BLEU 46,9% vs 44,1%).", |
|
"cite_spans": [ |
|
{ |
|
"start": 317, |
|
"end": 325, |
|
"text": "(CER 19,", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 326, |
|
"end": 336, |
|
"text": "7% vs. 19,", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 337, |
|
"end": 345, |
|
"text": "3 vs. 21", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 484, |
|
"end": 492, |
|
"text": "(CER 19,", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 493, |
|
"end": 502, |
|
"text": "7% vs. 19", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 703, |
|
"end": 711, |
|
"text": "(CER 19,", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 712, |
|
"end": 714, |
|
"text": "7,", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 715, |
|
"end": 725, |
|
"text": "8% vs. 21,", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 726, |
|
"end": 729, |
|
"text": "3%)", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Mod\u00e8le", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "Il est important de mentionner que seuls les couplages prenant des graphes en entr\u00e9e de la compr\u00e9hension permettent de s\u00e9lectionner la traduction en fonction de l'\u00e9tiquetage qui lui sera appliqu\u00e9. Dans les autres cas la s\u00e9lection de la traduction se fait ind\u00e9pendamment. On remarque que le score BLEU de la traduction s\u00e9lectionn\u00e9e par le d\u00e9codage conjoint est moins bon que celui par la meilleure traduction (46,3 vs. 47,2 pour LLPB-SMT et 43,9 vs. 44,1 pour CRF) malgr\u00e9 le fait que le premier est plus performant en CER. Cela montre l'int\u00e9r\u00eat de la m\u00e9thode conjointe \u00e0 base de graphes qui permet de s\u00e9lectionner la traduction qui pourra \u00eatre \u00e9tiquet\u00e9e de la meilleure fa\u00e7on possible.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Mod\u00e8le", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "Les scores oracle montrent que la meilleure hypoth\u00e8se s\u00e9lectionn\u00e9e lors du d\u00e9codage n'est pas forc\u00e9ment la plus proche de la r\u00e9f\u00e9rence parmi les hypoth\u00e8ses du graphe. Cependant, ce r\u00e9sultat est encourageant du fait que la performance du syst\u00e8me peut \u00eatre encore am\u00e9lior\u00e9e en ajustant les poids des mod\u00e8les vu que des meilleures hypoth\u00e8ses se trouvent dans le graphe. Un d\u00e9codage optimal permettra d'am\u00e9liorer le CER de 0,6% absolu pour un d\u00e9codage en composant avec un graphe LLPB-SMT pour la traduction (19,7% vs 19,1%) et de 0,7% absolu pour un d\u00e9codage en composant avec un graphe CRF pour la traduction (21,3% vs 20,6%).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Mod\u00e8le", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "Dans cet article nous avons \u00e9valu\u00e9 et compar\u00e9 des approches statistique \u00e0 la fois pour la compr\u00e9hension de la parole et pour la traduction automatique. Nous avons observ\u00e9 que l'approche discriminante CRF reste la meilleure approche pour la compr\u00e9hension de la parole, malgr\u00e9 toutes les adaptations de l'approche LLPB-SMT pour la t\u00e2che. Une approche de type CRF pour la traduction a plusieurs limites et les performances de cette approche peuvent \u00eatre am\u00e9lior\u00e9es par un mod\u00e8le \u00e0 base de transducteurs permettant l'int\u00e9gration de traitements adapt\u00e9s (r\u00e9ordonnancement, segmentation, mod\u00e8le de langage cible).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Conclusion", |
|
"sec_num": "6" |
|
}, |
|
{ |
|
"text": "Plusieurs travaux ont propos\u00e9 un d\u00e9codage conjoint entre la reconnaissance et la compr\u00e9hension de la parole pour prendre en compte les n-meilleures hypoth\u00e8ses de reconnaissance lors de l'\u00e9tiquetage s\u00e9mantique. Ces premiers travaux(T\u00fcr et al., 2002;Servan et al., 2006;Hakkani-T\u00fcr et al., 2006) ont propos\u00e9 d'utiliser un r\u00e9seau de confusion entre les diff\u00e9rentes sorties de reconnaissance pour obtenir un graphe d'hypoth\u00e8ses. Le syst\u00e8me de compr\u00e9hension dans ces propositions a \u00e9t\u00e9 repr\u00e9sent\u00e9 par un WFST, dont les poids sont obtenus pas maximum de vraisemblance sur les donn\u00e9es d'apprentissage. Et le d\u00e9codage conjoint est obtenu par la composition du graphe de reconnaissance avec le graphe de compr\u00e9hension.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "c ATALA", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": ". Une exp\u00e9rience pr\u00e9liminaire pour mesurer l'impact de la pond\u00e9ration des scores est pr\u00e9sent\u00e9e dans(Jabaian, 2012).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
} |
|
], |
|
"back_matter": [], |
|
"bib_entries": { |
|
"BIBREF0": { |
|
"ref_id": "b0", |
|
"title": "Nous avons alors pu proposer et \u00e9valuer une approche de d\u00e9codage conjoint entre la traduction et la compr\u00e9hension dans le contexte d'un syst\u00e8me de compr\u00e9hension de la parole multilingue. Nous avons montr\u00e9 qu'avec un tel d\u00e9codage nous pouvons obtenir de bonnes performances tout en proposant un syst\u00e8me homog\u00e8ne sur les deux t\u00e2ches sous-jacentes", |
|
"authors": [], |
|
"year": null, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "Nous avons alors pu proposer et \u00e9valuer une approche de d\u00e9codage conjoint entre la traduction et la compr\u00e9hension dans le contexte d'un syst\u00e8me de compr\u00e9hension de la parole multilingue. Nous avons montr\u00e9 qu'avec un tel d\u00e9codage nous pouvons obtenir de bonnes performances tout en proposant un syst\u00e8me homog\u00e8ne sur les deux t\u00e2ches sous-jacentes.", |
|
"links": null |
|
}, |
|
"BIBREF1": { |
|
"ref_id": "b1", |
|
"title": "un syst\u00e8me de dialogue homme-machine complet un d\u00e9codage conjoint entre la reconnaissance de la parole et la traduction pourra \u00eatre ajout\u00e9", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Dans Le Contexte D", |
|
"suffix": "" |
|
} |
|
], |
|
"year": null, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "Dans le contexte d'un syst\u00e8me de dialogue homme-machine complet un d\u00e9codage conjoint entre la reconnaissance de la parole et la traduction pourra \u00eatre ajout\u00e9. Dans ce cas un graphe", |
|
"links": null |
|
}, |
|
"BIBREF2": { |
|
"ref_id": "b2", |
|
"title": "OpenFst : A general and efficient weighted finite-state transducer library", |
|
"authors": [ |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Allauzen", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Riley", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [], |
|
"last": "Schalkwyk", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "W", |
|
"middle": [], |
|
"last": "Skut", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Mohri", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2007, |
|
"venue": "CIAA", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "ALLAUZEN, C., RILEY, M., SCHALKWYK, J., SKUT, W. et MOHRI, M. (2007). OpenFst : A general and efficient weighted finite-state transducer library. In CIAA.", |
|
"links": null |
|
}, |
|
"BIBREF3": { |
|
"ref_id": "b3", |
|
"title": "Joint decoding for speech recognition and semantic tagging", |
|
"authors": [ |
|
{ |
|
"first": "G", |
|
"middle": [ |
|
"T" |
|
], |
|
"last": "Anoop Deoras", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Hakkani-Tur", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "INTERSPEECH", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "ANOOP DEORAS, G. T. et HAKKANI-TUR, D. (2012). Joint decoding for speech recognition and semantic tagging. In INTERSPEECH.", |
|
"links": null |
|
}, |
|
"BIBREF4": { |
|
"ref_id": "b4", |
|
"title": "Semantic annotation of the french media dialog corpus", |
|
"authors": [ |
|
{ |
|
"first": "H", |
|
"middle": [], |
|
"last": "Bonneau-Maynard", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Rosset", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Ayache", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Kuhn", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Mostefa", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2005, |
|
"venue": "EUROSPEECH", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BONNEAU-MAYNARD, H., ROSSET, S., AYACHE, C., KUHN, A. et MOSTEFA, D. (2005). Semantic annotation of the french media dialog corpus. In EUROSPEECH.", |
|
"links": null |
|
}, |
|
"BIBREF5": { |
|
"ref_id": "b5", |
|
"title": "The mathematics of statistical machine translation : Parameter estimation", |
|
"authors": [ |
|
{ |
|
"first": "P", |
|
"middle": [ |
|
"F" |
|
], |
|
"last": "Brown", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [ |
|
"D" |
|
], |
|
"last": "Pietra", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "V", |
|
"middle": [ |
|
"J D" |
|
], |
|
"last": "Pietra", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "R", |
|
"middle": [ |
|
"L" |
|
], |
|
"last": "Mercer", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1993, |
|
"venue": "Computational Linguistics", |
|
"volume": "19", |
|
"issue": "2", |
|
"pages": "263--311", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BROWN, P. F., PIETRA, S. D., PIETRA, V. J. D. et MERCER, R. L. (1993). The mathematics of statistical machine translation : Parameter estimation. Computational Linguistics, 19(2):263- 311.", |
|
"links": null |
|
}, |
|
"BIBREF6": { |
|
"ref_id": "b6", |
|
"title": "Improving statistical mt by coupling reordering and decoding", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"M" |
|
], |
|
"last": "Crego", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"B" |
|
], |
|
"last": "Mari\u00f1o", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2006, |
|
"venue": "Machine Translation", |
|
"volume": "20", |
|
"issue": "3", |
|
"pages": "199--215", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "CREGO, J. M. et MARI\u00d1O, J. B. (2006). Improving statistical mt by coupling reordering and decoding. Machine Translation, 20(3):199-215.", |
|
"links": null |
|
}, |
|
"BIBREF7": { |
|
"ref_id": "b7", |
|
"title": "Ncode : an open source bilingual n-gram smt toolkit", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"M" |
|
], |
|
"last": "Crego", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Yvon", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"B" |
|
], |
|
"last": "Mari\u00f1o", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "The Prague Bulletin of Mathematical Linguistics", |
|
"volume": "96", |
|
"issue": "", |
|
"pages": "49--58", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "CREGO, J. M., YVON, F. et MARI\u00d1O, J. B. (2011). Ncode : an open source bilingual n-gram smt toolkit. The Prague Bulletin of Mathematical Linguistics, 96:49-58.", |
|
"links": null |
|
}, |
|
"BIBREF8": { |
|
"ref_id": "b8", |
|
"title": "Part-of-speech tagging based on machine translation techniques", |
|
"authors": [ |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Gasc\u00f3 I Mora", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [], |
|
"last": "S\u00e1nchez Peir\u00f3", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2007, |
|
"venue": "Pattern Recognition and Image Analysis", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "257--264", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "GASC\u00d3 I MORA, G. et S\u00c1NCHEZ PEIR\u00d3, J. (2007). Part-of-speech tagging based on machine translation techniques. Pattern Recognition and Image Analysis, pages 257-264.", |
|
"links": null |
|
}, |
|
"BIBREF9": { |
|
"ref_id": "b9", |
|
"title": "Comparing stochastic approaches to spoken language understanding in multiple languages", |
|
"authors": [ |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Hahn", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Dinarelli", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Raymond", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Lef\u00e8vre", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "P", |
|
"middle": [], |
|
"last": "Lehnen", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "R", |
|
"middle": [], |
|
"last": "De Mori", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Moschitti", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "H", |
|
"middle": [], |
|
"last": "Ney", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Riccardi", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "IEEE Transactions in Audio, Speech and Language Processing", |
|
"volume": "19", |
|
"issue": "6", |
|
"pages": "1569--1583", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "HAHN, S., DINARELLI, M., RAYMOND, C., LEF\u00c8VRE, F., LEHNEN, P., DE MORI, R., MOSCHITTI, A., NEY, H. et RICCARDI, G. (2010). Comparing stochastic approaches to spoken language understanding in multiple languages. IEEE Transactions in Audio, Speech and Language Processing, 19(6):1569-1583.", |
|
"links": null |
|
}, |
|
"BIBREF10": { |
|
"ref_id": "b10", |
|
"title": "Beyond asr 1-best : Using word confusion networks in spoken language understanding", |
|
"authors": [ |
|
{ |
|
"first": "D", |
|
"middle": [ |
|
"Z" |
|
], |
|
"last": "Hakkani-T\u00fcr", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Riccardi", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "T\u00fcr", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2006, |
|
"venue": "Computer Speech and Language", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "495--514", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "HAKKANI-T\u00dcR, D. Z., B., F., RICCARDI, G. et T\u00dcR, G. (2006). Beyond asr 1-best : Using word confusion networks in spoken language understanding. Computer Speech and Language, pages 495-514.", |
|
"links": null |
|
}, |
|
"BIBREF11": { |
|
"ref_id": "b11", |
|
"title": "Syst\u00e8mes de compr\u00e9hension et de traduction de la parole : vers une approche unifi\u00e9e dans le cadre de la portabilit\u00e9 multilingue des syst\u00e8mes de dialogue", |
|
"authors": [ |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "Jabaian", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "JABAIAN, B. (2012). Syst\u00e8mes de compr\u00e9hension et de traduction de la parole : vers une approche unifi\u00e9e dans le cadre de la portabilit\u00e9 multilingue des syst\u00e8mes de dialogue. Th\u00e8se de doctorat, CERI -Universit\u00e9 d'Avignon, Avignon.", |
|
"links": null |
|
}, |
|
"BIBREF12": { |
|
"ref_id": "b12", |
|
"title": "Investigating multiple approaches for slu portability to a new language", |
|
"authors": [ |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "Jabaian", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "L", |
|
"middle": [], |
|
"last": "Besacier", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Lef\u00e8vre", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "INTERSPEECH", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "JABAIAN, B., BESACIER, L. et LEF\u00c8VRE, F. (2010). Investigating multiple approaches for slu portability to a new language. In INTERSPEECH.", |
|
"links": null |
|
}, |
|
"BIBREF13": { |
|
"ref_id": "b13", |
|
"title": "Comparaison et combinaison d'approches pour la portabilit\u00e9 vers une nouvelle langue d'un syst\u00e8me de compr\u00e9hension de l'oral", |
|
"authors": [ |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "Jabaian", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "L", |
|
"middle": [], |
|
"last": "Besacier", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Lef\u00e8vre", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "TALN", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "JABAIAN, B., BESACIER, L. et LEF\u00c8VRE, F. (2011). Comparaison et combinaison d'approches pour la portabilit\u00e9 vers une nouvelle langue d'un syst\u00e8me de compr\u00e9hension de l'oral. In TALN.", |
|
"links": null |
|
}, |
|
"BIBREF14": { |
|
"ref_id": "b14", |
|
"title": "Moses : Open source toolkit for statistical machine translation", |
|
"authors": [ |
|
{ |
|
"first": "P", |
|
"middle": [], |
|
"last": "Koehn", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "H", |
|
"middle": [], |
|
"last": "Hoang", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Birch", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Callison-Burch", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Federico", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "N", |
|
"middle": [], |
|
"last": "Bertoldi", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "Cowan", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "W", |
|
"middle": [], |
|
"last": "Shen", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Moran", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "R", |
|
"middle": [], |
|
"last": "Zens", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2007, |
|
"venue": "ACL", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "KOEHN, P., HOANG, H., BIRCH, A., CALLISON-BURCH, C., FEDERICO, M., BERTOLDI, N., COWAN, B., SHEN, W., MORAN, C., ZENS, R. et al. (2007). Moses : Open source toolkit for statistical machine translation. In ACL.", |
|
"links": null |
|
}, |
|
"BIBREF15": { |
|
"ref_id": "b15", |
|
"title": "Statistical phrase-based translation", |
|
"authors": [ |
|
{ |
|
"first": "P", |
|
"middle": [], |
|
"last": "Koehn", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Och", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Marcu", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2003, |
|
"venue": "HLT-NAACL", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "KOEHN, P., OCH, F. et MARCU, D. (2003). Statistical phrase-based translation. In HLT-NAACL.", |
|
"links": null |
|
}, |
|
"BIBREF16": { |
|
"ref_id": "b16", |
|
"title": "A weighted finite state transducer implementation of the alignment template model for statistical machine translation", |
|
"authors": [ |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Kumar", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "W", |
|
"middle": [], |
|
"last": "Byrne", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2003, |
|
"venue": "HLT-NAACL", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "KUMAR, S. et BYRNE, W. (2003). A weighted finite state transducer implementation of the alignment template model for statistical machine translation. In HLT-NAACL.", |
|
"links": null |
|
}, |
|
"BIBREF17": { |
|
"ref_id": "b17", |
|
"title": "Conditional random fields : Probabilistic models for segmenting and labeling sequence data", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [], |
|
"last": "Lafferty", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Mccallum", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Pereira", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2001, |
|
"venue": "ICML", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LAFFERTY, J., MCCALLUM, A. et PEREIRA, F. (2001). Conditional random fields : Probabilistic models for segmenting and labeling sequence data. In ICML.", |
|
"links": null |
|
}, |
|
"BIBREF18": { |
|
"ref_id": "b18", |
|
"title": "Practical very large scale CRFs", |
|
"authors": [ |
|
{ |
|
"first": "T", |
|
"middle": [], |
|
"last": "Lavergne", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "O", |
|
"middle": [], |
|
"last": "Capp\u00e9", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Yvon", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "ACL", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LAVERGNE, T., CAPP\u00c9, O. et YVON, F. (2010). Practical very large scale CRFs. In ACL.", |
|
"links": null |
|
}, |
|
"BIBREF19": { |
|
"ref_id": "b19", |
|
"title": "From n-gram-based to crf-based translation models", |
|
"authors": [ |
|
{ |
|
"first": "T", |
|
"middle": [], |
|
"last": "Lavergne", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"M" |
|
], |
|
"last": "Crego", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Allauzen", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Yvon", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "WSMT", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LAVERGNE, T., CREGO, J. M., ALLAUZEN, A. et YVON, F. (2011). From n-gram-based to crf-based translation models. In WSMT.", |
|
"links": null |
|
}, |
|
"BIBREF20": { |
|
"ref_id": "b20", |
|
"title": "Alignment by agreement", |
|
"authors": [ |
|
{ |
|
"first": "P", |
|
"middle": [], |
|
"last": "Liang", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "Taskar", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Klein", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2006, |
|
"venue": "HLT-NAACL", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LIANG, P., TASKAR, B. et KLEIN, D. (2006). Alignment by agreement. In HLT-NAACL.", |
|
"links": null |
|
}, |
|
"BIBREF21": { |
|
"ref_id": "b21", |
|
"title": "Application of statistical machine translation approaches to spoken language understanding", |
|
"authors": [ |
|
{ |
|
"first": "K", |
|
"middle": [], |
|
"last": "Macherey", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "O", |
|
"middle": [], |
|
"last": "Bender", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "H", |
|
"middle": [], |
|
"last": "Ney", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2009, |
|
"venue": "IEEE ICASSP", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "MACHEREY, K., BENDER, O. et NEY, H. (2009). Application of statistical machine translation approaches to spoken language understanding. In IEEE ICASSP.", |
|
"links": null |
|
}, |
|
"BIBREF22": { |
|
"ref_id": "b22", |
|
"title": "Natural language understanding using statistical machine translation", |
|
"authors": [ |
|
{ |
|
"first": "K", |
|
"middle": [], |
|
"last": "Macherey", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [ |
|
"J" |
|
], |
|
"last": "Och", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "H", |
|
"middle": [], |
|
"last": "Ney", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2001, |
|
"venue": "INTERSPEECH", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "MACHEREY, K., OCH, F. J. et NEY, H. (2001). Natural language understanding using statistical machine translation. In INTERSPEECH.", |
|
"links": null |
|
}, |
|
"BIBREF23": { |
|
"ref_id": "b23", |
|
"title": "N-gram-based machine translation", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"B" |
|
], |
|
"last": "Mari\u00f1o", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "R", |
|
"middle": [ |
|
"E" |
|
], |
|
"last": "Banchs", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"M" |
|
], |
|
"last": "Crego", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "Gispert", |
|
"middle": [], |
|
"last": "De", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Lambert", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "P", |
|
"middle": [], |
|
"last": "Fonollosa", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"A R" |
|
], |
|
"last": "Costa-Juss\u00e0", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [ |
|
"R" |
|
], |
|
"last": "", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2006, |
|
"venue": "Computational Linguistic", |
|
"volume": "32", |
|
"issue": "4", |
|
"pages": "527--549", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "MARI\u00d1O, J. B., BANCHS, R. E., CREGO, J. M., de GISPERT, A., LAMBERT, P., FONOLLOSA, J. A. R. et COSTA-JUSS\u00c0, M. R. (2006). N-gram-based machine translation. Computational Linguistic, 32(4):527-549.", |
|
"links": null |
|
}, |
|
"BIBREF24": { |
|
"ref_id": "b24", |
|
"title": "Discriminative training and maximum entropy models for statistical machine translation", |
|
"authors": [ |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Och", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2002, |
|
"venue": "ACL", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "OCH, F. (2003). Minimum error rate training in statistical machine translation. In ACL. OCH, F. J. et NEY, H. (2002). Discriminative training and maximum entropy models for statistical machine translation. In ACL.", |
|
"links": null |
|
}, |
|
"BIBREF25": { |
|
"ref_id": "b25", |
|
"title": "Bleu : a method for automatic evaluation of machine translation", |
|
"authors": [ |
|
{ |
|
"first": "K", |
|
"middle": [], |
|
"last": "Papineni", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Roukos", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "T", |
|
"middle": [], |
|
"last": "Ward", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "W", |
|
"middle": [], |
|
"last": "Zhu", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2002, |
|
"venue": "ACL", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "PAPINENI, K., ROUKOS, S., WARD, T. et ZHU, W. (2002). Bleu : a method for automatic evaluation of machine translation. In ACL.", |
|
"links": null |
|
}, |
|
"BIBREF26": { |
|
"ref_id": "b26", |
|
"title": "Modeling letter-to-phoneme conversion as a phrase based statistical machine translation problem with minimum error rate training", |
|
"authors": [ |
|
{ |
|
"first": "T", |
|
"middle": [], |
|
"last": "Rama", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Singh", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Kolachina", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2009, |
|
"venue": "HLT-NAACL", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "RAMA, T., SINGH, A. et KOLACHINA, S. (2009). Modeling letter-to-phoneme conversion as a phrase based statistical machine translation problem with minimum error rate training. In HLT-NAACL.", |
|
"links": null |
|
}, |
|
"BIBREF27": { |
|
"ref_id": "b27", |
|
"title": "Text chunking using transformation-based learning", |
|
"authors": [ |
|
{ |
|
"first": "L", |
|
"middle": [], |
|
"last": "Ramshaw", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Marcus", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1995, |
|
"venue": "The Workshop on Very Large Corpora", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "RAMSHAW, L. et MARCUS, M. (1995). Text chunking using transformation-based learning. In The Workshop on Very Large Corpora.", |
|
"links": null |
|
}, |
|
"BIBREF28": { |
|
"ref_id": "b28", |
|
"title": "A direct adaptive method for faster backpropagation learning : The RPROP algorithm", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Riedmiller", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "H", |
|
"middle": [], |
|
"last": "Braun", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1993, |
|
"venue": "ICNN", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "RIEDMILLER, M. et BRAUN, H. (1993). A direct adaptive method for faster backpropagation learning : The RPROP algorithm. In ICNN.", |
|
"links": null |
|
}, |
|
"BIBREF29": { |
|
"ref_id": "b29", |
|
"title": "Conceptual decoding from word lattices : application to the spoken dialogue corpus MEDIA", |
|
"authors": [ |
|
{ |
|
"first": "H", |
|
"middle": [], |
|
"last": "Schmid", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Nmlp", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Servan", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Raymond", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Nocera", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "P", |
|
"middle": [], |
|
"last": "", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1994, |
|
"venue": "INTERSPEECH", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "SCHMID, H. (1994). Probabilistic part-of-speech tagging using decision trees. In NMLP. SERVAN, C., RAYMOND, C., B., F. et NOCERA, P. (2006). Conceptual decoding from word lattices : application to the spoken dialogue corpus MEDIA. In INTERSPEECH.", |
|
"links": null |
|
}, |
|
"BIBREF30": { |
|
"ref_id": "b30", |
|
"title": "Srilm-an extensible language modeling toolkit", |
|
"authors": [ |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Stolcke", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2002, |
|
"venue": "ICASSP", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "STOLCKE, A. (2002). Srilm-an extensible language modeling toolkit. In ICASSP.", |
|
"links": null |
|
}, |
|
"BIBREF31": { |
|
"ref_id": "b31", |
|
"title": "Improving spoken language understanding using word confusion networks", |
|
"authors": [ |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "T\u00fcr", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"H" |
|
], |
|
"last": "Wright", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [ |
|
"L" |
|
], |
|
"last": "Gorin", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "G", |
|
"middle": [], |
|
"last": "Riccardi", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [ |
|
"Z" |
|
], |
|
"last": "Hakkani-T\u00fcr", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2002, |
|
"venue": "INTERSPEECH", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "T\u00dcR, G., WRIGHT, J. H., GORIN, A. L., RICCARDI, G. et HAKKANI-T\u00dcR, D. Z. (2002). Improving spoken language understanding using word confusion networks. In INTERSPEECH.", |
|
"links": null |
|
}, |
|
"BIBREF32": { |
|
"ref_id": "b32", |
|
"title": "Scalable discriminative learning for natural language parsing and translation", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"P" |
|
], |
|
"last": "Turian", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "B", |
|
"middle": [], |
|
"last": "Wellington", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "I", |
|
"middle": [ |
|
"D" |
|
], |
|
"last": "Melamed", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2006, |
|
"venue": "NIPS", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "TURIAN, J. P., WELLINGTON, B. et MELAMED, I. D. (2006). Scalable discriminative learning for natural language parsing and translation. In NIPS.", |
|
"links": null |
|
} |
|
}, |
|
"ref_entries": { |
|
"TABREF2": { |
|
"html": null, |
|
"num": null, |
|
"content": "<table><tr><td>TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne</td><td/><td/></tr><tr><td>94</td><td>c</td><td>ATALA</td></tr></table>", |
|
"type_str": "table", |
|
"text": "Cette composition prend une phrase de la langue cible en entr\u00e9e et attribue une s\u00e9quence de concept \u00e0 cette phrase en passant par un \u00e9tiqueteur disponible dans la langue source. Elle nous permet d'obtenir un d\u00e9codage conjoint entre la traduction et la compr\u00e9hension dans la mesure o\u00f9 les probabilit\u00e9s des deux mod\u00e8les sont prises en compte. Un tel d\u00e9codage ne cherche pas \u00e0 optimiser la traduction en soi, mais \u00e0 optimiser le choix d'une traduction qui donnera une meilleure compr\u00e9hension automatique.Le transducteur \u03bb con joint peut \u00eatre g\u00e9n\u00e9ralis\u00e9 pour permettre de composer un graphe de reconnaissance de la parole avec un graphe de compr\u00e9hension dans le cadre d'un syst\u00e8me de dialogue. Dans un tel cas des proc\u00e9dures d'\u00e9lagage devront \u00eatre prises en compte afin d'assurer que les op\u00e9rations de composition puissent \u00eatre r\u00e9alis\u00e9es selon les contraintes classiques (temps de calcul et espace m\u00e9moire machine disponible)." |
|
}, |
|
"TABREF3": { |
|
"html": null, |
|
"num": null, |
|
"content": "<table><tr><td>Le taux d'erreur en concepts (Concept Error Rate, CER) est le crit\u00e8re d'\u00e9valuation retenu pour</td></tr><tr><td>\u00e9valuer la t\u00e2che de compr\u00e9hension. Le CER est l'\u00e9quivalent du taux d'erreur en mots (WER),</td></tr><tr><td>et peut \u00eatre d\u00e9fini comme le rapport de la somme des concepts omis, ins\u00e9r\u00e9s et substitu\u00e9s sur</td></tr><tr><td>le nombre de concepts dans la r\u00e9f\u00e9rence. D'autre part le score BLEU</td></tr></table>", |
|
"type_str": "table", |
|
"text": "Dans la lign\u00e9e de ces travaux, notre proposition cherche \u00e0 obtenir un d\u00e9codage conjoint pour la traduction et la compr\u00e9hension. Les deux syst\u00e8mes \u00e9tant de natures diff\u00e9rentes, leur combinaison et leur optimisation conjointe sont rendues d\u00e9licates, d'o\u00f9 l'int\u00e9r\u00eat d'uniformiser les syst\u00e8mes pour les deux t\u00e2ches.Le corpus est constitu\u00e9 de 1257 dialogues regroup\u00e9s en 3 parties : un ensemble d'apprentissage (environ 13k phrases), un ensemble de d\u00e9veloppement (environ 1,3k phrases) et un ensemble d'\u00e9valuation (environ 3,5k phrases). Un sous-ensemble de donn\u00e9es d'apprentissage (environ 5,6k phrases), de m\u00eame que les ensembles de tests et de d\u00e9veloppement sont manuellement traduits en italien.Un syst\u00e8me de type LLPB-SMT est utilis\u00e9 pour apprendre un syst\u00e8me de compr\u00e9hension du fran\u00e7ais sur le corpus MEDIA, et le sous-ensemble traduit de ce corpus est utilis\u00e9 comme corpus parall\u00e8le pour apprendre un mod\u00e8le de traduction \u00e0 base de CRF. Ensuite l'approche CRFPB-SMT \u00e0 base de transducteurs est \u00e9valu\u00e9e s\u00e9par\u00e9ment pour la traduction et la compr\u00e9hension avant d'\u00eatre utilis\u00e9e dans le cadre d'un d\u00e9codage conjoint traduction/compr\u00e9hension." |
|
}, |
|
"TABREF4": { |
|
"html": null, |
|
"num": null, |
|
"content": "<table><tr><td colspan=\"2\">TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne</td><td/><td/><td/></tr><tr><td>Mod\u00e8le</td><td colspan=\"3\">Sub Om Ins</td><td>CER</td></tr><tr><td>Initial</td><td>5,4</td><td colspan=\"3\">4,1 14,6 24,1</td></tr><tr><td>+MERT (BLEU)</td><td>5,6</td><td>8,4</td><td>9,2</td><td>23,2</td></tr><tr><td>+D\u00e9codage monotone</td><td>6,2</td><td>7,8</td><td>8,7</td><td>22,7</td></tr><tr><td>+Format BIO</td><td>5,7</td><td>9,3</td><td>5,3</td><td>20,3</td></tr><tr><td>MERT (CER)</td><td>5,3</td><td>9,2</td><td>4,6</td><td>19,1</td></tr><tr><td colspan=\"2\">Traitement de mots HV 5,8</td><td>7,4</td><td colspan=\"2\">5,1 18,3</td></tr><tr><td>96</td><td/><td/><td/><td>c</td><td>ATALA</td></tr></table>", |
|
"type_str": "table", |
|
"text": "Une analyse rapide du type d'erreur montre que les m\u00e9thodes utilisant des CRF ont un haut niveau de suppressions comparativement aux autres types d'erreurs, tandis que la m\u00e9thode LLPB-SMT pr\u00e9sente un meilleur compromis entre les erreurs de suppression et d'insertion," |
|
}, |
|
"TABREF5": { |
|
"html": null, |
|
"num": null, |
|
"content": "<table/>", |
|
"type_str": "table", |
|
"text": "Les am\u00e9liorations it\u00e9ratives du mod\u00e8le LLPB-SMT pour la compr\u00e9hension du fran\u00e7ais (CER%)." |
|
}, |
|
"TABREF7": { |
|
"html": null, |
|
"num": null, |
|
"content": "<table/>", |
|
"type_str": "table", |
|
"text": "Comparaison entre les mod\u00e8les LLPB-SMT et CRF-SLU pour la traduction de l'italien vers le fran\u00e7ais (BLEU %)." |
|
}, |
|
"TABREF9": { |
|
"html": null, |
|
"num": null, |
|
"content": "<table/>", |
|
"type_str": "table", |
|
"text": "Comparaison entre les diff\u00e9rentes approches (LLPB-SMT, CRF-SLU, CRFPB-SMT) pour la traduction de l'italien vers le fran\u00e7ais." |
|
}, |
|
"TABREF10": { |
|
"html": null, |
|
"num": null, |
|
"content": "<table><tr><td>Pour cela nous avons adapt\u00e9 l'accepteur du mod\u00e8le de compr\u00e9hension du fran\u00e7ais (donn\u00e9</td></tr><tr><td>dans la derni\u00e8re ligne du tableau 4 d\u00e9crit dans 5.3) pour prendre des graphes en entr\u00e9e (au</td></tr><tr><td>lieu d'une hypoth\u00e8se unique). Ce transducteur g\u00e9n\u00e8re un graphe valu\u00e9 de compr\u00e9hension qui</td></tr><tr><td>prend en compte les scores de traduction.</td></tr></table>", |
|
"type_str": "table", |
|
"text": "Evaluation des approches bas\u00e9es sur les CRF pour la compr\u00e9hension du fran\u00e7ais. en entr\u00e9e du module de compr\u00e9hension (incluant les scores pond\u00e9r\u00e9s relatifs \u00e0 la traduction) et ensuite r\u00e9cup\u00e9rer en sortie un graphe de compr\u00e9hension qui int\u00e8gre les scores de traduction et de compr\u00e9hension. Ce d\u00e9codage permettra d'\u00e9tiqueter des phrases en italien en combinant un syst\u00e8me de traduction italien vers fran\u00e7ais et un syst\u00e8me de compr\u00e9hension du fran\u00e7ais" |
|
}, |
|
"TABREF12": { |
|
"html": null, |
|
"num": null, |
|
"content": "<table/>", |
|
"type_str": "table", |
|
"text": "Evaluation des diff\u00e9rents configurations de compr\u00e9hension multilingue fran\u00e7cais-italien, variant selon le type d'information transmise entre les 2 \u00e9tapes (1-best, oracle ou graphe)." |
|
} |
|
} |
|
} |
|
} |