Benjamin Aw
Add updated pkl file v3
6fa4bc9
{
"paper_id": "F14-2002",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T10:22:18.941427Z"
},
"title": "Vers un d\u00e9veloppement plus efficace des syst\u00e8mes de traduction statistique : un peu de vert dans un monde de BLEU",
"authors": [
{
"first": "Li",
"middle": [],
"last": "Gong",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "LIMSI-CNRS",
"location": {
"settlement": "Orsay",
"country": "France ("
}
},
"email": "[email protected]"
},
{
"first": "Aur\u00e9lien",
"middle": [],
"last": "Max",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "LIMSI-CNRS",
"location": {
"settlement": "Orsay",
"country": "France ("
}
},
"email": "[email protected]"
},
{
"first": "Fran\u00e7ois",
"middle": [],
"last": "Yvon",
"suffix": "",
"affiliation": {
"laboratory": "",
"institution": "LIMSI-CNRS",
"location": {
"settlement": "Orsay",
"country": "France ("
}
},
"email": "[email protected]"
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "Dans cet article, nous montrons comment l'utilisation conjointe d'une technique d'alignement de phrases parall\u00e8les \u00e0 la demande et d'estimation de mod\u00e8les de traduction \u00e0 la vol\u00e9e permet une r\u00e9duction en temps tr\u00e8s notable (jusqu'\u00e0 93% dans nos exp\u00e9riences) par rapport \u00e0 un syst\u00e8me \u00e0 l'\u00e9tat de l'art, tout en offrant un compromis en termes de qualit\u00e9 tr\u00e8s int\u00e9ressant dans certaines configurations. En particulier, l'exploitation imm\u00e9diate de documents traduits permet de compenser tr\u00e8s rapidement l'absence d'un corpus de d\u00e9veloppement.",
"pdf_parse": {
"paper_id": "F14-2002",
"_pdf_hash": "",
"abstract": [
{
"text": "Dans cet article, nous montrons comment l'utilisation conjointe d'une technique d'alignement de phrases parall\u00e8les \u00e0 la demande et d'estimation de mod\u00e8les de traduction \u00e0 la vol\u00e9e permet une r\u00e9duction en temps tr\u00e8s notable (jusqu'\u00e0 93% dans nos exp\u00e9riences) par rapport \u00e0 un syst\u00e8me \u00e0 l'\u00e9tat de l'art, tout en offrant un compromis en termes de qualit\u00e9 tr\u00e8s int\u00e9ressant dans certaines configurations. En particulier, l'exploitation imm\u00e9diate de documents traduits permet de compenser tr\u00e8s rapidement l'absence d'un corpus de d\u00e9veloppement.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "Le d\u00e9veloppement de syst\u00e8mes de traduction automatique statistiques repose sur des quantit\u00e9s de donn\u00e9es parall\u00e8les en constante augmentation (voir par ex. (Smith et al., 2013) ). Son cout devient donc tr\u00e8s important, en termes de temps de calcul et de moyens de calcul et de stockage. Une cons\u00e9quence est que la disponibilit\u00e9 d'un syst\u00e8me pour l'utilisateur final, qui peut parfois correspondre \u00e0 un besoin pressant (Lewis, 2010), est soit impossible car trop couteuse, soit au mieux loin d'\u00eatre imm\u00e9diate. Pourtant, le d\u00e9veloppement standard d'un tel syst\u00e8me produit d'\u00e9normes bases de connaissances de traduction dont seule une infime partie est effectivement utilis\u00e9e.",
"cite_spans": [
{
"start": 155,
"end": 175,
"text": "(Smith et al., 2013)",
"ref_id": "BIBREF8"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction et motivations",
"sec_num": "1"
},
{
"text": "Des travaux pr\u00e9c\u00e9dents (Callison-Burch et al., 2005; Lopez, 2008 ) permettent d'am\u00e9liorer cette situation, en ne construisant que la partie utile des ressources de traduction qui sont n\u00e9cessaires \u00e0 la traduction d'un texte particulier. Dans ces approches, les tables de traduction sont construites \u00e0 la demande pour chaque nouveau texte, en s'appuyant sur un \u00e9chantillonnage \u00e0 taille constante des exemples de traduction permettant l'obtention de ressources \u00e0 la fois compactes et comp\u00e9titives sur le plan de la qualit\u00e9 des traductions produites. Cependant, cet \u00e9chantillonnage repose sur un pr\u00e9-traitement qui est lui m\u00eame tr\u00e8s couteux. En particulier, l'alignement automatique au niveau des mots du corpus bilingue est suppos\u00e9 pr\u00e9-exister, et son calcul peut requ\u00e9rir un temps consid\u00e9rable (par exemple, plus de 40 jours de calculs pour un processeur dans les exp\u00e9riences d\u00e9crites Section 3).",
"cite_spans": [
{
"start": 23,
"end": 52,
"text": "(Callison-Burch et al., 2005;",
"ref_id": "BIBREF0"
},
{
"start": 53,
"end": 64,
"text": "Lopez, 2008",
"ref_id": "BIBREF4"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction et motivations",
"sec_num": "1"
},
{
"text": "Dans cet article, nous allons montrer qu'il est possible d'obtenir des performances tr\u00e8s proches d'un syst\u00e8me de r\u00e9f\u00e9rence \u00e0 l'\u00e9tat de l'art, en effectuant \u00e0 la demande non seulement la s\u00e9lection des exemples de traduction, mais \u00e9galement l'alignement au niveau des mots des phrases parall\u00e8les correspondantes. Une telle approche est rendue possible par les travaux r\u00e9cents sur l'alignement cibl\u00e9 de Gong et al. (2013), eux-m\u00eames fond\u00e9s sur les r\u00e9sultats en alignement par \u00e9chantillonnage et segmentation r\u00e9cursive de Lardilleux et al. (2012) . En outre, le cadre propos\u00e9 ici offre des perspectives originales au niveau du d\u00e9veloppement incr\u00e9mental de syst\u00e8mes de traduction adapt\u00e9s (toute nouvelle phrase parall\u00e8le peut-\u00eatre imm\u00e9diatement utilis\u00e9e), ainsi que de la fusion du d\u00e9veloppement des syst\u00e8mes et de leur utilisation dans un cadre interactif (quelques secondes seulement sont n\u00e9cessaires pour traduire une phrase sans autre ressource qu'un corpus parall\u00e8le et un mod\u00e8le de langue cible).",
"cite_spans": [
{
"start": 518,
"end": 542,
"text": "Lardilleux et al. (2012)",
"ref_id": "BIBREF2"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction et motivations",
"sec_num": "1"
},
{
"text": "finally , what our fellow citizens are demanding is the right to information . enfin 0.607 0.001 0 0 , 0.001 0.445 0.001 0.001 0.001 c' 0.001 0 0.036 0.001 est 0.001 0 0.223 0.016 0.001 0.001 un 0.005 droit 0 0.084 \u00e0 0.001 0.001 0.003 0.001 0.018 l' 0.002 0.009 0.002 information 0.499 que 0.002 0.001 0.002 0.001 0.001 r\u00e9clament 0 0 0.152 0 0 0 nos 0.171 0.004 0.001 concitoyens 0 0.001 0.323 0.009 0 0 . 0.001 0.001 0.954 FIGURE 1 -Illustration de la proc\u00e9dure d'alignement r\u00e9cursif (tir\u00e9 de (Lardilleux et al., 2012) ). Les valeurs dans les cellules correspondent \u00e0 des scores d'association (0 < \u2264 0.001). Les points d'alignement retenus par l'algorithme correspondent \u00e0 ceux obtenus au niveau de r\u00e9cursion le plus profond (en gras).",
"cite_spans": [
{
"start": 485,
"end": 519,
"text": "(tir\u00e9 de (Lardilleux et al., 2012)",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction et motivations",
"sec_num": "1"
},
{
"text": "Dans la section 2, nous d\u00e9crivons le cadre propos\u00e9 pour une construction efficace de syst\u00e8mes reposant sur l'alignement de phrases \u00e0 la demande (2.1) et l'estimation de mod\u00e8les de traduction \u00e0 la vol\u00e9e (2.2). Nous pr\u00e9sentons dans la section 3 un ensemble d'exp\u00e9riences permettant de valider nos propositions : apr\u00e8s la description du contexte exp\u00e9rimental (3.1), nous d\u00e9crivons des configurations plus \u00e9conomes en temps dont les performances rejoignent, puis d\u00e9passent, celle d'un syst\u00e8me de r\u00e9f\u00e9rence \u00e0 l'\u00e9tat de l'art (3.2). Ces r\u00e9sultats sont discut\u00e9s dans la section 4. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction et motivations",
"sec_num": "1"
},
{
"text": "Nous utilisons un tableau de suffixes (Manber & Myers, 1990 ) pour indexer la partie source des corpus, ce qui permet un acc\u00e8s rapide en O(k) op\u00e9rations pour des segments de k tokens. Un \u00e9chantillon contenant des exemples d'un segment source \u00e0 traduiref peut ainsi \u00eatre obtenu efficacement et sa taille permet d'effectuer un compromis entre la pr\u00e9cision de l'estimation et sa vitesse. Les approches pr\u00e9c\u00e9dentes utilisant cette technique (Callison-Burch et al., 2005; Lopez, 2008) \u00e9taient fond\u00e9es sur une \u00e9chantillonnage al\u00e9atoire d\u00e9terministe, garantissant que l'on choisissait toujours les m\u00eames exemples pour les m\u00eames segments. La probabilit\u00e9 de traduction d'un segment se calcule alors simplement par : (Snover et al., 2006) et donnons des mesures correspondant \u00e0 la moyenne des scores du test pour 3 optimisations ind\u00e9pendantes lorsqu'appropri\u00e9. Comme indicateur principal du cout en ressources mat\u00e9rielles, le temps CPU utilisateur (user CPU time, tel que retourn\u00e9 par la commande UNIX time) a \u00e9t\u00e9 utilis\u00e9 comme focus sur la dur\u00e9e de calcul des processus mis en oeuvre. Les programmes ex\u00e9cut\u00e9s \u00e9tant \u00e0 diff\u00e9rents niveaux de maturit\u00e9 et d'optimisation, ainsi qu'ex\u00e9cut\u00e9s soit en code binaire (mgiza++) soit en dans une machine virtuelle Java (notre syst\u00e8me), seules de larges diff\u00e9rences pourront \u00eatre consid\u00e9r\u00e9es comme significatives.",
"cite_spans": [
{
"start": 38,
"end": 59,
"text": "(Manber & Myers, 1990",
"ref_id": "BIBREF5"
},
{
"start": 437,
"end": 466,
"text": "(Callison-Burch et al., 2005;",
"ref_id": "BIBREF0"
},
{
"start": 467,
"end": 479,
"text": "Lopez, 2008)",
"ref_id": "BIBREF4"
},
{
"start": 707,
"end": 728,
"text": "(Snover et al., 2006)",
"ref_id": "BIBREF9"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Estimation de mod\u00e8les de traduction \u00e0 la vol\u00e9e",
"sec_num": "2.2"
},
{
"text": "p(\u0113|f ) = count(f ,\u0113)/ \u0113 count(f ,\u0113 ),",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Estimation de mod\u00e8les de traduction \u00e0 la vol\u00e9e",
"sec_num": "2.2"
},
{
"text": "Cette section d\u00e9crit les syst\u00e8mes compar\u00e9s dans nos exp\u00e9riences, dont les caract\u00e9ristiques sont donn\u00e9es dans la Alignement des phrases \u00e0 la demande, pas d'optimisation (config0) Nous consid\u00e9rons maintenant une configuration tr\u00e8s simple : pour chaque document \u00e0 traduire en s\u00e9quence, les exemples de traduction sont choisis comme pour baseline-rnd et les phrases correspondantes sont align\u00e9es \u00e0 la demande, puis les tables pour le document sont construites sur la base des alignements obtenus. Ces tables sont utilis\u00e9es pour traduire chaque document en utilisant les param\u00e8tres par d\u00e9faut du d\u00e9codeur Moses. Le temps avant traduction du test (complet) n'inclut donc plus que le temps de construction du tableau de suffixes (2h) et l'estimation ind\u00e9pendante des tables pour l'ensemble des documents (363h), correspondant \u00e0 365h (15 jours), soit une r\u00e9duction de temps sensible de 70% par rapport \u00e0 baseline-vanilla. Cependant, le score BLEU se trouve tr\u00e8s d\u00e9grad\u00e9, avec une baisse de presque 6 points.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats exp\u00e9rimentaux",
"sec_num": "3.2"
},
{
"text": "Mise en cache des tables de traduction et des alignements (config1) Nous avons impl\u00e9ment\u00e9 un syst\u00e8me de caches permettant de conserver (non s\u00e9lectivement) d'une part les entr\u00e9es des tables d\u00e9j\u00e0 construites pour des segments, et d'autre part les alignements de phrases parall\u00e8les d\u00e9j\u00e0 calcul\u00e9s par le syst\u00e8me d'alignement \u00e0 la demande. Si le premier type de cache n'apporte qu'un gain de temps marginal, le second s'av\u00e8re plus performant, permettant de r\u00e9duire le temps global \u00e0 113h (4,7 jours). Nous observons une l\u00e9g\u00e8re am\u00e9lioration dans les scores BLEU et TER.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats exp\u00e9rimentaux",
"sec_num": "3.2"
},
{
"text": "S\u00e9lection d'exemples par r\u00e9utilisation de phrases align\u00e9es (config2) Dans nos syst\u00e8mes, le nombre de phrases \u00e0 aligner \u00e0 la demande a un impact direct sur le temps global. Nous avons donc \u00e9tudi\u00e9 une technique simple qui r\u00e9utilise pr\u00e9f\u00e9rentiellement des phrases d\u00e9j\u00e0 align\u00e9es. Ainsi, pour l'estimation des traductions d'un nouveau segment, les phrases d\u00e9j\u00e0 align\u00e9es qui le contiennent seront utilis\u00e9es tout d'abord, puis \u00e9ventuellement d'autres phrases seront align\u00e9es \u00e0 la demande pour parvenir aux 100 exemples requis. Dans notre impl\u00e9mentation, l'\u00e9chantillonnage al\u00e9atoire d\u00e9terministe a d'abord lieu dans le sous-corpus d\u00e9j\u00e0 align\u00e9, puis dans le corpus compl\u00e9mentaire. Cette technique m\u00e8ne \u00e0 de faibles pertes en BLEU et TER par rapport \u00e0 config1, mais permet pour un gain de temps sensible, d\u00e9sormais r\u00e9duit \u00e0 78h (3,25 jours), soit une r\u00e9duction de 93% par rapport \u00e0 baseline-vanilla. Nous avons en outre mesur\u00e9 une division par 5 du temps n\u00e9cessaire (normalis\u00e9 par la taille de chaque document) pour le calcul entre le premier et le dernier document de nos 100 documents de test, ce qui montre que notre approche parvient \u00e0 exploiter tr\u00e8s efficacement un cache qui grossit. Toutefois, l'\u00e9cart en performance avec baseline-vanilla reste cons\u00e9quent (environ 5,5 points BLEU). Utilisation incr\u00e9mentale de donn\u00e9es du domaine (config2+spec) La configuration pr\u00e9c\u00e9dente est tr\u00e8s en retrait par rapport \u00e0 baseline-vanilla, cependant elle ne d\u00e9pend pas de l'existence pr\u00e9alable d'un corpus de d\u00e9veloppement, lui-m\u00eame tr\u00e8s couteux \u00e0 obtenir. Toutefois, notre aligneur \u00e0 la demande nous permet trivialement d'ajouter aux donn\u00e9es parall\u00e8les toute donn\u00e9e nouvellement disponible. Nous consid\u00e9rons donc un sc\u00e9nario o\u00f9 chaque document complet devient imm\u00e9diatement disponible apr\u00e8s avoir \u00e9t\u00e9 r\u00e9vis\u00e9. Nous alignons donc \u00e0 la demande chaque document apr\u00e8s sa traduction en utilisant sa traduction de r\u00e9f\u00e9rence (le faire pour l'ensemble des 99 premiers documents du test prend une demi-heure environ), puis utilisons les phrases parall\u00e8les align\u00e9es ainsi obtenues pour construire une nouvelle Si le temps de d\u00e9veloppement reste sensiblement \u00e9quivalent \u00e0 config2, la performance en BLEU s'est tr\u00e8s nettement rapproch\u00e9e de celle de baseline-vanilla, puisque l'\u00e9cart n'est plus que de 1,8 points. Il est int\u00e9ressant de noter que cette configuration obtient un bien meilleur score TER que le syst\u00e8me complet (baisse de 2,2 points), ce qui s'explique facilement par la r\u00e9utilisation de grands segments sp\u00e9cifiques \u00e0 la classe de documents et correspond donc \u00e0 l'effet attendu d'une m\u00e9moire de traduction sous-phrastique. Il est particuli\u00e8rement instructif de consid\u00e9rer comment la performance de traduction \u00e9volue pour chaque document i, qui utilise donc possiblement des exemples de traduction provenant des i \u2212 1 documents pr\u00e9c\u00e9dents. La partie gauche de la Figure 2 montre l'\u00e9cart relatif en BLEU de nos deux variantes de config2 par rapport \u00e0 baseline-vanilla. Alors que, sans surprise, les documents sont syst\u00e9matiquement moins bien traduits par config2, config2+spec traduit moins bien les 30 premiers documents environ, puis traduit de mieux en mieux les documents. Ce r\u00e9sultat est particuli\u00e8rement remarquable, puiqu'au bout d'environ 60 documents, config2 traduit les documents syst\u00e9matiquement mieux que le syst\u00e8me de r\u00e9f\u00e9rence complet ayant b\u00e9n\u00e9fici\u00e9 d'une optimisation, tout en \u00e9conomisant 93% de temps de calcul.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats exp\u00e9rimentaux",
"sec_num": "3.2"
},
{
"text": "S\u00e9lection d'exemples par r\u00e9utilisation de phrases align\u00e9es et optimisation (config2:tuned) Nous nous ramenons maintenant \u00e0 une situation plus usuelle, o\u00f9 un corpus de d\u00e9veloppement est utilis\u00e9 pour optimiser le syst\u00e8me ; la contrepartie en temps est la construction des tables pour la traduction de ce corpus, ramenant la r\u00e9duction en temps par rapport \u00e0 baseline-vanilla \u00e0 86% (soit 7 jours). La performance obtenue est alors tr\u00e8s proche de celle de baseline-vanilla, avec une perte de seulement 0,7 points BLEU (m\u00e9trique vers laquelle est effectu\u00e9e l'optimisation). Ce r\u00e9sultat est l\u00e0 aussi particuli\u00e8rement int\u00e9ressant, car la performance obtenue est tr\u00e8s proche de celle d'un syst\u00e8me construit sur une tr\u00e8s grande quantit\u00e9 de donn\u00e9es.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "D\u00c9VELOPPEMENT EFFICACE DE SYST\u00c8MES DE TRADUCTION STATISTIQUE",
"sec_num": null
},
{
"text": "Utilisation incr\u00e9mentale de donn\u00e9es du domaine et optimisation (config2:tuned+spec) L'\u00e9tape naturelle suivante est de reprendre la configuration pr\u00e9c\u00e9dente config2:tuned et d'y adjoindre la possibilit\u00e9 \u00e9tudi\u00e9e pr\u00e9c\u00e9demment d'exploiter de fa\u00e7on incr\u00e9mentale un corpus additionnel constitu\u00e9 des documents pr\u00e9c\u00e9demment traduits. Bien qu'il s'agisse ici d'une configuration sous-optimale (en particulier, parce que l'optimisation est faite une fois pour toutes et ne prend pas en compte notre table additionnelle), les gains en traduction, toujours obtenus avec une r\u00e9duction en temps d'environ 86% par rapport au syst\u00e8me complet, sont relativement importants (+3,5 points BLEU et -2,1 points TER). On constate en outre (voir la partie droite de la Figure 2 ) une tendance \u00e0 rapidement exploiter les nouvelles donn\u00e9es, et donc \u00e0 accroitre l'avantage vis-\u00e0-vis du syst\u00e8me de r\u00e9f\u00e9rence tant que celui-ci n'a pas b\u00e9n\u00e9fici\u00e9 d'un r\u00e9-entrainement (couteux) permettant d'ajouter les nouvelles donn\u00e9es.",
"cite_spans": [],
"ref_spans": [
{
"start": 745,
"end": 753,
"text": "Figure 2",
"ref_id": "FIGREF0"
}
],
"eq_spans": [],
"section": "D\u00c9VELOPPEMENT EFFICACE DE SYST\u00c8MES DE TRADUCTION STATISTIQUE",
"sec_num": null
},
{
"text": "Nous avons d\u00e9crit une s\u00e9rie d'approches reposant sur le d\u00e9veloppement \u00e0 la vol\u00e9e des ressources de syst\u00e8mes de traduction statistique, ce qui permet un gain de temps consid\u00e9rable par rapport aux syst\u00e8mes \u00e0 l'\u00e9tat de l'art, tout en offrant, sous certaines conditions, des performances int\u00e9ressantes en termes de qualit\u00e9 de traduction. Le r\u00e9sultat le plus marquant est la d\u00e9monstration que des gains de traduction importants peuvent \u00eatre obtenus lorsque les documents traduits sont imm\u00e9diatement int\u00e9gr\u00e9s aux donn\u00e9es d'apprentissage, ce qui permet m\u00eame de se dispenser d'un corpus de d\u00e9veloppement. Il est ainsi possible d'aider un traducteur beaucoup plus rapidement que si celui-ci avait initialement \u00e0 produire la traduction d'un corpus de d\u00e9veloppement.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Discussion et perspectives",
"sec_num": "4"
},
{
"text": "L'exploitation incr\u00e9mentale des donn\u00e9es d'apprentissage pourrait ais\u00e9ment \u00eatre men\u00e9e au niveau de chaque phrase venant d'\u00eatre r\u00e9vis\u00e9e, laissant entrevoir des gains plus forts \u00e0 l'int\u00e9rieur des documents. Une autre perspective est la possibilit\u00e9 de r\u00e9aliser une optimisation du syst\u00e8me apr\u00e8s chaque ajout significatif de donn\u00e9es, plut\u00f4t qu'une fois pour toutes. Enfin, nous comptons \u00e9tudier diff\u00e9rentes mani\u00e8res d'am\u00e9liorer encore les temps de calcul, en particulier en d\u00e9terminant quels segments source ne sont pas utiles, voire correspondent \u00e0 de mauvaises unit\u00e9s de traduction, ainsi qu'en stoppant l'\u00e9chantillonnage des traductions pour un segment d\u00e8s qu'une distribution de traductions stable est obtenue.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Discussion et perspectives",
"sec_num": "4"
},
{
"text": ". http://www.statmt.org/moses",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
},
{
"text": ". Voir http://www.statmt.org/wmt13 et http://www.statmt.org/wmt14/medical-task 3. http://summaries.cochrane.org 4. http://www.kyloo.net/software/doku.php/mgiza:overview",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
}
],
"back_matter": [],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "Scaling phrase-based statistical machine translation to larger corpora and longer phrases",
"authors": [
{
"first": "",
"middle": [],
"last": "Callison-Burch C",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Bannard",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Schroeder J",
"suffix": ""
}
],
"year": 2005,
"venue": "Proceedings of NAACL",
"volume": "",
"issue": "",
"pages": "427--436",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CALLISON-BURCH C., BANNARD C. & SCHROEDER J. (2005). Scaling phrase-based statistical machine translation to larger corpora and longer phrases. In Proceedings of ACL, Ann Arbor, USA. CHERRY C. & FOSTER G. (2012). Batch tuning strategies for statistical machine translation. In Proceedings of NAACL, p. 427-436, Montr\u00e9al, Canada.",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "Improving bilingual sub-sentential alignment by sampling-based transpotting",
"authors": [
{
"first": "Max",
"middle": [
"A"
],
"last": "Gong L",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Yvon F",
"suffix": ""
}
],
"year": 2013,
"venue": "Proceedings of IWSLT",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GONG L., MAX A. & YVON F. (2013). Improving bilingual sub-sentential alignment by sampling-based transpotting. In Proceedings of IWSLT, Heidelberg, Germany.",
"links": null
},
"BIBREF2": {
"ref_id": "b2",
"title": "Hierarchical sub-sentential alignment with Anymalign",
"authors": [
{
"first": "J",
"middle": [],
"last": "Hardt D. & Elming",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Amta",
"suffix": ""
},
{
"first": "Usa",
"middle": [],
"last": "Denver",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Lardilleux A",
"suffix": ""
},
{
"first": "",
"middle": [
"&"
],
"last": "Yvon F",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Lepage Y",
"suffix": ""
}
],
"year": 2010,
"venue": "Proceedings of the annual meeting of the European Association for Machine Translation",
"volume": "",
"issue": "",
"pages": "279--286",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HARDT D. & ELMING J. (2010). Incremental Re-training for Post-editing SMT. In AMTA, Denver, USA. LARDILLEUX A., YVON F. & LEPAGE Y. (2012). Hierarchical sub-sentential alignment with Anymalign. In Procee- dings of the annual meeting of the European Association for Machine Translation, p. 279-286, Trento, Italy.",
"links": null
},
"BIBREF3": {
"ref_id": "b3",
"title": "Haitian Creole : How to Build and Ship an MT Engine from Scratch in 4 days, 17 hours, & 30 minutes",
"authors": [
{
"first": "Lewis",
"middle": [
"W"
],
"last": "",
"suffix": ""
}
],
"year": 2010,
"venue": "Proceedings of EAMT",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LEWIS W. (2010). Haitian Creole : How to Build and Ship an MT Engine from Scratch in 4 days, 17 hours, & 30 minutes. In Proceedings of EAMT, Saint-Rapha\u00ebl, France.",
"links": null
},
"BIBREF4": {
"ref_id": "b4",
"title": "Tera-Scale Translation Models via Pattern Matching",
"authors": [
{
"first": "",
"middle": [],
"last": "Lopez A",
"suffix": ""
}
],
"year": 2008,
"venue": "Proceedings of COLING",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LOPEZ A. (2008). Tera-Scale Translation Models via Pattern Matching. In Proceedings of COLING, Manchester, UK.",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "Suffix arrays : A new method for on-line string searches",
"authors": [
{
"first": "Manber",
"middle": [
"U &"
],
"last": "Myers G",
"suffix": ""
}
],
"year": 1990,
"venue": "Proceedings of the First Annual ACM-SIAM Symposium on Discrete Algorithms",
"volume": "",
"issue": "",
"pages": "319--327",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MANBER U. & MYERS G. (1990). Suffix arrays : A new method for on-line string searches. In Proceedings of the First Annual ACM-SIAM Symposium on Discrete Algorithms, p. 319-327.",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "A systematic comparison of various statistical alignment models. Computational linguistics",
"authors": [
{
"first": "",
"middle": [
"J"
],
"last": "Och F",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Ney H",
"suffix": ""
}
],
"year": 2003,
"venue": "",
"volume": "29",
"issue": "",
"pages": "19--51",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "OCH F. J. & NEY H. (2003). A systematic comparison of various statistical alignment models. Computational linguis- tics, 29(1), 19-51.",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "BLEU : a method for automatic evaluation of machine translation",
"authors": [
{
"first": "",
"middle": [],
"last": "Papineni K",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Roukos",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Ward T. & Zhu W.-J",
"suffix": ""
}
],
"year": 2002,
"venue": "Proceedings of ACL",
"volume": "",
"issue": "",
"pages": "311--318",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PAPINENI K., ROUKOS S., WARD T. & ZHU W.-J. (2002). BLEU : a method for automatic evaluation of machine translation. In Proceedings of ACL, p. 311-318.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "Dirt cheap web-scale parallel text from the common crawl",
"authors": [
{
"first": "J",
"middle": [
"R"
],
"last": "Smith",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Saint-Amand",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Plamada",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Koehn",
"suffix": ""
},
{
"first": "",
"middle": [
"&"
],
"last": "Callison-Burch C",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Lopez A",
"suffix": ""
}
],
"year": 2013,
"venue": "Proceedings of ACL",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SMITH J. R., SAINT-AMAND H., PLAMADA M., KOEHN P., CALLISON-BURCH C. & LOPEZ A. (2013). Dirt cheap web-scale parallel text from the common crawl. In Proceedings of ACL, Sofia, Bulgaria.",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "A study of translation edit rate with targeted human annotation",
"authors": [
{
"first": "M",
"middle": [],
"last": "Snover",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Dorr B",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Schwartz R",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Micciulla L. & Makhoul J",
"suffix": ""
}
],
"year": 2006,
"venue": "Proceedings of AMTA",
"volume": "",
"issue": "",
"pages": "223--231",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SNOVER M., DORR B., SCHWARTZ R., MICCIULLA L. & MAKHOUL J. (2006). A study of translation edit rate with targeted human annotation. In Proceedings of AMTA, p. 223-231, Cambridge, USA.",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "Stochastic inversion transduction grammars and bilingual parsing of parallel corpora",
"authors": [
{
"first": "",
"middle": [],
"last": "Wu D",
"suffix": ""
}
],
"year": 1997,
"venue": "Computational linguistics",
"volume": "23",
"issue": "3",
"pages": "377--404",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "WU D. (1997). Stochastic inversion transduction grammars and bilingual parsing of parallel corpora. Computational linguistics, 23(3), 377-404.",
"links": null
},
"BIBREF11": {
"ref_id": "b11",
"title": "Partitioning parallel documents using binary segmentation",
"authors": [
{
"first": "J",
"middle": [],
"last": "Xu",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Zens R. & Ney H",
"suffix": ""
}
],
"year": 2006,
"venue": "Proceedings of WMT",
"volume": "",
"issue": "",
"pages": "78--85",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "XU J., ZENS R. & NEY H. (2006). Partitioning parallel documents using binary segmentation. In Proceedings of WMT, p. 78-85.",
"links": null
}
},
"ref_entries": {
"FIGREF0": {
"type_str": "figure",
"num": null,
"uris": null,
"text": "Comparaison au niveau document relativement \u00e0 baseline-rnd. En abscisses est repr\u00e9sent\u00e9e la s\u00e9quence des documents traduits, et en ordonn\u00e9es l'\u00e9cart relatif en BLEU avec baseline-rnd."
},
"TABREF2": {
"num": null,
"text": "Description des corpus utilis\u00e9s Contexte exp\u00e9rimentalDonn\u00e9es Nous avons s\u00e9lectionn\u00e9 la paire de langue anglais-fran\u00e7ais pour cette \u00e9tude, car de tr\u00e8s grandes quantit\u00e9s de donn\u00e9es parall\u00e8les sont disponibles (plus de 400 millions de tokens anglais, soit plus de 15 fois la quantit\u00e9 utilis\u00e9e dans l'\u00e9tude de Lopez (2008)). Les donn\u00e9es parall\u00e8les tout venant de l'atelier WMT ont \u00e9t\u00e9 utilis\u00e9es, ainsi que des donn\u00e9es d'origines diverses du domaine m\u00e9dical 2 . Comme donn\u00e9es d'\u00e9valuation, nous avons retenu les r\u00e9sum\u00e9s syst\u00e9matiques de la litt\u00e9rature scientifique m\u00e9dicale produites par la collaboration Cochrane 3 , qui pr\u00e9sentent un certain nombre de caract\u00e9ristiques souhaitables : les textes source en anglais sont de bonne qualit\u00e9 ; la langue d'origine des documents est toujours l'anglais, \u00e9liminant ainsi de possibles effets de traductions multiples ; les traductions de r\u00e9f\u00e9rence sont de bonne qualit\u00e9, et la nature des documents tol\u00e8re l'existence d'une seule traduction normative ; il est enfin possible de traiter ce corpus document par document. Le tableau 1 recense quelques statistiques utiles sur les diff\u00e9rents corpus utilis\u00e9s.Syst\u00e8mes Nous avons utilis\u00e9 l'impl\u00e9mentation mgiza++ 4 de l'aligneur statistique giza++(Och & Ney, 2003). Nous avons par ailleurs d\u00e9velopp\u00e9 un aligneur \u00e0 la vol\u00e9e tel que d\u00e9crit section 2.1, en utilisant une taille d'\u00e9chantillon de 100. Ce choix est motiv\u00e9 par les r\u00e9sultats en traduction fond\u00e9e sur les segments donn\u00e9s parCallison-Burch et al. (2005). Les heuristiques standard du syst\u00e8me Moses pour l'extraction de traductions \u00e0 partir de matrices d'alignement ont \u00e9t\u00e9 utilis\u00e9es, avec une taille de segment maximale de 6 tokens. Des mod\u00e8les de langue 4-grammes pour le fran\u00e7ais ont \u00e9t\u00e9 appris sur l'ensemble des donn\u00e9es m\u00e9dicales en fran\u00e7ais de WMT'14. Le d\u00e9codeur de Moses a \u00e9t\u00e9 utilis\u00e9 dans toutes les exp\u00e9riences et KBMIRA (Cherry & Foster, 2012) a \u00e9t\u00e9 utilis\u00e9 pour l'optimisation de certains syst\u00e8mes.",
"type_str": "table",
"content": "<table><tr><td>3 Validation exp\u00e9rimentale</td></tr><tr><td>3.1</td></tr></table>",
"html": null
},
"TABREF3": {
"num": null,
"text": "Syst\u00e8me moses standard \u00e0 tr\u00e8s large \u00e9chelle (baseline-vanilla) Afin de pouvoir comparer nos propositions \u00e0 une approche bien connue et \u00e9prouv\u00e9e, nous avons impl\u00e9ment\u00e9 un syst\u00e8me Moses utilisant l'int\u00e9gralit\u00e9 des donn\u00e9es. Le temps de d\u00e9veloppement correspond \u00e0 l'ex\u00e9cution de mgiza++ sur le corpus parall\u00e8le (1 006h), puis la construction des tables de traduction et de r\u00e9ordonnancement (206h), et enfin l'optimisation du syst\u00e8me par KBMIRA (21h) apr\u00e8s filtrage des tables pour les textes \u00e0 traduire. Au total, 1 233h de temps processeur (plus de 51 jours) ont \u00e9t\u00e9 n\u00e9cessaires avant de pouvoir traduire la premi\u00e8re phrase du corpus de test. En outre, les tables de traduction et de r\u00e9ordonnancement compress\u00e9es occupent respectivement 20Go et 7,5Go, ce qui interdit leur installation sur la plupart des dispositifs mobiles.",
"type_str": "table",
"content": "<table><tr><td/><td>BLEU</td><td/><td>TER</td><td/><td/><td/><td/><td colspan=\"2\">temps CPU</td></tr><tr><td/><td/><td>\u2206</td><td/><td>\u2206</td><td colspan=\"4\">TS dev. test optim.</td><td>total</td><td>r\u00e9duction</td></tr><tr><td>baseline-vanilla</td><td>34,12\u00b10,10</td><td>-</td><td>48,59\u00b10,22</td><td>-</td><td>-</td><td colspan=\"2\">1 212h</td><td>21h</td><td>1 233h</td><td>-</td></tr><tr><td>baseline-rnd</td><td colspan=\"5\">33,95\u00b10,14 -0,17 48,79\u00b10,13 +0,2 2h</td><td colspan=\"2\">1 006h</td><td>20h</td><td>1 028h</td><td>16%</td></tr><tr><td>config0</td><td>28,24</td><td>-5,88</td><td>49,92</td><td colspan=\"4\">+1,33 2h 0h 363h</td><td>0h</td><td>365h</td><td>70%</td></tr><tr><td>config1</td><td>28,87</td><td>-5,25</td><td>49,40</td><td colspan=\"4\">+0,81 2h 0h 111h</td><td>0h</td><td>113h</td><td>90%</td></tr><tr><td>config2</td><td>28,58</td><td>-5,54</td><td>49,54</td><td colspan=\"3\">+0,95 2h 0h</td><td>76h</td><td>0h</td><td>78h</td><td>93%</td></tr><tr><td>config2+spec</td><td>32,33</td><td>-1,79</td><td>46,42</td><td colspan=\"3\">-2,17 2h 0h</td><td>76h</td><td>0h</td><td>78h</td><td>93%</td></tr><tr><td>config2:tuned</td><td colspan=\"7\">33,38\u00b10,06 -0,74 50,05\u00b10,05 +1,46 2h 72h 76h</td><td>20h</td><td>170h</td><td>86%</td></tr><tr><td colspan=\"8\">config2:tuned+spec 37,63\u00b10,05 +3,51 46,49\u00b10,04 -2,10 2h 72h 76h</td><td>20h</td><td>170h</td><td>86%</td></tr></table>",
"html": null
},
"TABREF4": {
"num": null,
"text": "Comparaison des performances de diff\u00e9rents syst\u00e8mes. Les r\u00e9sultats pour les syst\u00e8mes optimis\u00e9s (baseline, config2:tuned, config2:tuned+spec) sont d\u00e9compos\u00e9s en moyenne et \u00e9cart type pour 3 optimisations.",
"type_str": "table",
"content": "<table><tr><td>\u00c9chantillonnage al\u00e9atoire des exemples de traduction (baseline-rnd) Nous avons \u00e9galement construit un sys-</td></tr><tr><td>t\u00e8me obtenu par s\u00e9lection d'exemples d'apprentissage par \u00e9chantillonnage al\u00e9atoire d\u00e9terministe (Callison-Burch et al.,</td></tr><tr><td>2005; Lopez, 2008). Chaque segment d'un texte \u00e0 traduire est cherch\u00e9 dans un tableau de suffixes du corpus source, et</td></tr></table>",
"html": null
},
"TABREF5": {
"num": null,
"text": "table de traduction contenant deux scores (mod\u00e8le de traduction direct et p\u00e9nalit\u00e9 de segment) dont les param\u00e8tres sont repris de la table principale (Hardt & Elming, 2010). Puisque cette table est estim\u00e9e sur peu de donn\u00e9es et qu'elle est de plus tr\u00e8s sensible aux erreurs d'alignement, nous l'utilisons comme table secondaire (back-off ) en compl\u00e9ment de la table principale. Elle n'est donc utilis\u00e9e que pour les longs segments non pr\u00e9sents dans le grand corpus, ces segments correspondant possiblement \u00e0 des termes et de la phras\u00e9ologie propre \u00e0 nos documents techniques.",
"type_str": "table",
"content": "<table/>",
"html": null
}
}
}
}