Benjamin Aw
Add updated pkl file v3
6fa4bc9
{
"paper_id": "F13-1035",
"header": {
"generated_with": "S2ORC 1.0.0",
"date_generated": "2023-01-19T09:41:32.859781Z"
},
"title": "Pr\u00e9-segmentation de pages web et s\u00e9lection de documents pertinents en Questions-R\u00e9ponses",
"authors": [
{
"first": "Nicolas",
"middle": [],
"last": "Foucault",
"suffix": "",
"affiliation": {},
"email": ""
},
{
"first": "Sophie",
"middle": [],
"last": "Rosset",
"suffix": "",
"affiliation": {},
"email": ""
},
{
"first": "Gilles",
"middle": [],
"last": "Adda",
"suffix": "",
"affiliation": {},
"email": ""
}
],
"year": "",
"venue": null,
"identifiers": {},
"abstract": "Dans cet article, nous pr\u00e9sentons une m\u00e9thode de segmentation de pages web en blocs de texte pour la s\u00e9lection de documents pertinents en questions-r\u00e9ponses. La segmentation des documents se fait pr\u00e9alablement \u00e0 leur indexation en plus du d\u00e9coupage des segments obtenus en passages au moment de l'extraction des r\u00e9ponses. L'extraction du contenu textuel des pages est faite \u00e0 l'aide d'un extracteur maison. Nous avons test\u00e9 deux m\u00e9thodes de segmentation. L'une segmente les textes extraits des pages web uniform\u00e9ment en blocs de taille fixe, l'autre les segmente par TextTiling (Hearst, 1997) en blocs th\u00e9matiques de taille variable. Les exp\u00e9riences men\u00e9es sur un corpus de 500K pages web et un jeu de 309 questions factuelles en fran\u00e7ais, issus du projet Quaero (Quintard et al., 2010), montrent que la m\u00e9thode employ\u00e9e tend \u00e0 am\u00e9liorer la pr\u00e9cision globale (top-10) du syst\u00e8me RITEL-QR (Rosset et al., 2008) dans sa t\u00e2che.",
"pdf_parse": {
"paper_id": "F13-1035",
"_pdf_hash": "",
"abstract": [
{
"text": "Dans cet article, nous pr\u00e9sentons une m\u00e9thode de segmentation de pages web en blocs de texte pour la s\u00e9lection de documents pertinents en questions-r\u00e9ponses. La segmentation des documents se fait pr\u00e9alablement \u00e0 leur indexation en plus du d\u00e9coupage des segments obtenus en passages au moment de l'extraction des r\u00e9ponses. L'extraction du contenu textuel des pages est faite \u00e0 l'aide d'un extracteur maison. Nous avons test\u00e9 deux m\u00e9thodes de segmentation. L'une segmente les textes extraits des pages web uniform\u00e9ment en blocs de taille fixe, l'autre les segmente par TextTiling (Hearst, 1997) en blocs th\u00e9matiques de taille variable. Les exp\u00e9riences men\u00e9es sur un corpus de 500K pages web et un jeu de 309 questions factuelles en fran\u00e7ais, issus du projet Quaero (Quintard et al., 2010), montrent que la m\u00e9thode employ\u00e9e tend \u00e0 am\u00e9liorer la pr\u00e9cision globale (top-10) du syst\u00e8me RITEL-QR (Rosset et al., 2008) dans sa t\u00e2che.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Abstract",
"sec_num": null
}
],
"body_text": [
{
"text": "C'est un truisme de nos jours de dire qu'Internet est une mine d'information, de ressources et de savoirs qui peuvent sembler infinis. Ces informations sont utiles \u00e0 toute personne souhaitant s'informer ou se distraire, mais \u00e9galement aux chercheurs de nombreux domaines (biologie, sciences sociales, informatique, . . .) pour qui Internet est devenu un objet de recherches. Cependant, malgr\u00e9 les progr\u00e8s li\u00e9s, par exemple par le passage au WEB 2.0, on ne peut que constater que les informations sur le Web ne sont pas fiables, ni m\u00eame accessibles ais\u00e9ment.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Les syst\u00e8mes de r\u00e9ponses aux questions sont un moyen efficace de rendre cette information \u00e0 la fois plus accessible et plus fiable. Plus accessible, car ces syst\u00e8mes r\u00e9pondent de fa\u00e7on pr\u00e9cise, rapide et concise aux questions qui leur sont pos\u00e9es en langue naturelle (\u00e0 l'instar des moteurs de recherche usuels 1 ). Plus fiable, car les r\u00e9ponses sont valid\u00e9es par le syst\u00e8me (Pe\u00f1as et al., 2007) .",
"cite_spans": [
{
"start": 311,
"end": 312,
"text": "1",
"ref_id": null
},
{
"start": 375,
"end": 395,
"text": "(Pe\u00f1as et al., 2007)",
"ref_id": "BIBREF22"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Une \u00e9tape primordiale (dans toutes les acceptions du terme) pour les syst\u00e8mes de questionsr\u00e9ponses (QR) est l'op\u00e9ration qui consiste \u00e0 extraire le contenu textuel des pages. Pour cela, il est n\u00e9cessaire (Grau, 2004) de nettoyer, restructurer et filtrer leur contenu (par exemple de corriger les balises HTML et les erreurs d'encodage, d'\u00e9liminer les codes javascript r\u00e9siduels et les spams).",
"cite_spans": [
{
"start": 203,
"end": 215,
"text": "(Grau, 2004)",
"ref_id": "BIBREF12"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "La qualit\u00e9 (au sens de leur ad\u00e9quation \u00e0 la t\u00e2che QR) des textes obtenus d\u00e9pend fortement de l'extracteur employ\u00e9 (Baroni et al., 2008) et de la qualit\u00e9 intrins\u00e8que de l'information contenue dans les documents \u00e0 l'origine. Une t\u00e2che cruciale, mais souvent m\u00e9sestim\u00e9e, pour un syst\u00e8me QR est de pouvoir filtrer les documents dont la qualit\u00e9 intrins\u00e8que est faible, afin d'augmenter la pr\u00e9cision de la s\u00e9lection des meilleurs candidats lors de l'extraction de r\u00e9ponses.",
"cite_spans": [
{
"start": 114,
"end": 135,
"text": "(Baroni et al., 2008)",
"ref_id": "BIBREF2"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Au cours de travaux pr\u00e9c\u00e9dents (Foucault et al., 2011) , nous avons mis en place une strat\u00e9gie de s\u00e9lection des documents pertinents pour un syst\u00e8me QR en fran\u00e7ais, en compl\u00e9ment de la s\u00e9lection de documents traditionnelle effectu\u00e9e par le moteur de recherche du syst\u00e8me. Cette s\u00e9lection repose sur une mesure de la qualit\u00e9 intrins\u00e8que des documents en utilisant un mod\u00e8le de langue, qui nous fournit a priori des mesures objectives sur le degr\u00e9 d'informativit\u00e9 d'un texte. Cette strat\u00e9gie permet d'\u00e9carter de la liste des candidats s\u00e9lectionn\u00e9s par le moteur de recherche du syst\u00e8me, les documents les plus bruit\u00e9s (c'est-\u00e0-dire de faible qualit\u00e9) pour la t\u00e2che QR. Ici, un texte est consid\u00e9r\u00e9 comme pertinent ou non dans sa globalit\u00e9.",
"cite_spans": [
{
"start": 31,
"end": 54,
"text": "(Foucault et al., 2011)",
"ref_id": "BIBREF11"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "Il est de coutume en QR (Ligozat, 2006) de d\u00e9couper les documents en passage soit au moment de leur indexation, soit au cours des recherches. L'id\u00e9e est de r\u00e9duire la variabilit\u00e9 naturelle des documents en taille et en contenu. En effet, avec des segments textuels plus petits, on peut esp\u00e9rer une variabilit\u00e9 plus faible, et un contenu informationnel (corr\u00e9l\u00e9 au contenu linguistique, en particulier lexical et s\u00e9mantique) plus coh\u00e9rent, ce qui en retour doit permettre l'extraction de r\u00e9ponses plus pertinentes que celles issues de la globalit\u00e9 du texte. Cette strat\u00e9gie a fait ses preuves par le pass\u00e9 et des travaux r\u00e9cents autour du d\u00e9coupage de textes en passages (Tiedemann, 2007; Khalid et Verberne, 2008) l'ont consolid\u00e9e.",
"cite_spans": [
{
"start": 24,
"end": 39,
"text": "(Ligozat, 2006)",
"ref_id": "BIBREF19"
},
{
"start": 670,
"end": 687,
"text": "(Tiedemann, 2007;",
"ref_id": "BIBREF27"
},
{
"start": 688,
"end": 713,
"text": "Khalid et Verberne, 2008)",
"ref_id": "BIBREF16"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "A notre connaissance, personne n'a tent\u00e9 de segmenter les documents pr\u00e9alablement \u00e0 leur indexation, tout en d\u00e9coupant les segments obtenus en passages au moment des recherches dans le but de r\u00e9duire plus fortement la variabilit\u00e9 des documents. Dans cet article, nous d\u00e9taillons plusieurs exp\u00e9riences visant \u00e0 mesurer l'impact d'une telle pr\u00e9-segmentation sur la t\u00e2che QR.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Introduction",
"sec_num": "1"
},
{
"text": "L'id\u00e9e de segmenter des documents textuels (article de journaux, livres, . . .) en blocs de texte est un axe de recherche activement explor\u00e9 dans les ann\u00e9es 90 en Recherche d'Information (RI) textuelle. Pour r\u00e9duire la variabilit\u00e9 linguistique d'un texte, une premi\u00e8re id\u00e9e, explor\u00e9e notamment par Salton (Salton et al., 1996) et Hearst (Hearst, 1997) consiste \u00e0 op\u00e9rer une segmentation en blocs th\u00e9matiques, les fronti\u00e8res de blocs \u00e9tant les endroits o\u00f9 on d\u00e9tecte un changement de th\u00e8me. Des calculs de proximit\u00e9 lexicale entre blocs adjacents permettent de r\u00e9organiser le texte d'origine en segments plus homog\u00e8nes (mais toujours de taille variable). Chez Salton, la proximit\u00e9 lexicale est obtenue \u00e0 l'aide de mesures de distances vectorielles, chaque bloc \u00e9tant repr\u00e9sent\u00e9 par un vecteur lexical. En fonction de valeurs seuils sur ces distances, des fusions entre paragraphes sont op\u00e9r\u00e9es. (Salton et al., 1996) effectue une fusion it\u00e9rative, chaque it\u00e9ration fusionnant les paragraphes jug\u00e9s similaires selon cette distance, le document \u00e9tant explor\u00e9 du d\u00e9but \u00e0 la fin, de gauche \u00e0 droite. L'it\u00e9ration s'arr\u00eate lorsque le texte ne contient plus que des blocs th\u00e9matiquement homog\u00e8nes. A partir de cette segmentation, Salton d\u00e9rive un graphe des relations th\u00e9matiques qu'entretiennent les blocs au sein du document. Dans le m\u00eame esprit, (Hearst, 1997) fusionne des blocs de textes entre eux, mais de mani\u00e8re plus fine. Elle se fonde sur une analyse plus linguistique du texte que Salton. En effet, l'algorithme de segmentation de Hearst (TextTiling) utilise la structure du discours (ici la th\u00e9orie des cha\u00eenes lexicales) et se fonde sur une segmentation en unit\u00e9s lexicales \u00e9l\u00e9mentaires (tokens). Ces tokens forment les unit\u00e9s de base pour la repr\u00e9sentation de chaque bloc textuel. Cet algorithme utilise une mesure de distance fond\u00e9e sur les statistiques de co-occurence. TextTiling ne fonctionne pas sur les paragraphes d'origine du texte contrairement \u00e0 l'algorithme de Salton, mais sur des blocs de pseudo-phrases construits sur la base de ces paragraphes.",
"cite_spans": [
{
"start": 305,
"end": 326,
"text": "(Salton et al., 1996)",
"ref_id": "BIBREF26"
},
{
"start": 337,
"end": 351,
"text": "(Hearst, 1997)",
"ref_id": "BIBREF15"
},
{
"start": 894,
"end": 915,
"text": "(Salton et al., 1996)",
"ref_id": "BIBREF26"
},
{
"start": 1341,
"end": 1355,
"text": "(Hearst, 1997)",
"ref_id": "BIBREF15"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Travaux connexes",
"sec_num": "2"
},
{
"text": "Plus r\u00e9cemment, des travaux dans le contexte de la RI dans des documents multim\u00e9dia ont propos\u00e9 une nouvelle m\u00e9thode d'indexation de pages web (Faessel, 2008) . Celle-ci s'appuie sur l'information des repr\u00e9sentations DOM 2 et CSS des pages web pour segmenter ces derni\u00e8res avant indexation ; (Bruno et al., 2009) d\u00e9montrent que l'utilisation de ces informations conduit \u00e0 une augmentation des performances d'un moteur de recherche dans sa t\u00e2che. D'autres travaux de segmentation pour la classification automatique de pages web en th\u00e8me (Qi et Davison, 2009) utilisent la repr\u00e9sentation DOM. Dans (Gupta et al., 2003) l'extraction du contenu textuel des pages se fait automatiquement \u00e0 l'aide de la structure des arbres DOM. Dans (Asirvatham et al., 2001 ), l'\u00e9chantillonnage des couleurs des images est utilis\u00e9 pour cat\u00e9goriser les pages qui les contiennent. Dans (Kovacevic1 et al., 2004) , pour la m\u00eame t\u00e2che, on utilise le rendu visuel. (Guo et al., 2007) utilise des indices visuels (le rendu des pages fourni par le moteur de Mozilla 3 ), g\u00e9om\u00e9triques (les coordonn\u00e9es des \u00e9l\u00e9ments de l'arbre DOM au sein du rendu des pages) et le style des pages (la r\u00e9p\u00e9tition d'information) pour d\u00e9finir les blocs d'information pertinents trouv\u00e9s dans les pages et les annoter s\u00e9mantiquement. Dans (Feng et al., 2005) , les auteurs \u00e9tudient l'impact d'indices visuels et structurels sur la segmentation en blocs au travers d'une t\u00e2che de cat\u00e9gorisation fonctionnelle (blocs de type menu, titre, contenu, etc.). Dans (Vadrevu et al., 2005) , les auteurs utilisent des crit\u00e8res de d\u00e9coupage fond\u00e9s sur l'homog\u00e9n\u00e9it\u00e9 locale du contenu informationnel des pages web (i.e. mod\u00e8le de segmentation bas\u00e9 sur le concept de path entropy) et d'indices visuels d\u00e9riv\u00e9s de leur repr\u00e9sentation DOM. Certains syst\u00e8mes comme VIPS (Cai et al., 2003) se fondent essentiellement sur ce type d'indices pour segmenter les pages.",
"cite_spans": [
{
"start": 143,
"end": 158,
"text": "(Faessel, 2008)",
"ref_id": "BIBREF8"
},
{
"start": 292,
"end": 312,
"text": "(Bruno et al., 2009)",
"ref_id": "BIBREF4"
},
{
"start": 536,
"end": 557,
"text": "(Qi et Davison, 2009)",
"ref_id": "BIBREF23"
},
{
"start": 596,
"end": 616,
"text": "(Gupta et al., 2003)",
"ref_id": "BIBREF14"
},
{
"start": 729,
"end": 753,
"text": "(Asirvatham et al., 2001",
"ref_id": "BIBREF1"
},
{
"start": 864,
"end": 889,
"text": "(Kovacevic1 et al., 2004)",
"ref_id": "BIBREF18"
},
{
"start": 940,
"end": 958,
"text": "(Guo et al., 2007)",
"ref_id": "BIBREF13"
},
{
"start": 1289,
"end": 1308,
"text": "(Feng et al., 2005)",
"ref_id": "BIBREF10"
},
{
"start": 1507,
"end": 1529,
"text": "(Vadrevu et al., 2005)",
"ref_id": "BIBREF29"
},
{
"start": 1804,
"end": 1822,
"text": "(Cai et al., 2003)",
"ref_id": "BIBREF5"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Travaux connexes",
"sec_num": "2"
},
{
"text": "2. Document Object Model (DOM) www.w3.org/DOM 3. www.mozilla.org A notre connaissance, aucune tentative d'application de ces techniques comme proc\u00e9dure de segmentation de pages web n'a \u00e9t\u00e9 faite en QR. Nous avons choisi dans un premier temps d'utiliser un algorithme de premi\u00e8re g\u00e9n\u00e9ration : le TextTiling de Hearst. Ce dernier a montr\u00e9 son int\u00e9r\u00eat pour la s\u00e9lection de document pertinent en RI et se fonde sur une philosophie sousjacente commune \u00e0 notre domaine en TAL (Traitement Automatique des langues). De plus, on en trouve des impl\u00e9mentations en libre acc\u00e8s (contrairement \u00e0 certains des algorithmes \u00e9voqu\u00e9s plus haut). Par ailleurs, TextTiling pr\u00e9sente l'avantage de fournir une segmentation en blocs th\u00e9matiques qui pourrait \u00eatre mise \u00e0 contribution par la suite pour renforcer l'analyse s\u00e9mantique des documents par un syst\u00e8me QR. Dans la perspective de travaux futurs en segmentation de pages web autour de leur repr\u00e9sentation visuelle en QR, le TextTiling nous permettra de b\u00e9n\u00e9ficier d'une segmentation TAL de r\u00e9f\u00e9rence \u00e0 comparer \u00e0 des approches de RI non textuelles. C'est dans cette optique que le travail pr\u00e9sent\u00e9 dans cet article se positionne.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Travaux connexes",
"sec_num": "2"
},
{
"text": "Dans la section 3, nous pr\u00e9sentons notre m\u00e9thode de segmentation textuelle d\u00e9velopp\u00e9e sur la base du TextTiling de Hearst ; dans la section 4 nous \u00e9valuons cette m\u00e9thode sur la t\u00e2che Questions-R\u00e9ponses. Nous concluons et pr\u00e9sentons les perspectives de ce travail dans la section 5.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Travaux connexes",
"sec_num": "2"
},
{
"text": "Dans cette section, nous pr\u00e9sentons la m\u00e9thode de segmentation de pages web que nous avons mise en place pour la s\u00e9lection de documents pertinents en QR.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Segmentation textuelle de pages web",
"sec_num": "3"
},
{
"text": "La figure 1 pr\u00e9sente les \u00e9tapes-cl\u00e9s de la cha\u00eene de traitement qui correspond \u00e0 cette m\u00e9tode : de l'extraction du contenu textuel des pages \u00e0 l'obtention de blocs de textes normalis\u00e9s. Chaque \u00e9tape cl\u00e9 de cette cha\u00eene est d\u00e9crite successivement dans les sections 3.2, 3.3 et 3.4.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Segmentation textuelle de pages web",
"sec_num": "3"
},
{
"text": "FIGURE 1 -Notre proc\u00e9dure de segmentation de pages web en lien avec les (pr\u00e9-)traitements QR.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Pr\u00e9sentation g\u00e9n\u00e9rale",
"sec_num": "3.1"
},
{
"text": "En th\u00e9orie, nous aurions d\u00fb inverser les \u00e9tapes de normalisation et de segmentation afin que la segmentation b\u00e9n\u00e9ficie des traitements de normalisation (voir section 3.4). Cependant, une telle inversion n\u00e9cessite certaines modifications de notre cha\u00eene de normalisation : en effet, cette derni\u00e8re supprime l'indentation des textes utile \u00e0 l'algorithme de TextTiling (voir section 3.3.1). Nous n'avons malheureusement pas eu le temps de mettre en place les modifications ad\u00e9quates.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Pr\u00e9sentation g\u00e9n\u00e9rale",
"sec_num": "3.1"
},
{
"text": "Notre proc\u00e9dure d'extraction se d\u00e9roule en deux temps : pr\u00e9-traitement (section 3.2.1) puis repr\u00e9sentation et extraction du contenu textuel des pages web (section 3.2.2). La phase de pr\u00e9traitement des pages web est prise en charge par Kitten (Falco et al., 2012) , un outil de traitement de documents web d\u00e9velopp\u00e9 au LIMSI. La repr\u00e9sentation et l'extraction du contenu textuel des pages web se fait sur les versions des pages pr\u00e9-trait\u00e9es par Kitten \u00e0 l'aide du navigateur textuel de pages web Lynx 4 .",
"cite_spans": [
{
"start": 242,
"end": 262,
"text": "(Falco et al., 2012)",
"ref_id": "BIBREF9"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Extraction",
"sec_num": "3.2"
},
{
"text": "Le pr\u00e9-traitement des documents web est r\u00e9alis\u00e9 \u00e0 l'aide de Kitten. Ce choix est motiv\u00e9 par les performances \u00e9tat de l'art que ce dernier a obtenu en qualit\u00e9 d'extracteur textuel (Falco et al., 2012) dans le cadre d'\u00e9valuations QR sur le syst\u00e8me Fidji .",
"cite_spans": [
{
"start": 179,
"end": 199,
"text": "(Falco et al., 2012)",
"ref_id": "BIBREF9"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Pr\u00e9-traitement des pages web",
"sec_num": "3.2.1"
},
{
"text": "Kitten est un outil d\u00e9velopp\u00e9 au LIMSI, d\u00e9di\u00e9 aux traitements et \u00e0 la normalisation de donn\u00e9es Html. Les pages web fournies en entr\u00e9e sont trait\u00e9es et de nouvelles pages web au format Xhtml valide W3C (encod\u00e9es en UTF8) sont produites en sortie. Ces pages sont bien form\u00e9es (correction de leur squelette Html via jTidy 5 ), sans erreurs d'encodage (correction de leur encodage via jChardet 6 et conversion des caract\u00e8res Html sp\u00e9ciaux dans une base Unicode via HTMLCleaner 7 ).",
"cite_spans": [
{
"start": 390,
"end": 391,
"text": "6",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Pr\u00e9-traitement des pages web",
"sec_num": "3.2.1"
},
{
"text": "Kitten produit des pages web exploitables en Extraction d'Information (EI) (Baroni et al., 2008) sans appliquer d'heuristiques de nettoyage pr\u00e9d\u00e9finies contrairement \u00e0 des outils classiques de nettoyage de contenu comme Boilerpipe (Kohlsch\u00fctter et al., 2010) ou Ncleaner (Evert, 2008 ",
"cite_spans": [
{
"start": 75,
"end": 96,
"text": "(Baroni et al., 2008)",
"ref_id": "BIBREF2"
},
{
"start": 231,
"end": 258,
"text": "(Kohlsch\u00fctter et al., 2010)",
"ref_id": "BIBREF17"
},
{
"start": 271,
"end": 283,
"text": "(Evert, 2008",
"ref_id": "BIBREF7"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Pr\u00e9-traitement des pages web",
"sec_num": "3.2.1"
},
{
"text": "Nous avons utilis\u00e9 deux strat\u00e9gies de segmentation en blocs de texte. La premi\u00e8re strat\u00e9gie consiste \u00e0 segmenter les textes extraits par Lynx en blocs th\u00e9matiques de taille variable par l'algorithme de TextTiling de Hearst (Hearst, 1997) . La seconde strat\u00e9gie vise \u00e0 contr\u00f4ler la pr\u00e9c\u00e9dente et segmente les textes extraits par Lynx de fa\u00e7on uniforme en blocs de taille identique.",
"cite_spans": [
{
"start": 223,
"end": 237,
"text": "(Hearst, 1997)",
"ref_id": "BIBREF15"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Strat\u00e9gie de segmentation",
"sec_num": "3.3"
},
{
"text": "L'algorithme de TextTiling de Hearst (Hearst, 1997) segmente un texte en unit\u00e9s appel\u00e9es multi-paragraphes en fonction des th\u00e9matiques abord\u00e9es dans le texte. Traditionnellement, il est utilis\u00e9 pour d\u00e9tecter les th\u00e9matiques dans des textes fortement structur\u00e9s (e.g. articles de journaux, textes issus de livres . . .) et de grande taille (i.e. de plusieurs pages). Une des questions sous-jacente aux exp\u00e9riences que nous avons men\u00e9es \u00e9tait de savoir si cet algorithme pourrait \u00eatre utile pour la segmentation de pages web.",
"cite_spans": [
{
"start": 37,
"end": 51,
"text": "(Hearst, 1997)",
"ref_id": "BIBREF15"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Segmentation par TextTiling",
"sec_num": "3.3.1"
},
{
"text": "L'algorithme, pr\u00e9sent\u00e9 en d\u00e9tail dans (Hearst, 1997) ",
"cite_spans": [
{
"start": 38,
"end": 52,
"text": "(Hearst, 1997)",
"ref_id": "BIBREF15"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Segmentation par TextTiling",
"sec_num": "3.3.1"
},
{
"text": "Cette segmentation repr\u00e9sente la condition contr\u00f4le dans nos exp\u00e9riences. Elle se contente de segmenter chaque fichier texte qui lui est pr\u00e9sent\u00e9 en 8 blocs, c'est-\u00e0-dire la moyenne du nombre de blocs de segmentation obtenus par TextTiling sur notre corpus d'exp\u00e9rimentation au cours de tests pr\u00e9liminaires ; ceci revient \u00e0 fixer la taille moyenne des blocs en nombre de lignes (voir la section 4.3).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Segmentation uniforme",
"sec_num": "3.3.2"
},
{
"text": "La segmentation se fait selon un parcours lin\u00e9aire du texte d'entr\u00e9e, du d\u00e9but jusqu'\u00e0 la fin, les points de coupe sont d\u00e9termin\u00e9s \u00e0 l'avance selon le nombre total de lignes dans le texte et le nombre maximum de blocs fix\u00e9 en sortie (8). Les textes trop petits (ceux de moins de 8 lignes) ne sont pas segment\u00e9s et sont consid\u00e9r\u00e9s comme des blocs uniques.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Segmentation uniforme",
"sec_num": "3.3.2"
},
{
"text": "La normalisation est une \u00e9tape durant laquelle un texte brut est trait\u00e9 afin qu'une unit\u00e9 lexicale soit explicitement d\u00e9finie. Au cours de la normalisation, le texte est transform\u00e9 dans une forme o\u00f9 les mots et les nombres sont clairement d\u00e9limit\u00e9s, la ponctuation est s\u00e9par\u00e9e des mots, et des phrases ou pseudo-phrases sont clairement form\u00e9es.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Normalisation",
"sec_num": "3.4"
},
{
"text": "Notre normalisation passe par plusieurs \u00e9tapes : s\u00e9paration des mots et nombres de la ponctuation, reconstruction de la casse sur les mots, ajout de la ponctuation le cas \u00e9ch\u00e9ant et s\u00e9paration en phrases ou pseudo-phrases du texte d'entr\u00e9e. Elle s'appuie sur des lexiques, des dictionnaires de r\u00e8gles et des mod\u00e8les de langue (D\u00e9chelotte et al., 2007) .",
"cite_spans": [
{
"start": 326,
"end": 351,
"text": "(D\u00e9chelotte et al., 2007)",
"ref_id": "BIBREF6"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Normalisation",
"sec_num": "3.4"
},
{
"text": "Les exp\u00e9riences pr\u00e9sent\u00e9es ont pour but d'examiner l'hypoth\u00e8se selon laquelle une fen\u00eatre d'analyse plus r\u00e9duite pour traiter les documents web permettrait une s\u00e9lection du syst\u00e8me QR plus pr\u00e9cise (c'est-\u00e0-dire obtenir des r\u00e9ponses plus pertinentes et en plus grand nombre). \u00c0 cette fin, nous r\u00e9alisons une segmentation avant l'indexation des documents en plus du d\u00e9coupage habituel en passages r\u00e9alis\u00e9 lors de l'extraction des r\u00e9ponses. La segmentation des documents est effectu\u00e9e par TextTiling ou uniform\u00e9ment par notre algorithme de segmentation contr\u00f4le.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Hypoth\u00e8ses de travail et conditions exp\u00e9rimentales",
"sec_num": "4.1"
},
{
"text": "Les \u00e9valuations de l'impact de ces algorithmes de segmentation sur le syst\u00e8me RITEL-QR (voir section 4.2) sont pr\u00e9sent\u00e9es section 4.5 selon 3 conditions exp\u00e9rimentales :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Hypoth\u00e8ses de travail et conditions exp\u00e9rimentales",
"sec_num": "4.1"
},
{
"text": "condition 1 : condition sans segmentation ou baseline (bsln) ; condition 2 : condition en segmentation par TextTiling (TT) ; condition 3 : condition en segmentation contr\u00f4le (ctrl).",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Hypoth\u00e8ses de travail et conditions exp\u00e9rimentales",
"sec_num": "4.1"
},
{
"text": "Le syst\u00e8me RITEL-QR que nous utilisons dans les exp\u00e9riences est compl\u00e8tement d\u00e9crit dans (Bernard et al., 2009) et . Il s'agit d'un syst\u00e8me qui a \u00e9t\u00e9 con\u00e7u \u00e0 l'origine comme un syst\u00e8me de dialogue (Toney et al., 2008 ",
"cite_spans": [
{
"start": 89,
"end": 111,
"text": "(Bernard et al., 2009)",
"ref_id": "BIBREF3"
},
{
"start": 197,
"end": 216,
"text": "(Toney et al., 2008",
"ref_id": "BIBREF28"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Syst\u00e8me d'exp\u00e9rimentation : RITEL-QR",
"sec_num": "4.2"
},
{
"text": "Le corpus de pages web utilis\u00e9 dans nos exp\u00e9rimentations (ci-apr\u00e8s Q07fr) est compos\u00e9 de 499 734 pages web (5Gbytes) tout venant (i.e. journal, Wikip\u00e9dia, blog, site de vente, forum, etc.) et en fran\u00e7ais. Il nous est fourni par le projet Quaero 11 et sert de corpus standard dans le cadre des \u00e9valuations QR au sein du projet (Quintard et al., 2010) . Les questions de test et d'entra\u00eenement utilis\u00e9es (309 et 722 questions) proviennent du m\u00eame projet. Elles ont \u00e9t\u00e9 cr\u00e9\u00e9es \u00e0 partir de logs utilisateurs (Quintard et al., 2010) Le tableau 1 (a) pr\u00e9sente les r\u00e9sultats des traitements (en terme de nombre de fichiers trait\u00e9s) de chacune des \u00e9tapes de notre cha\u00eene de segmentation, ainsi que des \u00e9tapes de pr\u00e9-traitements QR (annotation et indexation), pour chacune des conditions d'exp\u00e9rimentations (Cond) \u00e0 partir de Q07fr. Ces r\u00e9sultats suivent le sch\u00e9ma de la figure 1. Chaque sortie d'une \u00e9tape d\u00e9pend du r\u00e9sultat qui pr\u00e9c\u00e8de pour une condition donn\u00e9e. On peut noter que le nombre de fichiers issus de la segmentation dans les conditions contr\u00f4le (ctrl) et TextTiling (TT) sont proches (environ 20K blocs de diff\u00e9rence). Les blocs index\u00e9s dans ces 2 conditions correspondent aux 484 060 textes index\u00e9s en condition baseline (bsln). La dur\u00e9e des traitements (parall\u00e8les/m\u00eames serveurs) dans ces conditions est respectivement de 2 \u00e0 5 fois plus longue qu'en condition sans segmentation.",
"cite_spans": [
{
"start": 326,
"end": 349,
"text": "(Quintard et al., 2010)",
"ref_id": "BIBREF24"
},
{
"start": 504,
"end": 527,
"text": "(Quintard et al., 2010)",
"ref_id": "BIBREF24"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Corpus",
"sec_num": "4.3"
},
{
"text": "Le tableau 1 (b) pr\u00e9sente le nombre moyen de blocs (nbB) et de lignes par bloc (nbL) obtenus en conditions contr\u00f4le et TextTiling. Ces informations sont aussi donn\u00e9es pour la condition baseline \u00e0 titre indicatif (un bloc par fichier). On constate que l'algorithme de TextTiling et le contr\u00f4le se comportent de fa\u00e7on tr\u00e8s similaire : en moyenne, le nombre de blocs produits (ctrl : 8 et TT : 7,3) ainsi que leur taille (ctrl : 19,4 et TT : 20,9) sont semblables. Le TextTiling produit une l\u00e9g\u00e8re sur-segmentation : la d\u00e9viation standard est 2 fois plus \u00e9lev\u00e9e que celle du contr\u00f4le (ctrl) en nombre de lignes, le maximum de blocs pour un m\u00eame document \u00e9tant \u00e9galement plus grand.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Corpus",
"sec_num": "4.3"
},
{
"text": "11. http://www.quaero.org 12. http://www.exalead.com",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Corpus",
"sec_num": "4.3"
},
{
"text": "Dans ce travail, nous employons les m\u00e9triques habituellement utilis\u00e9es en QR :",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9triques d'\u00e9valuation",
"sec_num": "4.4"
},
{
"text": "-la pr\u00e9cision d\u00e9finie \u00e9quation (1), est le ratio entre le nombre de r\u00e9ponses correctes et le nombre total de questions. Si le syst\u00e8me est capable de fournir plusieurs r\u00e9ponses par question, on ne consid\u00e8re que la premi\u00e8re. CR i est le rang de la premi\u00e8re r\u00e9ponse correcte pour la question i. CR i prend pour valeur +\u221e si aucune r\u00e9ponse correcte n'a \u00e9t\u00e9 trouv\u00e9e. -Le top-n d\u00e9fini \u00e9quation (2), mesure la pr\u00e9cision selon les r\u00e9ponses correctes de rang 1 \u00e0 n.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9triques d'\u00e9valuation",
"sec_num": "4.4"
},
{
"text": "-Le Mean Reciprocal Rank (Moyenne des R\u00e9ciproques des Rangs ou MRR) d\u00e9fini \u00e9quation (3), permet de mesurer la qualit\u00e9 du classement des r\u00e9ponses (10 par question) effectu\u00e9 par le syst\u00e8me. La r\u00e9ponse correcte la mieux class\u00e9e est pond\u00e9r\u00e9e par l'inverse de son rang initial. Une absence de r\u00e9ponse correcte entra\u00eene une contribution nulle. Le score final correspond \u00e0 la moyenne des contributions.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9triques d'\u00e9valuation",
"sec_num": "4.4"
},
{
"text": "pr\u00e9cision = #CR i = 1 #questions (1) top-n = #CR i \u2264 n #questions (2) MRR = 1 CR i #questions (3)",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "M\u00e9triques d'\u00e9valuation",
"sec_num": "4.4"
},
{
"text": "Les r\u00e9sultats sont pr\u00e9sent\u00e9s dans les parties (a) et (b) du tableau 2. On a utilis\u00e9 le test de McNemar (McNemar, 1947; Agresti, 1990) de R 13 pour juger de la significativit\u00e9 des r\u00e9sultats pr\u00e9sent\u00e9s tableau 2 (a). Les r\u00e9sultats du test sont donn\u00e9s tableau 3 14 .",
"cite_spans": [
{
"start": 95,
"end": 118,
"text": "McNemar (McNemar, 1947;",
"ref_id": "BIBREF20"
},
{
"start": 119,
"end": 133,
"text": "Agresti, 1990)",
"ref_id": "BIBREF0"
},
{
"start": 139,
"end": 141,
"text": "13",
"ref_id": null
},
{
"start": 258,
"end": 260,
"text": "14",
"ref_id": null
}
],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats",
"sec_num": "4.5"
},
{
"text": "On constate, tableau 2 (a), que les deux conditions de segmentation test\u00e9es sont proches de la condition baseline sugg\u00e9rant ainsi que la segmentation n'apporte pas de r\u00e9els b\u00e9n\u00e9fices \u00e0 notre syst\u00e8me QR. Les performances du syst\u00e8me sont tr\u00e8s proches en terme de pr\u00e9cision (0,6 point de diff\u00e9rence au plus entre bsln et TT Ainsi, on peut constater que l'hypoth\u00e8se H 0 selon laquelle la diff\u00e9rence observ\u00e9e entre les conditions bsln et ctrl n'est pas significative pour les performences QR en top-10, est \u00e0 peine rejet\u00e9e : la valeur de p obtenue dans ces conditions n'\u00e9tant pas inf\u00e9rieure mais tout juste align\u00e9e sur le seuil critique de significativit\u00e9 \u03b1 15 .",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats",
"sec_num": "4.5"
},
{
"text": "L'\u00e9tude du nombre total de bonnes r\u00e9ponses fournies par le syst\u00e8me selon leur position au sein du top-10 tableau 2 (b) (bsln : 178, TT : 183 et ctrl : 190) confirme cette tendance. On voit aussi dans ce tableau que les r\u00e9ponses apport\u00e9s par le syst\u00e8me en condition ctrl (jusqu'\u00e0 12 r\u00e9ponses supppl\u00e9mentaires, soit 3,9% de r\u00e9ponses en plus) se trouvent dans le top-3, l\u00e0 o\u00f9 la segmentation par TextTiling a tendance \u00e0 apporter de nouvelles r\u00e9ponses \u00e0 des rangs inf\u00e9rieurs.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats",
"sec_num": "4.5"
},
{
"text": "Nous avons pu constat\u00e9 que la segmentation des documents acc\u00e9l\u00e9rait les (pr\u00e9-)traitements QR. ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "R\u00e9sultats",
"sec_num": "4.5"
},
{
"text": "Au cours de travaux pr\u00e9c\u00e9dents (Foucault et al., 2011) nous avons mis en place une strat\u00e9gie de s\u00e9lection de documents pertinents pour un syst\u00e8me QR sur le fran\u00e7ais. Elle s'appuie sur un mod\u00e8le de langue qui fournit a priori une mesure objective du degr\u00e9 d'informativit\u00e9 d'un texte. Cette mesure de la qualit\u00e9 intrins\u00e8que des documents sert \u00e0 filtrer les documents non pertinents pour la t\u00e2che QR. L'effet d'un tel filtrage appliqu\u00e9 \u00e0 l'\u00e9chelle globale des documents, c'est av\u00e9r\u00e9 assez limit\u00e9. La variabilit\u00e9 naturelle des pages web en taille et en contenu (comme leur caract\u00e8re multi-th\u00e9matique) p\u00e9nalise vraisemblablement le syst\u00e8me dans sa t\u00e2che. Nous avons donc cherch\u00e9 \u00e0 d\u00e9velopper un syst\u00e8me de segmentation qui permette d'appliquer ce filtrage \u00e0 une \u00e9chelle non plus globale mais locale, sur des sous-parties de document. Le travail pr\u00e9sent\u00e9 dans cet article avait pour objectif de mettre un tel syst\u00e8me de segmentation en place.",
"cite_spans": [
{
"start": 31,
"end": 54,
"text": "(Foucault et al., 2011)",
"ref_id": "BIBREF11"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "5"
},
{
"text": "La question \u00e0 laquelle nous avons voulu r\u00e9pondre dans cette article est la suivante : segmenter les documents avant l'indexation, en plus du d\u00e9coupage habituel des documents en passages lors de l'extraction des r\u00e9ponses, am\u00e9liore-t-il les performances d'un syst\u00e8me de questions-r\u00e9ponses ?",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "5"
},
{
"text": "Pour r\u00e9pondre \u00e0 cette question, nous avons test\u00e9 deux types de pr\u00e9-segmentation support\u00e9e par une extraction de contenu textuel de pages web maison. L'une segmente les textes extraits via un algorithme de texttiling classique (TextTiling) en blocs th\u00e9matiques de taille variable. L'autre les segmente uniform\u00e9ment en blocs de taille fixe, sans d\u00e9coupage th\u00e9matique.",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "5"
},
{
"text": "Les r\u00e9sultats obtenus ne nous permettent pas de trancher nettement en faveur de l'une ou l'autre de ces approches de segmentation. Cependant, les tendances observ\u00e9es sugg\u00e8rent qu'une pr\u00e9segmentation des pages web comme nous l'avons d\u00e9finie peut servir un syst\u00e8me QR ; segmenter les documents avant l'indexation afin de renforcer l'effet du d\u00e9coupage de ces derniers en passages lors de l'extraction des r\u00e9ponses, am\u00e9liore la pr\u00e9cision du syst\u00e8me en terme de top-10 sans pour autant diminuer cette derni\u00e8re en terme de top-1. Cette tendance est plus marqu\u00e9e pour la segmentation uniforme de pages web que pour une segmentation plus \u00ab intelligente \u00bb \u00e0 l'aide de l'algorithme de TextTiling (sans analyse morphologique, le calcul des scores lexicaux se faisant par block comparison). Ce constat est contradictoire avec d'autres travaux, mais confirme certaines conclusions apport\u00e9es par Hearst dans ses travaux de segmentation th\u00e9matique de textes en Recherche d'Information (Hearst, 1997) . Il serait int\u00e9ressant de d\u00e9terminer les raisons amenant \u00e0 ce constat. Si la nature des documents (page web versus texte), est l'une des raisons qui pourrait l'expliquer, qu'en est-il par exemple de la longueur des documents et de la version du TextTiling que nous avons utilis\u00e9 dans nos exp\u00e9riences ?",
"cite_spans": [
{
"start": 971,
"end": 985,
"text": "(Hearst, 1997)",
"ref_id": "BIBREF15"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "5"
},
{
"text": "En perspective des travaux pr\u00e9sent\u00e9s dans cet article, nous projetons d'abord d'\u00e9tudier l'impact d'une pr\u00e9-segmentation uniforme des pages web sur notre strat\u00e9gie de s\u00e9lection de documents pertinents d\u00e9velopp\u00e9e dans (Foucault et al., 2011) . Concernant nos travaux de segmentation de pages web en QR \u00e0 partir de la repr\u00e9sentation visuelle des pages, nous comptons \u00e9valuer la pertinence de la proc\u00e9dure d'extraction mise en place au sein du syst\u00e8me de segmentation de pages web pr\u00e9sent\u00e9 dans cet article.",
"cite_spans": [
{
"start": 216,
"end": 239,
"text": "(Foucault et al., 2011)",
"ref_id": "BIBREF11"
}
],
"ref_spans": [],
"eq_spans": [],
"section": "Conclusion et perspectives",
"sec_num": "5"
},
{
"text": "c ATALA",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "",
"sec_num": null
}
],
"back_matter": [
{
"text": "Ce travail a \u00e9t\u00e9 financ\u00e9 partiellement par l'OSEO, dans le contexte du programme Quaero. TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne ",
"cite_spans": [],
"ref_spans": [],
"eq_spans": [],
"section": "Remerciements",
"sec_num": null
}
],
"bib_entries": {
"BIBREF0": {
"ref_id": "b0",
"title": "Categorical data analysis",
"authors": [
{
"first": "A",
"middle": [],
"last": "Agresti",
"suffix": ""
}
],
"year": 1990,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "AGRESTI, A. (1990). Categorical data analysis. New York : Wiley, London.",
"links": null
},
"BIBREF1": {
"ref_id": "b1",
"title": "Web page classification based on document structure",
"authors": [
{
"first": "A",
"middle": [
"P"
],
"last": "Asirvatham",
"suffix": ""
},
{
"first": "K",
"middle": [
"K"
],
"last": "Ravi",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Prakash",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Kranthi",
"suffix": ""
},
{
"first": "K",
"middle": [],
"last": "Ravi",
"suffix": ""
}
],
"year": 2001,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ASIRVATHAM, A. P., RAVI, K. K., PRAKASH, A., KRANTHI, A. et RAVI, K. (2001). Web page classification based on document structure.",
"links": null
},
"BIBREF2": {
"ref_id": "b2",
"title": "Cleaneval : a competition for cleaning web pages",
"authors": [
{
"first": "M",
"middle": [],
"last": "Baroni",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Chantree",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Kilgarriff",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Sharoff",
"suffix": ""
}
],
"year": 2008,
"venue": "LREC. European Language Resources Association",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BARONI, M., CHANTREE, F., KILGARRIFF, A. et SHAROFF, S. (2008). Cleaneval : a competition for cleaning web pages. In LREC. European Language Resources Association.",
"links": null
},
"BIBREF3": {
"ref_id": "b3",
"title": "The limsi participation in the qast 2009 track : experimentating on answer scoring",
"authors": [
{
"first": "G",
"middle": [],
"last": "Bernard",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Rosset",
"suffix": ""
},
{
"first": "O",
"middle": [],
"last": "Galibert",
"suffix": ""
},
{
"first": "E",
"middle": [],
"last": "Bilinski",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Adda",
"suffix": ""
}
],
"year": 2009,
"venue": "CLEF'09",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BERNARD, G., ROSSET, S., GALIBERT, O., BILINSKI, E. et ADDA, G. (2009). The limsi participation in the qast 2009 track : experimentating on answer scoring. In CLEF'09, Corfu, Grece.",
"links": null
},
"BIBREF4": {
"ref_id": "b4",
"title": "Ir web search based on presentation and multimedia content",
"authors": [
{
"first": "E",
"middle": [],
"last": "Bruno",
"suffix": ""
},
{
"first": "N",
"middle": [],
"last": "Faessel",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Glotin",
"suffix": ""
},
{
"first": "J",
"middle": [
"L"
],
"last": "Ma\u00eetre",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Michel",
"suffix": ""
}
],
"year": 2009,
"venue": "Actes des 25emes Journees Bases de Donnees Avancees",
"volume": "",
"issue": "",
"pages": "408--407",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "BRUNO, E., FAESSEL, N., GLOTIN, H., MA\u00ceTRE, J. L. et MICHEL., S. (2009). Ir web search based on presentation and multimedia content. In Actes des 25emes Journees Bases de Donnees Avancees (BDA 2009), pages 408-407.",
"links": null
},
"BIBREF5": {
"ref_id": "b5",
"title": "VIPS : a vision-based page segmentation algorithm",
"authors": [
{
"first": "D",
"middle": [],
"last": "Cai",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Yu",
"suffix": ""
},
{
"first": "J.-R",
"middle": [],
"last": "Wen",
"suffix": ""
},
{
"first": "W.-Y",
"middle": [],
"last": "Ma",
"suffix": ""
}
],
"year": 2003,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "CAI, D., YU, S., WEN, J.-R. et MA, W.-Y. (2003). VIPS : a vision-based page segmentation algorithm. Rapport technique, Microsoft (MSR-TR-2003-79).",
"links": null
},
"BIBREF6": {
"ref_id": "b6",
"title": "Improved machine translation of speech-to-text outputs",
"authors": [
{
"first": "D",
"middle": [],
"last": "D\u00e9chelotte",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Schwenk",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Adda",
"suffix": ""
},
{
"first": "J.-L",
"middle": [],
"last": "Gauvain",
"suffix": ""
}
],
"year": 2007,
"venue": "Interspeech'07",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "D\u00c9CHELOTTE, D., SCHWENK, H., ADDA, G. et GAUVAIN, J.-L. (2007). Improved machine translation of speech-to-text outputs. In Interspeech'07, Antwerp. Belgium.",
"links": null
},
"BIBREF7": {
"ref_id": "b7",
"title": "A lightweight and efficient tool for cleaning web pages",
"authors": [
{
"first": "S",
"middle": [],
"last": "Evert",
"suffix": ""
}
],
"year": 2008,
"venue": "LREC. European Language Resources Association",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "EVERT, S. (2008). A lightweight and efficient tool for cleaning web pages. In LREC. European Language Resources Association.",
"links": null
},
"BIBREF8": {
"ref_id": "b8",
"title": "Indexation de blocs extraits de pages web en utilisant le rendu visuel",
"authors": [
{
"first": "N",
"middle": [],
"last": "Faessel",
"suffix": ""
}
],
"year": 2008,
"venue": "CORIA",
"volume": "",
"issue": "",
"pages": "393--400",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "FAESSEL, N. (2008). Indexation de blocs extraits de pages web en utilisant le rendu visuel. In CORIA, pages 393-400. Universit\u00e9 de Renne 1.",
"links": null
},
"BIBREF9": {
"ref_id": "b9",
"title": "Kitten : a tool for normalizing html and extracting its textual content",
"authors": [
{
"first": "M.-H",
"middle": [],
"last": "Falco",
"suffix": ""
},
{
"first": "V",
"middle": [],
"last": "Moriceau",
"suffix": ""
},
{
"first": "A",
"middle": [
";"
],
"last": "Vilnat",
"suffix": ""
},
{
"first": "N",
"middle": [
"C C"
],
"last": "Choukri",
"suffix": ""
},
{
"first": "K",
"middle": [],
"last": "Declerck",
"suffix": ""
},
{
"first": "T",
"middle": [],
"last": "Dogan",
"suffix": ""
},
{
"first": "M",
"middle": [
"U"
],
"last": "Maegaard",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Mariani",
"suffix": ""
},
{
"first": "J",
"middle": [],
"last": "Odijk",
"suffix": ""
},
{
"first": "J",
"middle": [],
"last": "Piperidis",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "",
"suffix": ""
}
],
"year": 2012,
"venue": "\u00e9diteurs : Proceedings of the Eight International Conference on Language Resources and Evaluation (LREC'12)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "FALCO, M.-H., MORICEAU, V. et VILNAT, A. (2012). Kitten : a tool for normalizing html and extracting its textual content. In CHAIR), N. C. C., CHOUKRI, K., DECLERCK, T., DOGAN, M. U., MAEGAARD, B., MARIANI, J., ODIJK, J. et PIPERIDIS, S., \u00e9diteurs : Proceedings of the Eight Interna- tional Conference on Language Resources and Evaluation (LREC'12), Istanbul, Turkey. European Language Resources Association (ELRA).",
"links": null
},
"BIBREF10": {
"ref_id": "b10",
"title": "A learning approach to discovering web page semantic structures",
"authors": [
{
"first": "J",
"middle": [],
"last": "Feng",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Haffner",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Gilbert",
"suffix": ""
}
],
"year": 2005,
"venue": "Proceedings of the Eighth International Conference on Document Analysis and Recognition, ICDAR'05",
"volume": "",
"issue": "",
"pages": "1055--1059",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "FENG, J., HAFFNER, P. et GILBERT, M. (2005). A learning approach to discovering web page semantic structures. In Proceedings of the Eighth International Conference on Document Analysis and Recognition, ICDAR'05, pages 1055-1059, Washington, DC, USA. IEEE Computer Society.",
"links": null
},
"BIBREF11": {
"ref_id": "b11",
"title": "Language modeling for document selection in question answering",
"authors": [
{
"first": "N",
"middle": [],
"last": "Foucault",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Adda",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Rosset",
"suffix": ""
}
],
"year": 2011,
"venue": "RANLP'11",
"volume": "",
"issue": "",
"pages": "716--720",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "FOUCAULT, N., ADDA, G. et ROSSET, S. (2011). Language modeling for document selection in question answering. In RANLP'11, pages 716-720, Hissar, Bulgaria.",
"links": null
},
"BIBREF12": {
"ref_id": "b12",
"title": "Approches et m\u00e9thodologies pour la r\u00e9ponse automatique \u00e0 des questions adapat\u00e9es \u00e0 un cadre int\u00e9ractif en domaine ouvert",
"authors": [
{
"first": "O",
"middle": [],
"last": "Galibert",
"suffix": ""
},
{
"first": "",
"middle": [],
"last": "Limsi/Cnrs",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Grau",
"suffix": ""
}
],
"year": 2004,
"venue": "Visualisation d'Information et Interaction, chapitre 10 : Syst\u00e8mes de question-r\u00e9ponse",
"volume": "",
"issue": "",
"pages": "189--218",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GALIBERT, O. (2009). Approches et m\u00e9thodologies pour la r\u00e9ponse automatique \u00e0 des questions adapat\u00e9es \u00e0 un cadre int\u00e9ractif en domaine ouvert. Th\u00e8se de doctorat, Paris-Sud11, LIMSI/CNRS. GRAU, B. (2004). M\u00e9thodes Avanc\u00e9es pour les Syst\u00e8mes de Recherche d'Informations. In Visualisation d'Information et Interaction, chapitre 10 : Syst\u00e8mes de question-r\u00e9ponse, pages 189-218. Herm\u00e8s. Dir. M. Ihadjadene.",
"links": null
},
"BIBREF13": {
"ref_id": "b13",
"title": "A general approach for partitioning web page content based on geometric and style information",
"authors": [
{
"first": "H",
"middle": [],
"last": "Guo",
"suffix": ""
},
{
"first": "J",
"middle": [],
"last": "Mahmud",
"suffix": ""
},
{
"first": "Y",
"middle": [],
"last": "Borodin",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Stent",
"suffix": ""
},
{
"first": "I",
"middle": [],
"last": "Ramakrishnan",
"suffix": ""
}
],
"year": 2007,
"venue": "Proceedings of the Ninth International Conference on Document Analysis and Recognition",
"volume": "02",
"issue": "",
"pages": "929--933",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GUO, H., MAHMUD, J., BORODIN, Y., STENT, A. et RAMAKRISHNAN, I. (2007). A general approach for partitioning web page content based on geometric and style information. In Proceedings of the Ninth International Conference on Document Analysis and Recognition -Volume 02, ICDAR '07, pages 929-933, Washington, DC, USA. IEEE Computer Society.",
"links": null
},
"BIBREF14": {
"ref_id": "b14",
"title": "Dom-based content extraction of html documents",
"authors": [
{
"first": "S",
"middle": [],
"last": "Gupta",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Kaiser",
"suffix": ""
},
{
"first": "D",
"middle": [],
"last": "Neistadt",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Grimm",
"suffix": ""
}
],
"year": 2003,
"venue": "Proceedings of the 12th international conference on World Wide Web, WWW '03",
"volume": "",
"issue": "",
"pages": "207--214",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "GUPTA, S., KAISER, G., NEISTADT, D. et GRIMM, P. (2003). Dom-based content extraction of html documents. In Proceedings of the 12th international conference on World Wide Web, WWW '03, pages 207-214, New York, NY, USA. ACM.",
"links": null
},
"BIBREF15": {
"ref_id": "b15",
"title": "Texttiling : Segmenting text into multi-paragraph subtopic passages",
"authors": [
{
"first": "M",
"middle": [
"A"
],
"last": "Hearst",
"suffix": ""
}
],
"year": 1997,
"venue": "Computational Linguistics",
"volume": "23",
"issue": "",
"pages": "33--64",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "HEARST, M. A. (1997). Texttiling : Segmenting text into multi-paragraph subtopic passages. Computational Linguistics, 23:33-64.",
"links": null
},
"BIBREF16": {
"ref_id": "b16",
"title": "Passage retrieval for question answering using sliding windows",
"authors": [
{
"first": "M",
"middle": [
"A"
],
"last": "Khalid",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Verberne",
"suffix": ""
}
],
"year": 2008,
"venue": "Proceedings of COLING 2008, Workshop IR4QA",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KHALID, M. A. et VERBERNE, S. (2008). Passage retrieval for question answering using sliding windows. In In Proceedings of COLING 2008, Workshop IR4QA.",
"links": null
},
"BIBREF17": {
"ref_id": "b17",
"title": "Boilerplate detection using shallow text features",
"authors": [
{
"first": "C",
"middle": [],
"last": "Kohlsch\u00fctter",
"suffix": ""
},
{
"first": "P",
"middle": [],
"last": "Fankhauser",
"suffix": ""
},
{
"first": "W",
"middle": [],
"last": "Nejdl",
"suffix": ""
}
],
"year": 2010,
"venue": "Proc. of 3rd ACM International Conference on Web Search and Data Mining",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KOHLSCH\u00dcTTER, C., FANKHAUSER, P. et NEJDL, W. (2010). Boilerplate detection using shallow text features. In Proc. of 3rd ACM International Conference on Web Search and Data Mining New York City, NY USA (WSDM 2010).",
"links": null
},
"BIBREF18": {
"ref_id": "b18",
"title": "Visual adjacency multigraphs . a novel approach for a web page classification",
"authors": [
{
"first": "M",
"middle": [],
"last": "Kovacevic1",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Diligenti",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Gori",
"suffix": ""
},
{
"first": "V",
"middle": [],
"last": "Milutinovic1",
"suffix": ""
}
],
"year": 2004,
"venue": "Proceedings of the Workshop on Statistical Approaches to Web Mining (SAWM)",
"volume": "",
"issue": "",
"pages": "38--49",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "KOVACEVIC1, M., DILIGENTI, M., GORI, M. et MILUTINOVIC1, V. (2004). Visual adjacency mul- tigraphs . a novel approach for a web page classification. In Proceedings of the Workshop on Statistical Approaches to Web Mining (SAWM), pages 38-49.",
"links": null
},
"BIBREF19": {
"ref_id": "b19",
"title": "Exploitation et fusion de connaissances locales pour la recherche d'informations pre\u0107ises",
"authors": [
{
"first": "A",
"middle": [
"L"
],
"last": "Ligozat",
"suffix": ""
}
],
"year": 2006,
"venue": "",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "LIGOZAT, A. L. (2006). Exploitation et fusion de connaissances locales pour la recherche d'informa- tions pre\u0107ises. Th\u00e8se de doctorat, Paris-Sud11, LIMSI/CNRS.",
"links": null
},
"BIBREF20": {
"ref_id": "b20",
"title": "Note on the sampling error of the difference between correlated proportions or percentages",
"authors": [
{
"first": "Q",
"middle": [],
"last": "Mcnemar",
"suffix": ""
}
],
"year": 1947,
"venue": "Psychometrika",
"volume": "12",
"issue": "2",
"pages": "153--157",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MCNEMAR, Q. (1947). Note on the sampling error of the difference between correlated propor- tions or percentages. Psychometrika, 12(2):153-157.",
"links": null
},
"BIBREF21": {
"ref_id": "b21",
"title": "Fidji : using syntax for validating answers in multiple documents",
"authors": [
{
"first": "V",
"middle": [],
"last": "Moriceau",
"suffix": ""
},
{
"first": "X",
"middle": [],
"last": "Tannier",
"suffix": ""
}
],
"year": 2010,
"venue": "Information Retrieval",
"volume": "13",
"issue": "5",
"pages": "507--533",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "MORICEAU, V. et TANNIER, X. (2010). Fidji : using syntax for validating answers in multiple documents. Information Retrieval, 13(5):507-533.",
"links": null
},
"BIBREF22": {
"ref_id": "b22",
"title": "Overview of the answer validation exercise",
"authors": [
{
"first": "A",
"middle": [],
"last": "Pe\u00f1as",
"suffix": ""
},
{
"first": "\u00c1",
"middle": [],
"last": "Rodrigo",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Verdejo",
"suffix": ""
}
],
"year": 2007,
"venue": "CLEF",
"volume": "",
"issue": "",
"pages": "237--248",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "PE\u00d1AS, A., RODRIGO, \u00c1. et VERDEJO, F. (2007). Overview of the answer validation exercise 2007. In CLEF, pages 237-248.",
"links": null
},
"BIBREF23": {
"ref_id": "b23",
"title": "Web page classification : Features and algorithms",
"authors": [
{
"first": "X",
"middle": [],
"last": "Qi",
"suffix": ""
},
{
"first": "B",
"middle": [
"D"
],
"last": "Davison",
"suffix": ""
}
],
"year": 2009,
"venue": "ACM Computing Surveys",
"volume": "41",
"issue": "2",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "QI, X. et DAVISON, B. D. (2009). Web page classification : Features and algorithms. ACM Computing Surveys, 41(2):12 :1-12 :31.",
"links": null
},
"BIBREF24": {
"ref_id": "b24",
"title": "Question answering on web data : The QA evaluation in Quaero",
"authors": [
{
"first": "L",
"middle": [],
"last": "Quintard",
"suffix": ""
},
{
"first": "O",
"middle": [],
"last": "Galibert",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Adda",
"suffix": ""
},
{
"first": "B",
"middle": [],
"last": "Grau",
"suffix": ""
},
{
"first": "D",
"middle": [],
"last": "Laurent",
"suffix": ""
},
{
"first": "V",
"middle": [],
"last": "Moriceau",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Rosset",
"suffix": ""
},
{
"first": "X",
"middle": [],
"last": "Tannier",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Vilnat",
"suffix": ""
}
],
"year": 2010,
"venue": "LREC'10",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "QUINTARD, L., GALIBERT, O., ADDA, G., GRAU, B., LAURENT, D., MORICEAU, V., ROSSET, S., TANNIER, X. et VILNAT, A. (2010). Question answering on web data : The QA evaluation in Quaero. In LREC'10, Valletta, Malta.",
"links": null
},
"BIBREF25": {
"ref_id": "b25",
"title": "The limsi participation to the qast track",
"authors": [
{
"first": "S",
"middle": [],
"last": "Rosset",
"suffix": ""
},
{
"first": "O",
"middle": [],
"last": "Galibert",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Bernard",
"suffix": ""
},
{
"first": "E",
"middle": [],
"last": "Bilinski",
"suffix": ""
},
{
"first": "G",
"middle": [],
"last": "Adda",
"suffix": ""
}
],
"year": 2008,
"venue": "Working Notes of CLEF 2008 Workshop",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "ROSSET, S., GALIBERT, O., BERNARD, G., BILINSKI, E. et ADDA, G. (2008). The limsi participation to the qast track. In Working Notes of CLEF 2008 Workshop, Aarhus, Denmark.",
"links": null
},
"BIBREF26": {
"ref_id": "b26",
"title": "Automatic text decomposition using text segments and text themes",
"authors": [
{
"first": "G",
"middle": [],
"last": "Salton",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Singhal",
"suffix": ""
},
{
"first": "C",
"middle": [],
"last": "Buckley",
"suffix": ""
},
{
"first": "M",
"middle": [],
"last": "Mitra",
"suffix": ""
}
],
"year": 1996,
"venue": "Proceedings of the the seventh ACM conference on Hypertext, HYPERTEXT '96",
"volume": "",
"issue": "",
"pages": "53--65",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "SALTON, G., SINGHAL, A., BUCKLEY, C. et MITRA, M. (1996). Automatic text decomposition using text segments and text themes. In Proceedings of the the seventh ACM conference on Hypertext, HYPERTEXT '96, pages 53-65, New York, NY, USA. ACM.",
"links": null
},
"BIBREF27": {
"ref_id": "b27",
"title": "Comparing document segmentation strategies for passage retrieval in question answering",
"authors": [
{
"first": "J",
"middle": [],
"last": "Tiedemann",
"suffix": ""
}
],
"year": 2007,
"venue": "Proceedings of the Conference on Recent Advances in Natural Language Processing (RANLP'07)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "TIEDEMANN, J. (2007). Comparing document segmentation strategies for passage retrieval in question answering. In Proceedings of the Conference on Recent Advances in Natural Language Processing (RANLP'07), Borovets, Bulgaria.",
"links": null
},
"BIBREF28": {
"ref_id": "b28",
"title": "An Evaluation of Spoken and Textual Interaction in the RITEL Interactive Question Answering System",
"authors": [
{
"first": "D",
"middle": [],
"last": "Toney",
"suffix": ""
},
{
"first": "S",
"middle": [],
"last": "Rosset",
"suffix": ""
},
{
"first": "A",
"middle": [],
"last": "Max",
"suffix": ""
},
{
"first": "O",
"middle": [],
"last": "Galibert",
"suffix": ""
},
{
"first": "E",
"middle": [
";"
],
"last": "Bilinski",
"suffix": ""
},
{
"first": "E",
"middle": [
"L R A"
],
"last": "Elra)",
"suffix": ""
}
],
"year": 2008,
"venue": "\u00e9diteur : Proceedings of the Sixth International Language Resources and Evaluation (LREC'08)",
"volume": "",
"issue": "",
"pages": "",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "TONEY, D., ROSSET, S., MAX, A., GALIBERT, O. et BILINSKI, E. (2008). An Evaluation of Spoken and Textual Interaction in the RITEL Interactive Question Answering System. In (ELRA), E. L. R. A., \u00e9diteur : Proceedings of the Sixth International Language Resources and Evaluation (LREC'08), Marrakech, Morocco.",
"links": null
},
"BIBREF29": {
"ref_id": "b29",
"title": "Semantic partitioning of web pages",
"authors": [
{
"first": "S",
"middle": [],
"last": "Vadrevu",
"suffix": ""
},
{
"first": "F",
"middle": [],
"last": "Gelgi",
"suffix": ""
},
{
"first": "H",
"middle": [],
"last": "Davulcu",
"suffix": ""
}
],
"year": 2005,
"venue": "Proceedings of the 6th international conference on Web Information Systems Engineering, WISE'05",
"volume": "",
"issue": "",
"pages": "107--118",
"other_ids": {},
"num": null,
"urls": [],
"raw_text": "VADREVU, S., GELGI, F. et DAVULCU, H. (2005). Semantic partitioning of web pages. In Proceedings of the 6th international conference on Web Information Systems Engineering, WISE'05, pages 107-118, Berlin, Heidelberg. Springer-Verlag.",
"links": null
}
},
"ref_entries": {
"FIGREF0": {
"num": null,
"uris": null,
"text": "1 -(a) Nombre de blocs par condition exp\u00e9rimentale (Cond) selon leur type : segment\u00e9 (ctrl et TT) ou non (bsln), selon les \u00e9tapes n\u00e9cessaires \u00e0 les cr\u00e9er (Etape) et la dur\u00e9e totale de traitement correspondant. (b) Statistiques (Stat) du nombre de blocs (nbB) et de lignes (nbL) moyens (Mean), minimum (Min), maximum (Max) et d\u00e9viation standard (Std) des index (Index) relatifs \u00e0 chaque condition exp\u00e9rimentale.",
"type_str": "figure"
},
"TABREF0": {
"content": "<table/>",
"num": null,
"text": ") ; par exemple Ncleaner pr\u00e9serve pour l'essentiel le texte des balises <title>, <h1>, <h2>, <h3>, <div> et <p> contenus dans le corps des pages, toute autre balise \u00e9tant jug\u00e9e non pertinente pour l'extraction. Par ailleurs, Kitten dispose de nombreuses fonctions et filtres configurables qui le rendent flexible. Ainsi, il est possible de conserver le contenu des attributs <title> associ\u00e9 \u00e0 un lien tout en supprimant le lien ou au contraire conserver ce lien tout en supprimant les attributs <title> qui lui sont associ\u00e9s.Kitten se rapproche donc plut\u00f4t d'outils de d\u00e9veloppement populaires dans le domaine de l'EI web comme la librairie Python Beautiful Soup 8 et le framework de crawling web Scrapy 9 . Kitten dispose de son propre module d'extraction de pages web et d'un syst\u00e8me d'extraction back-off bas\u00e9 sur Lynx. Celui-ci sert d'extracteur principal dans notre syst\u00e8me de segmentation. La repr\u00e9sentation des pages utilis\u00e9e par notre moteur d'extraction se fait gr\u00e2ce \u00e0 Lynx. Ce dernier est un navigateur d'informations distribu\u00e9es \u00e0 port\u00e9e g\u00e9n\u00e9rale pour Internet. Il permet de naviguer sur le Web depuis une console, en mode textuel uniquement. C'est un outil libre int\u00e9gr\u00e9 automatiquement dans la plupart des distributions Linux grand public comme Ubuntu, qui int\u00e8gre de nombreuses fonctionnalit\u00e9s web, dont l'extraction du contenu textuel de pages web. Nous avons retenu Lynx pour deux raisons. La premi\u00e8re raison est qu'il fournit une extraction textuelle de pages web qui refl\u00e8te leur rendu visuel. La seconde raison est que Lynx peut fournir une d\u00e9composition lin\u00e9aire du contenu des pages web en blocs de texte, adapt\u00e9e \u00e0 la plupart des traitements d'analyses de documents en QR. Si Lynx produit des extractions textuelles fid\u00e8les au rendu visuel des pages web, l'agencement des blocs d'extraction diff\u00e8re de celui observ\u00e9 dans un navigateur web classique du type Firefox 10 . En effet, Lynx effectue une travers\u00e9e gauche-droite descendante des pages web. En cons\u00e9quence, les blocs d'information textuelle rencontr\u00e9s le long du parcours sont mis bout \u00e0 bout dans le fichier d'extraction r\u00e9sultant. Ainsi, on trouve souvent dans les extractions textuelles de Lynx la suite de blocs suivant (donn\u00e9s ici selon leur contenu visuel) : bandeau, menus, colonne gauche, bloc de contenu principal, colonne droite, puis pied de page. On peut aussi trouver des agencements moins st\u00e9r\u00e9otypiques selon le design des pages et trouver des s\u00e9ries de blocs de contenu principal",
"html": null,
"type_str": "table"
},
"TABREF1": {
"content": "<table/>",
"num": null,
"text": "La proc\u00e9dure de segmentation d\u00e9marre par une \u00e9tape de tokenization du texte qui lui est fourni en entr\u00e9e. Les mots qui sont des stopwords ne sont pas tokenis\u00e9s et sont \u00e9cart\u00e9s. Les autres subissent une \u00e9tape de stemming bas\u00e9e sur une fonction d'analyse morphologique. Le texte est tokeniz\u00e9 en pseudo-phrases de longueur pr\u00e9d\u00e9finie cens\u00e9e repr\u00e9senter la longueur moyenne d'un paragraphe (20 pseudo-phrases par d\u00e9faut). Les paragraphes d'origine du texte servent de point d'ancrage pour la tokenization, qui elle-m\u00eame d\u00e9pend de l'indentation dans le texte. L'algorithme \u00e9value ensuite la proximit\u00e9 lexicale qui existe entre toutes les paires de blocs adjacents possibles, et fournit un score fond\u00e9 sur des co-occurences lexicales de tokens qui mesure l'\u00e9cart entre deux blocs. Les blocs sont constitu\u00e9s des pseudo-phrases obtenues lors de la phase de tokenization. La d\u00e9termination des scores lexicaux varie selon la strat\u00e9gie utilis\u00e9e. TextTiling dispose de 2 strat\u00e9gies de comparaison de blocs diff\u00e9rentes. La premi\u00e8re (block comparison), compare deux blocs adjacents de texte et calcule leur \u00e9cart sur la base du nombre de tokens qu'ils ont en commun. La seconde m\u00e9thode (vocabulary introduction) \u00e9value ce m\u00eame \u00e9cart sur la base des tokens issus des pseudo-phrases qui bordent la fronti\u00e8re entre deux blocs.",
"html": null,
"type_str": "table"
},
"TABREF2": {
"content": "<table/>",
"num": null,
"text": "). D'un point de vue g\u00e9n\u00e9ral, on peut dire que le syst\u00e8me s'appuie sur une analyse multi-niveaux, appliqu\u00e9e sur les questions et sur les documents. Les documents sont totalement analys\u00e9s et index\u00e9s d'apr\u00e8s les r\u00e9sultats d'analyse. La recherche est effectu\u00e9e dans l'index complet des documents. L'analyse permet de rep\u00e9rer et typer des \u00e9l\u00e9ments pertinents d'information qui peuvent prendre la forme d'entit\u00e9s nomm\u00e9es, complexes et structur\u00e9es, de chunks morpho-syntaxiques, d'actes de dialogue et de marqueurs th\u00e9matiques.La premi\u00e8re \u00e9tape de RITEL-QR consiste \u00e0 cr\u00e9er un descripteur de recherche (DDR) qui contient toutes les informations utiles pour la recherche de documents, l'extraction de passages pertinents et l'extraction de r\u00e9ponses. Ces informations sont les \u00e9l\u00e9ments de la question, leurs transformations possibles (d\u00e9rivations morphologiques, synonymes etc. et les poids associ\u00e9s), et les types attendus de la r\u00e9ponse (avec les poids associ\u00e9s). Ces types sont le plus souvent des types d'entit\u00e9s nomm\u00e9es (personne, lieu . . .) et refl\u00e8tent la taxonomie d'entit\u00e9s utilis\u00e9e au moment de l'analyse.La s\u00e9lection des documents consiste \u00e0 fournir, \u00e0 partir de l'index, les n documents les plus pertinents, c'est-\u00e0-dire ceux contenant le plus d'informations pr\u00e9sentes dans le DDR. En fonction de ces informations et de leur densit\u00e9, les documents obtiennent un score. Ensuite, des passages",
"html": null,
"type_str": "table"
},
"TABREF3": {
"content": "<table><tr><td/><td>Etape/Cond</td><td/><td>bsln</td><td/><td>ctrl</td><td/><td>TT</td></tr><tr><td/><td>extraction</td><td colspan=\"2\">497 228</td><td colspan=\"2\">497 228</td><td colspan=\"2\">497 228</td></tr><tr><td/><td>segmentation</td><td/><td>-</td><td colspan=\"2\">3 686 749</td><td colspan=\"2\">3 857 585</td></tr><tr><td>(a)</td><td>normalisation</td><td colspan=\"2\">485 037</td><td colspan=\"2\">3 660 264</td><td colspan=\"2\">3 686 875</td></tr><tr><td/><td>annotation</td><td colspan=\"2\">485 037</td><td colspan=\"2\">3 660 264</td><td colspan=\"2\">3 686 875</td></tr><tr><td/><td>indexation</td><td colspan=\"2\">484 060</td><td colspan=\"2\">3 658 988</td><td colspan=\"2\">3 686 857</td></tr><tr><td/><td>dur\u00e9e totale</td><td colspan=\"2\">1,1j (26,5h)</td><td colspan=\"4\">2,38j (57,3h) 5,3j (127,5h)</td></tr><tr><td/><td>Stat/Index</td><td>nbB</td><td>nbL</td><td>nbB</td><td>nbL</td><td>nbB</td><td>nbL</td></tr><tr><td/><td>Min</td><td>1</td><td>1</td><td>1</td><td>1</td><td>1</td><td>1</td></tr><tr><td>(b)</td><td>Max</td><td>1</td><td>461 075</td><td>8</td><td>1 262</td><td>186</td><td>9 277</td></tr><tr><td/><td>Sd</td><td>0</td><td>7 646,5</td><td>0,01</td><td>18,7</td><td>8,4</td><td>32,61</td></tr><tr><td/><td>Mean</td><td>1</td><td>295,4</td><td>8</td><td>19,4</td><td>7,3</td><td>20,9</td></tr></table>",
"num": null,
"text": "du moteur de recherche fran\u00e7ais Exalead 12 et sont compos\u00e9es de questions factuelles (e.g. Qui est Gandhi ?, Combien p\u00e8se la tour Eiffel ?, O\u00f9 se situe Pondich\u00e9ry ? et Que signifie CSDPTT ?).",
"html": null,
"type_str": "table"
},
"TABREF4": {
"content": "<table/>",
"num": null,
"text": "",
"html": null,
"type_str": "table"
},
"TABREF5": {
"content": "<table><tr><td>Le test de McNemar (McNemar, 1947), que nous avons utilis\u00e9 dans nos exp\u00e9riences, \u00e9tablit la</td></tr><tr><td>significativit\u00e9 des r\u00e9sultats observ\u00e9s entre 2 conditions A et B et une mesure M donn\u00e9e, selon</td></tr><tr><td>des variations observ\u00e9es entre A et B, synth\u00e9tis\u00e9es dans une table de contingence 2x2. De l\u00e0, le</td></tr><tr><td>test (bilat\u00e9ral) estime une valeur Q (i.e. khi\u00b2 de McNemar) pour un degr\u00e9 de libert\u00e9 d f donn\u00e9 et</td></tr><tr><td>d\u00e9rive une valeur p. Si p est inf\u00e9rieure (ou \u00e9gale) au seuil critique \u03b1, l'hypoth\u00e8se nulle H 0 est</td></tr><tr><td>rejet\u00e9e et la diff\u00e9rence observ\u00e9e entre A et B est jug\u00e9e significative. Dans notre cas, une table</td></tr><tr><td>de contingence comptabilise le total de questions (#q) pour lesquelles RITEL-QR trouve une</td></tr><tr><td>r\u00e9ponse de m\u00eame exactitude en conditions A et B. Il y a 4 types de compte, nombre total de</td></tr><tr><td>questions avec une r\u00e9ponse : correcte (r) selon A et selon B (#rr), fausse (w, xs ou xl) selon A et</td></tr><tr><td>selon B (#WW), correcte selon A et fausse selon B (#rW) et inversement (#Wr).</td></tr></table>",
"num": null,
"text": "Mais le MRR pr\u00e9sente un \u00e9cart plus important entre les conditions (2 points entre les conditions bsln et ctrl, et 1 point entre les conditions bsln et TT). La segmentation ctrl semble donc permettre au syst\u00e8me de trouver de meilleures r\u00e9ponses (i.e. des r\u00e9ponses plus pr\u00e9cises) qu'en condition baseline ou TextTiling. Toutefois, d'apr\u00e8s les tests statistiques des performances QR pr\u00e9sent\u00e9s tableau 3, ceci n'est qu'une tendance.",
"html": null,
"type_str": "table"
},
"TABREF7": {
"content": "<table><tr><td colspan=\"2\">d f =1,\u03b1=.05 mesure #q</td><td>r</td><td colspan=\"4\">ctrl (A) / bsln (B) W Q p H 0</td><td>r</td><td>bsln (A) / TT (B) W Q p H 0</td><td>r</td><td colspan=\"2\">ctrl (A) / TT (B) W Q p H 0</td></tr><tr><td>P</td><td>r</td><td colspan=\"2\">77 21</td><td>0</td><td>1</td><td>\u2715</td><td colspan=\"2\">80 17 .02 .86 \u2715</td><td colspan=\"2\">80 18</td><td>0</td><td>1</td><td>\u2715</td></tr><tr><td/><td>W</td><td colspan=\"2\">20 191</td><td/><td/><td/><td colspan=\"2\">19 193</td><td colspan=\"2\">19 192</td></tr><tr><td>top-10</td><td colspan=\"11\">r 167 23 3.55 .05 \u2713 164 14 .48 .48 \u2715 174 16 1.44 .23 \u2715</td></tr><tr><td>(MRR)</td><td>W</td><td colspan=\"2\">11 108</td><td/><td/><td/><td colspan=\"2\">19 112</td><td colspan=\"2\">9 110</td></tr></table>",
"num": null,
"text": "(a) R\u00e9sultats QR globaux par condition exp\u00e9rimentale (Cond). P : pr\u00e9cision ; MRR : rang moyen r\u00e9ciproque ; top-10 : pr\u00e9cision sur 10 rangs. #q : nombre total de questions \u00e9valu\u00e9es. #r, #xs, #xl et #w : nombre total de r\u00e9ponses justes, trop courtes, trop longues et fausses, selon le top-1. (b) Focus sur les r\u00e9sultats du top-10 pr\u00e9sent\u00e9s en (a), selon chaque position (rang) dans le classement (r\u00e9ponses justes uniquement).",
"html": null,
"type_str": "table"
},
"TABREF8": {
"content": "<table/>",
"num": null,
"text": "R\u00e9sultats de significativit\u00e9 du test (bilat\u00e9ral) de McNeamr pour les r\u00e9sultats QR du tableau 2 (a).",
"html": null,
"type_str": "table"
}
}
}
}