|
{ |
|
"paper_id": "F12-1031", |
|
"header": { |
|
"generated_with": "S2ORC 1.0.0", |
|
"date_generated": "2023-01-19T09:45:08.626697Z" |
|
}, |
|
"title": "Optimisation d'un tuteur intelligent \u00e0 partir d'un jeu de donn\u00e9es fix\u00e9", |
|
"authors": [ |
|
{ |
|
"first": "Lucie", |
|
"middle": [], |
|
"last": "Daubigney", |
|
"suffix": "", |
|
"affiliation": {}, |
|
"email": "" |
|
}, |
|
{ |
|
"first": "Matthieu", |
|
"middle": [], |
|
"last": "Geist", |
|
"suffix": "", |
|
"affiliation": {}, |
|
"email": "" |
|
}, |
|
{ |
|
"first": "Olivier", |
|
"middle": [], |
|
"last": "Pietquin", |
|
"suffix": "", |
|
"affiliation": {}, |
|
"email": "" |
|
} |
|
], |
|
"year": "", |
|
"venue": null, |
|
"identifiers": {}, |
|
"abstract": "Dans cet article, nous pr\u00e9sentons une m\u00e9thode g\u00e9n\u00e9rale pour optimiser un tuteur intelligent dans le domaine de l'acquisition d'une seconde langue. Plus particuli\u00e8rement, le processus d'optimisation a pour but de trouver une strat\u00e9gie qui propose la meilleure s\u00e9quence de phases d'\u00e9valuation et d'enseignement afin de maximiser l'augmentation des connaissances de l'apprenant. La principale caract\u00e9ristique de la m\u00e9thode propos\u00e9e est qu'elle est capable d'apprendre la meilleure strat\u00e9gie \u00e0 partir d'un jeu fixe de donn\u00e9es, collect\u00e9es \u00e0 partir d'une strat\u00e9gie d\u00e9finie \u00e0 la main. Ainsi, aucun mod\u00e8le, ni cognitif ni probabiliste de l'apprenant, n'est n\u00e9cessaire. Seules sont requises des observations du comportement de l'apprenant alors qu'il interagit avec un syst\u00e8me non-optimal. Pour ce faire, un algorithme de programmation dynamique approch\u00e9e en mode hors-ligne est utilis\u00e9 : l'algorithme LSPI (Least Square Policy Iteration). Des r\u00e9sultats obtenus avec des donn\u00e9es simul\u00e9es semblent prometteurs.", |
|
"pdf_parse": { |
|
"paper_id": "F12-1031", |
|
"_pdf_hash": "", |
|
"abstract": [ |
|
{ |
|
"text": "Dans cet article, nous pr\u00e9sentons une m\u00e9thode g\u00e9n\u00e9rale pour optimiser un tuteur intelligent dans le domaine de l'acquisition d'une seconde langue. Plus particuli\u00e8rement, le processus d'optimisation a pour but de trouver une strat\u00e9gie qui propose la meilleure s\u00e9quence de phases d'\u00e9valuation et d'enseignement afin de maximiser l'augmentation des connaissances de l'apprenant. La principale caract\u00e9ristique de la m\u00e9thode propos\u00e9e est qu'elle est capable d'apprendre la meilleure strat\u00e9gie \u00e0 partir d'un jeu fixe de donn\u00e9es, collect\u00e9es \u00e0 partir d'une strat\u00e9gie d\u00e9finie \u00e0 la main. Ainsi, aucun mod\u00e8le, ni cognitif ni probabiliste de l'apprenant, n'est n\u00e9cessaire. Seules sont requises des observations du comportement de l'apprenant alors qu'il interagit avec un syst\u00e8me non-optimal. Pour ce faire, un algorithme de programmation dynamique approch\u00e9e en mode hors-ligne est utilis\u00e9 : l'algorithme LSPI (Least Square Policy Iteration). Des r\u00e9sultats obtenus avec des donn\u00e9es simul\u00e9es semblent prometteurs.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Abstract", |
|
"sec_num": null |
|
} |
|
], |
|
"body_text": [ |
|
{ |
|
"text": "Le travail d\u00e9crit dans cet article se place dans le cadre plus g\u00e9n\u00e9ral d'un projet europ\u00e9en 1 qui vise \u00e0 d\u00e9velopper un tuteur intelligent pour l'aquisition d'une deuxi\u00e8me langue (particuli\u00e8rement pour le fran\u00e7ais et l'allemand). Dans le cadre de ce projet, un jeu s\u00e9rieux, int\u00e9gr\u00e9 dans Second Life, et qui exploite un environnement de r\u00e9alit\u00e9 virtuelle en 3 dimensions a \u00e9t\u00e9 con\u00e7u (I-FLEG) (Amoia et al., 2011) . De la situation privil\u00e9gi\u00e9e dans laquelle se trouve l'apprenant lorsqu'un ordinateur l'assiste \u00e0 acqu\u00e9rir de nouvelles connaissances, il est possible de tirer avantage de plusieurs caract\u00e9ristiques. Parmi celles-ci, la personnalisation de la s\u00e9quence d'apprentissage est \u00e0 souligner et fera l'objet de cette contribution. De plus, le technologie bas\u00e9e sur le web facilite la collecte d'une grande quantit\u00e9 de donn\u00e9es qui peuvent \u00eatre utilis\u00e9es pour optimiser le fonctionnement du tuteur intelligent.", |
|
"cite_spans": [ |
|
{ |
|
"start": 390, |
|
"end": 410, |
|
"text": "(Amoia et al., 2011)", |
|
"ref_id": "BIBREF0" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Il a \u00e9t\u00e9 montr\u00e9 assez t\u00f4t que la personnalisation de l'enseignement est tr\u00e8s importante dans la relation entre enseignants et apprenants (Bloom, 1968) . Id\u00e9alement, chaque apprenant devrait recevoir des cours adapt\u00e9s qui lui permettaient d'obtenir le meilleur en fonction de ses capacit\u00e9s. C'est tout naturel de penser que cette situation pourrait \u00eatre rencontr\u00e9e avec des tuteurs intelligents, install\u00e9s sur des ordinateurs personnels ou accessibles depuis l'Internet. Pourtant, la situation actuelle est loin d'\u00eatre satisfaisante car les syst\u00e8mes pr\u00e9sentement commercialis\u00e9s sont con\u00e7us pour un large public et non pour chaque apprenant. Pire encore, ils s'addressent \u00e0 un \u00e9tudiant moyen qui g\u00e9n\u00e9ralement n'existe m\u00eame pas. C'est particuli\u00e8rement vrai dans le contexte de l'aquisition d'une seconde langue o\u00f9 les erreurs sont tr\u00e8s d\u00e9pendantes de l'apprenant, \u00e0 cause notamment de confusions lexicales et d'erreurs de prononciation li\u00e9es \u00e0 des causes culturelles et d'\u00e9ducation. Il est donc important de concevoir des syst\u00e8mes qui sont capables d'adapter leur comportement au profil particulier de chaque apprenant.", |
|
"cite_spans": [ |
|
{ |
|
"start": 137, |
|
"end": 150, |
|
"text": "(Bloom, 1968)", |
|
"ref_id": "BIBREF3" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Nous allons supposer ici que le degr\u00e9 de libert\u00e9 de l'interface est dans la s\u00e9quence constitu\u00e9e d'une suite de choix entre phase d'enseignement et phase d'\u00e9valuation. Une phase d'enseignement aura pour but d'am\u00e9liorer les connaissances d'un apprenant tandis qu'une phase d'\u00e9valuation aura pour objectif de quantifier ce savoir. Ainsi, \u00e9tant donn\u00e9e une situation (d\u00e9finie par rapport \u00e0 l'historique des interactions avec l'apprenant), le syst\u00e8me devra choisir quelle phase proposer ensuite. L'adaptation \u00e0 l'apprenant intervient dans la s\u00e9quence de d\u00e9cisions. Celle-ci diff\u00e8re d'un apprenant \u00e0 l'autre. Le probl\u00e8me d'adaptation du comportement du syst\u00e8me \u00e0 l'utilisateur peut ainsi \u00eatre vu comme un probl\u00e8me de d\u00e9cisions s\u00e9quentielles.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Dans cet article, nous proposons de r\u00e9soudre ce probl\u00e8me en utilisant une m\u00e9thode d'apprentissage automatique, l'apprentissage par renforcement (AR) (Sutton et Barto, 1998) . Particuli\u00e8rement, nous avons utilis\u00e9 un algorithme d'AR en mode hors-ligne (appel\u00e9 Least Square Policy Iteration (LSPI) (Lagoudakis et Parr, 2003) ). Ces m\u00e9thodes ont \u00e9t\u00e9 r\u00e9cemment et avec succ\u00e8s utilis\u00e9es dans le domaine des syst\u00e8mes de dialogues parl\u00e9s (Pietquin et al., 2011b) . Ce travail se d\u00e9marque de pr\u00e9c\u00e9dentes tentatives d'utiliser l'AR dans le contexte des tuteurs intelligents (Beck et al., 2000; Iglesias et al., 2009) car l'apprentissage se fait en mode hors-ligne avec un jeu de donn\u00e9es fix\u00e9. Seules les donn\u00e9es collect\u00e9es avec un syst\u00e8me dont le comportement et les prises de d\u00e9cisions sont cod\u00e9es \u00e0 la main ou bien provenant des traces d'utilisation de syst\u00e8mes d\u00e9j\u00e0 d\u00e9ploy\u00e9s sont n\u00e9cessaires. En cons\u00e9quence, contrairement aux pr\u00e9c\u00e9dents travaux, la m\u00e9thode propos\u00e9e ici ne requi\u00e8re ni une mod\u00e9lisation de l'apprenant, ce qui \u00e9vite donc les erreurs li\u00e9es \u00e0 l'imperfection du mod\u00e8le, ni une interaction avec ce dernier durant l'apprentissage. Le fait de ne pas laisser interagir l'apprenant avec le tuteur pendant que celui-ci apprend le bon comportement permet de ne pas mettre l'apprenant face \u00e0 des situations non ma\u00eetris\u00e9es (qui pourraient le lasser). En effet, durant l'apprentissage de la meilleurs s\u00e9quence de d\u00e9cisions, la coh\u00e9rence du comportement du tuteur n'est pas garantie.", |
|
"cite_spans": [ |
|
{ |
|
"start": 149, |
|
"end": 172, |
|
"text": "(Sutton et Barto, 1998)", |
|
"ref_id": "BIBREF13" |
|
}, |
|
{ |
|
"start": 295, |
|
"end": 321, |
|
"text": "(Lagoudakis et Parr, 2003)", |
|
"ref_id": "BIBREF10" |
|
}, |
|
{ |
|
"start": 430, |
|
"end": 454, |
|
"text": "(Pietquin et al., 2011b)", |
|
"ref_id": "BIBREF12" |
|
}, |
|
{ |
|
"start": 564, |
|
"end": 583, |
|
"text": "(Beck et al., 2000;", |
|
"ref_id": "BIBREF1" |
|
}, |
|
{ |
|
"start": 584, |
|
"end": 606, |
|
"text": "Iglesias et al., 2009)", |
|
"ref_id": "BIBREF9" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "Le reste de l'article est organis\u00e9 comme suit : la section 2 pr\u00e9sente l'apprentissage par renforcement de fa\u00e7on th\u00e9orique. Ensuite, la section 3 montre comment le probl\u00e8me d'optimisation dans le cadre du tutorat remplit le paradigme de l'AR. Des r\u00e9sultats exp\u00e9rimentaux sont pr\u00e9sent\u00e9s dans la section 4 et montrent l'efficacit\u00e9 de la m\u00e9thode. Enfin, la section 5 conclut le travail.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "L'apprentissage par renforcement (AR) (Sutton et Barto, 1998) est un paradigme g\u00e9n\u00e9ral d'apprentissage automatique qui a pour but de r\u00e9soudre des probl\u00e8mes de prise de d\u00e9cisions s\u00e9quentielles. Dans ce cadre, un agent interagit avec un syst\u00e8me qu'il essaie de contr\u00f4ler. Le syst\u00e8me est compos\u00e9 d'\u00e9tats et le contr\u00f4le consiste \u00e0 exercer des actions sur le syst\u00e8me. Apr\u00e8s que chaque action a \u00e9t\u00e9 effectu\u00e9e par l'agent, le syst\u00e8me passe d'un \u00e9tat \u00e0 un autre et g\u00e9n\u00e8re une r\u00e9compense imm\u00e9diate qui est visible par l'agent. Le but de l'agent est d'apprendre une correspondance entre les \u00e9tats et les actions qui vont lui permettre de maximiser un cumul de r\u00e9compenses (r\u00e9compenses \u00e0 long terme). Pour cela, l'agent recherche la meilleure s\u00e9quence d'actions et non les actions qui sont les meilleures localement.", |
|
"cite_spans": [ |
|
{ |
|
"start": 38, |
|
"end": 61, |
|
"text": "(Sutton et Barto, 1998)", |
|
"ref_id": "BIBREF13" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Apprentissage par renforcement", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "Pour r\u00e9soudre le probl\u00e8me d'apprentissage par renforcement d\u00e9crit ci-dessus, le paradigme des Processus d\u00e9cisionnels de Markov (PDM) est traditionnellement utilis\u00e9. Un PDM est d\u00e9fini par un n-uplet S, A, R, P, \u03b3 , o\u00f9 S est l'ensemble constitu\u00e9 de tous les \u00e9tats possibles, A l'ensemble d'actions, R la fonction de r\u00e9compense, P l'ensemble des probabilit\u00e9s de transisitions markoviennes et \u03b3 est le facteur d'actualisation (pond\u00e9rant les r\u00e9compenses futures). Une strat\u00e9gie ou une politique \u03c0 est une application de S dans A. Etant donn\u00e9e une politique \u03c0, chaque \u00e9tat de S peut \u00eatre associ\u00e9 \u00e0 une valeur (V \u03c0 : S \u2192 ) d\u00e9finie comme \u00e9tant l'esp\u00e9rance de la somme des r\u00e9compenses pond\u00e9r\u00e9es obtenues par l'agent sur un horizon infini en partant de l'\u00e9tat s et en suivant la politique \u03c0 :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "EQUATION", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [ |
|
{ |
|
"start": 0, |
|
"end": 8, |
|
"text": "EQUATION", |
|
"ref_id": "EQREF", |
|
"raw_str": "V \u03c0 (s) = E[ \u221e k=0 \u03b3 k r k |s 0 = s, \u03c0].", |
|
"eq_num": "(1)" |
|
} |
|
], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "Une fonction sur une paire \u00e9tat-action peut \u00eatre d\u00e9finie : Q \u03c0 : S \u00d7 A \u2192 . Cela ajoute un degr\u00e9 de libert\u00e9 dans le choix de la premi\u00e8re action choisie :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "EQUATION", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [ |
|
{ |
|
"start": 0, |
|
"end": 8, |
|
"text": "EQUATION", |
|
"ref_id": "EQREF", |
|
"raw_str": "Q \u03c0 (s, a) = E[ \u221e i=0 \u03b3 i r i |s 0 = s, a 0 = a, \u03c0].", |
|
"eq_num": "(2)" |
|
} |
|
], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "La fonction Q * (s, a) est la fonction Q optimale associ\u00e9e \u00e0 la politique optimale \u03c0 * . Cette derni\u00e8re est celle qui maximise le valeur de chaque \u00e9tat (ou de chaque paire \u00e9tat-action) :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "\u03c0 * = argmax \u03c0 V \u03c0 = argmax \u03c0 Q \u03c0 .", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "La politique optimale est gloutonne par rapport \u00e0 la fonction Q optimale : \u03c0 * (s) = argmax a\u2208A Q * (s, a). La programmation dynamique (Bellman, 1957) a pour but de calculer la politique optimale, en utilisant la fonction Q comme interm\u00e9diaire, dans le cas o\u00f9 les probabilit\u00e9s de transition ainsi que la fonction de r\u00e9compense sont connues. Particuli\u00e8rement, l'algorithme d'it\u00e9ration de la politique calcule la politique optimale de fa\u00e7on it\u00e9rative. Une politique initiale est arbitrairement choisie : \u03c0 0 . A l'it\u00e9ration k, la politique \u03c0 k\u22121 est \u00e9valu\u00e9e, c'est-\u00e0-dire que la fonction Q qui lui est associ\u00e9e, Q \u03c0 k\u22121 (s, a), est calcul\u00e9e. Pour cela, la propri\u00e9t\u00e9 de Markov sur les probabilit\u00e9s de transition est utilis\u00e9e pour r\u00e9\u00e9crire l'\u00e9quation 2 :", |
|
"cite_spans": [ |
|
{ |
|
"start": 135, |
|
"end": 150, |
|
"text": "(Bellman, 1957)", |
|
"ref_id": "BIBREF2" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "EQUATION", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [ |
|
{ |
|
"start": 0, |
|
"end": 8, |
|
"text": "EQUATION", |
|
"ref_id": "EQREF", |
|
"raw_str": "Q \u03c0 (s, a) = E s |s,a [R(s, a, s ) + \u03b3Q \u03c0 (s , \u03c0(s ))] = T \u03c0 Q \u03c0 (s, a)", |
|
"eq_num": "(3)" |
|
} |
|
], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "Cette \u00e9quation est appel\u00e9e l'\u00e9quation d'\u00e9valuation de Bellman et T \u03c0 est l'op\u00e9rateur associ\u00e9. L'op\u00e9rateur T \u03c0 est lin\u00e9aire et l'\u00e9quation 3 d\u00e9finit ainsi un syst\u00e8me lin\u00e9aire qui peut \u00eatre r\u00e9solu de mani\u00e8re exacte. La politique est ensuite am\u00e9lior\u00e9e en utilisant le fait que \u03c0 k est gloutonne par rapport \u00e0 Q \u03c0 k\u22121 :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "EQUATION", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [ |
|
{ |
|
"start": 0, |
|
"end": 8, |
|
"text": "EQUATION", |
|
"ref_id": "EQREF", |
|
"raw_str": "\u03c0 k (s) = argmax a\u2208A Q \u03c0 k\u22121 (s, a)", |
|
"eq_num": "(4)" |
|
} |
|
], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "Les \u00e9tapes d'\u00e9valuation et d'am\u00e9lioration sont r\u00e9p\u00e9t\u00e9es jusqu'\u00e0 ce que \u03c0 k converge vers \u03c0 * (qui peut \u00eatre d\u00e9montr\u00e9 comme se produisant apr\u00e8s un nombre fini d'it\u00e9rations, quand \u03c0 k = \u03c0 k\u22121 ).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Processus d\u00e9cisionnels de Markov", |
|
"sec_num": "2.1" |
|
}, |
|
{ |
|
"text": "Bien qu'elle paraisse tr\u00e8s int\u00e9ressante, la m\u00e9thode propos\u00e9e ci-dessous est difficilement applicable \u00e0 des situations r\u00e9elles pour deux raisons. ", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Programmation dynamique approch\u00e9e", |
|
"sec_num": "2.2" |
|
}, |
|
{ |
|
"text": "EQUATION", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [ |
|
{ |
|
"start": 0, |
|
"end": 8, |
|
"text": "EQUATION", |
|
"ref_id": "EQREF", |
|
"raw_str": "\u03a0Q = argmin Q \u03b8 \u2208 Q \u2212Q \u03b8 2 .", |
|
"eq_num": "(5)" |
|
} |
|
], |
|
"section": "Programmation dynamique approch\u00e9e", |
|
"sec_num": "2.2" |
|
}, |
|
{ |
|
"text": "Le but des algorithmes de PDA est de cacluler le meilleur jeu de param\u00e8tres \u03b8 \u00e9tant donn\u00e9 les fonctions de base.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Programmation dynamique approch\u00e9e", |
|
"sec_num": "2.2" |
|
}, |
|
{ |
|
"text": "Least-Squares Policy Iteration (LSPI) est un algorithme de PDA (Lagoudakis et Parr, 2003) . LSPI est inspir\u00e9 de m\u00e9thodes d'it\u00e9ration sur la politique et alterne phase d'\u00e9valuation avec phase d'am\u00e9lioration de la politique. La phase d'am\u00e9lioration est la m\u00eame que celle d\u00e9crite pr\u00e9c\u00e9demment (la politique est gloutonne par rapport \u00e0 la fonction Q \u00e9valu\u00e9e) mais la phase d'\u00e9valuation doit apprendre une repr\u00e9sentation approximative de la fonction Q en utilisant des \u00e9chantillons. Dans LSPI, cela est fait en utilisant une version off-policy de l'algorithme Least-Squares Temporal Differences (LSTD) (Bradtke et Barto, 1996) , c'est-\u00e0-dire une version dans laquelle la politique \u00e9valu\u00e9e n'est pas celle qui a g\u00e9n\u00e9r\u00e9 les donn\u00e9es.", |
|
"cite_spans": [ |
|
{ |
|
"start": 63, |
|
"end": 89, |
|
"text": "(Lagoudakis et Parr, 2003)", |
|
"ref_id": "BIBREF10" |
|
}, |
|
{ |
|
"start": 597, |
|
"end": 621, |
|
"text": "(Bradtke et Barto, 1996)", |
|
"ref_id": "BIBREF4" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Least-Squares Policy Iteration", |
|
"sec_num": "2.2.1" |
|
}, |
|
{ |
|
"text": "L'objectif est de trouver une approximation Q \u03b8 de Q. Seulement, les valeurs de la fonction ne sont pas directement observables. Le probl\u00e8me est donc plus difficile \u00e0 r\u00e9oudre qu'un probl\u00e8me de r\u00e9gression. La fonction Q \u00e9tant le point fixe de l'op\u00e9rateur de Bellman, il pourrait para\u00eetre raisonnable de chercher Q \u03b8 tel que Q \u03b8 \u2248 TQ \u03b8 . Toutefois, il n'y a aucune raison que l'espace d'hypoth\u00e8se soit stable par application de l'op\u00e9rateur de Bellman. LSTD consiste donc \u00e0 calculer le point fixe de Q \u03b8 = \u03a0TQ \u03b8 , qui existe bien.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Least-Squares Policy Iteration", |
|
"sec_num": "2.2.1" |
|
}, |
|
{ |
|
"text": "En pratique, T \u03c0 n'est pas connu (les probabilit\u00e9s de transition de sont pas connues) mais un jeu de N transitions {(s j , a j , r j , s j ) 1\u2264 j\u2264N } est disponible. Le probl\u00e8me de point fixe pr\u00e9c\u00e9dent s'exprime alors ainsi :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Least-Squares Policy Iteration", |
|
"sec_num": "2.2.1" |
|
}, |
|
{ |
|
"text": "EQUATION", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [ |
|
{ |
|
"start": 0, |
|
"end": 8, |
|
"text": "EQUATION", |
|
"ref_id": "EQREF", |
|
"raw_str": "\u03b8 \u03c0 = argmin \u03b8 N j=1 C N j (\u03b8 , \u03b8 \u03c0 ),", |
|
"eq_num": "(6)" |
|
} |
|
], |
|
"section": "Least-Squares Policy Iteration", |
|
"sec_num": "2.2.1" |
|
}, |
|
{ |
|
"text": "C N j (\u03b8 , \u03b8 \u03c0 ) = (r j + \u03b3Q \u03b8 \u03c0 (s j , \u03c0(s j )) \u2212 \u03b3Q \u03b8 (s j , a j )) 2 .", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Least-Squares Policy Iteration", |
|
"sec_num": "2.2.1" |
|
}, |
|
{ |
|
"text": "Gr\u00e2ce \u00e0 la param\u00e9trisation lin\u00e9aire, une solution analytique peut \u00eatre calcul\u00e9e :", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Least-Squares Policy Iteration", |
|
"sec_num": "2.2.1" |
|
}, |
|
{ |
|
"text": "\u03b8 \u03c0 = ( N j=1 \u03c6 j \u2206\u03c6 \u03c0 j ) \u22121 N j=1 \u03c6 j r j (7) avec \u03c6 j = \u03c6(s j , a j ) et \u2206\u03c6 \u03c0 j = \u03c6(s j , a j ) \u2212 \u03b3\u03c6(s j , \u03c0(s j )).", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Least-Squares Policy Iteration", |
|
"sec_num": "2.2.1" |
|
}, |
|
{ |
|
"text": "L'algorithme LSPI fonctionne ainsi comme suit. Une politique initiale \u03c0 0 est choisie. Ensuite, \u00e0 l'it\u00e9ration k (avec k > 1), la fonction Q de la politique \u03c0 k\u22121 est estim\u00e9e en utilisant LSTD et \u03c0 k est gloutonne par rapport \u00e0 cette fonction Q estim\u00e9e. L'algorithme se termine quand un crit\u00e8re d'arr\u00eat est atteint, par exemple quand la diff\u00e9rence entre deux politiques cons\u00e9cutives est inf\u00e9rieure \u00e0 une certaine valeur.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Least-Squares Policy Iteration", |
|
"sec_num": "2.2.1" |
|
}, |
|
{ |
|
"text": "Ainsi que pr\u00e9sent\u00e9e dans l'introduction, la personnalistion d'un tuteur intelligent peut se voir comme \u00e9quivalente \u00e0 un probl\u00e8me de d\u00e9cisions s\u00e9quentielles dans lequel l'agent doit alterner entre phases d'enseignement et phases d'\u00e9valuation. Par exemple, dans le cadre de l'acquisition d'une seconde langue, le tuteur peut choisir de proposer un exercice de grammaire, suivi d'un exercice de conjugaison et seulement ensuite proposer une \u00e9valuation \u00e0 l'apprenant sur les deux notions pr\u00e9cedemment enseign\u00e9es. L'utilisation de l'apprentissage par renforcement pour r\u00e9soudre ce probl\u00e8me d'optimisation a d\u00e9j\u00e0 \u00e9t\u00e9 propos\u00e9 dans (Beck et al., 2000) et (Iglesias et al., 2009) . Le travail pr\u00e9sent\u00e9 dans cette publication diff\u00e8re des pr\u00e9c\u00e9dents car il se propose d'utiliser une m\u00e9thode qui apprend une strat\u00e9gie optimale \u00e0 partir de donn\u00e9es fix\u00e9es. Ainsi, aucune interaction avec l'apprenant n'est requise durant l'apprentissage et n'importe quel syst\u00e8me peut \u00eatre am\u00e9lior\u00e9 en utilisant simplement des traces d'utilisation. Pour trouver la s\u00e9quence optimale de d\u00e9cisions \u00e0 l'aide de l'apprentissage par renforcement, il faut traduire le probl\u00e8me de tutorat dans le cadre du paradigme des processus d\u00e9cisionnels de Markov et ainsi d\u00e9finir un espace d'\u00e9tat, un espace d'action et une fonction de r\u00e9compense (les probabilit\u00e9s de transition ne sont pas connues mais l'information qu'elles apportent est remplac\u00e9e par un jeu de donn\u00e9es provenant de traces d'utilisation du syst\u00e8me).", |
|
"cite_spans": [ |
|
{ |
|
"start": 624, |
|
"end": 643, |
|
"text": "(Beck et al., 2000)", |
|
"ref_id": "BIBREF1" |
|
}, |
|
{ |
|
"start": 647, |
|
"end": 670, |
|
"text": "(Iglesias et al., 2009)", |
|
"ref_id": "BIBREF9" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Le comportement du tuteur vu comme un PDM", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "En ce qui concerne les actions, elles sont au nombre de deux : commencer une phase d'\u00e9valuation ou commencer une phase d'enseignement. La repr\u00e9sentation de l'\u00e9tat doit contenir des informations sur le contexte de l'interaction, c'est-\u00e0-dire l'information suffisante mais n\u00e9cessaire pour prendre une d\u00e9cision. Ici l'espace d'\u00e9tat est d\u00e9fini comme un vecteur \u00e0 deux dimensions : la premi\u00e8re dimension est le taux de bonnes r\u00e9ponses que l'apprenant a d\u00e9j\u00e0 fournies (valeur continue entre 0 et 1) et la deuxi\u00e8me dimension est le nombre de phases d'enseignement que le syst\u00e8me a d\u00e9j\u00e0 propos\u00e9es (valeur enti\u00e8re). Il est \u00e0 noter que cette repr\u00e9sentation hybride (continue/discr\u00e8te) de l'espace d'\u00e9tat est totalement diff\u00e9rente de ce qui a \u00e9t\u00e9 propos\u00e9 dans diff\u00e9rents travaux et qu'elle n\u00e9cessite une approximation de la fonction de valeur. Le but pour le syst\u00e8me est ici de tirer le meilleur de chaque apprenant et non de lui faire atteindre un taux de r\u00e9ussite fix\u00e9, en-dessous duquel on consid\u00e8re que l'apprenant a \u00e9chou\u00e9 (par exemple, dans (Iglesias et al., 2009) ce taux est fix\u00e9 \u00e0 90% ; la progression de l'apprenant n'est pas prise en compte s'il ne l'atteint jamais au cours de l'apprentissage). Enfin, la r\u00e9compense est fournie par le taux de bonnes r\u00e9ponses de l'apprenant apr\u00e8s une phase d'\u00e9valuation (une r\u00e9compense est obtenue apr\u00e8s chaque phase d'\u00e9valuation, aucune apr\u00e8s celle d'enseignement). A nouveau, le but est de maximiser le cumul de ces taux en fonction des capacit\u00e9s de l'apprenant. Pour cela, le syst\u00e8me doit proposer la s\u00e9quence qui fait augmenter le plus rapidement les connaissances de l'\u00e9l\u00e8ve puisque son but est de maximiser la s\u00e9quence de r\u00e9compenses. jeux de donn\u00e9es de tailles diff\u00e9rentes. Les r\u00e9sultats sont pr\u00e9sent\u00e9s figure 1.", |
|
"cite_spans": [ |
|
{ |
|
"start": 1036, |
|
"end": 1059, |
|
"text": "(Iglesias et al., 2009)", |
|
"ref_id": "BIBREF9" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Le comportement du tuteur vu comme un PDM", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "Sur cette figure, la r\u00e9compense cumul\u00e9e obtenue par l'apprenant en utilisant la politique apprise par le syst\u00e8me est trac\u00e9e en fonction du nombre d'interactions contenues dans le jeu de donn\u00e9es d'entra\u00eenement utilis\u00e9 par l'algorithme LSPI. Le but de cette exp\u00e9rience est d'identifier le nombre d'interactions requis pour apprendre une politique dont les performances sont sup\u00e9rieures \u00e0 une simple politique d\u00e9finie \u00e0 la main. Les performances des politiques apprises sont compar\u00e9es \u00e0 celles des politiques al\u00e9atoires utilis\u00e9es pour la collecte de donn\u00e9es et \u00e0 celles issues d'une politique cod\u00e9e \u00e0 la main qui alterne des phases d'enseignement et d'\u00e9valuation. Il appara\u00eet clairement sur la figure qu'en utilisant 500 interactions (une interaction n'\u00e9tant pas une session enti\u00e8re de tutorat mais simplement une d\u00e9cision suivie par la r\u00e9action de l'apprenant, ce qui fait de 500 un nombre plut\u00f4t bas), la politique apprise est meilleure qu'une politique al\u00e9atoire. Ensuite, apr\u00e8s 1000 int\u00e9ractions, la politique apprise devient meilleure que la politique cod\u00e9e \u00e0 la main. Il est donc possible d'utiliser les traces d'un syst\u00e8me existant pour apprendre des politiques optimales.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Le comportement du tuteur vu comme un PDM", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "De fa\u00e7on \u00e0 mesurer la reproductibilit\u00e9 de l'apprentissage (c'est-\u00e0-dire la sensibilit\u00e9 \u00e0 la composition du jeu de donn\u00e9es), LSPI a \u00e9t\u00e9 appliqu\u00e9 100 fois et les politiques apprises ont \u00e9t\u00e9 test\u00e9es 1000 fois sur les apprenants simul\u00e9s. L'intervalle de confiance \u00e0 95% a aussi \u00e9t\u00e9 caclul\u00e9. Il montre que les r\u00e9sultats ne sont que peu sensibles \u00e0 l'al\u00e9at dans les donn\u00e9es. C'est assez important car dans des applications r\u00e9elles, il n'est pas possible de contr\u00f4ler la qualit\u00e9 des donn\u00e9es puisque seules des traces d'utilisation sont disponibles. Apr\u00e8s 1500 interactions, l'intervalle de confiance ne varie plus beaucoup.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Le comportement du tuteur vu comme un PDM", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "Dans cette contribution, une m\u00e9thode pour optimiser un tuteur intelligent qui aide \u00e0 l'acquisition d'une seconde langue a \u00e9t\u00e9 propos\u00e9e. Le probl\u00e8me d'optimisation est d'abord exprim\u00e9 comme un probl\u00e8me de d\u00e9cisions s\u00e9quentielles qui peut \u00eatre r\u00e9solu gr\u00e2ce \u00e0 un algorithme d'apprentissage par renforcement. Puisque le comportement des apprenants est difficile \u00e0 pr\u00e9dire, une m\u00e9thode sans mod\u00e8le est pr\u00e9f\u00e9rable. La m\u00e9thode choisie n'utilise donc que des traces d'interactions entre l'apprenant et le syst\u00e8me \u00e0 optimiser. Les performances de la strat\u00e9gie d'interactions apprise d\u00e9passent celles des strat\u00e9gies basiques utilis\u00e9es pour collecter les donn\u00e9es.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Conclusion", |
|
"sec_num": "5" |
|
}, |
|
{ |
|
"text": "Dans le futur, les collectes de donn\u00e9es avec des \u00e9tudiants r\u00e9els commenceront en utilisant l'environnement virtuel I-FLEG. Ainsi, une perspective imm\u00e9diate est de collecter des traces d'utilisation de ce syst\u00e8me pour apprendre des strat\u00e9gies optimales d'enseignement. Nous souhaiterions aussi utiliser d'autres algorithmes d'AR ) capables d'utiliser l'incertitude sur l'estimation des param\u00e8tres de la fonction Q de fa\u00e7on \u00e0 am\u00e9liorer la strat\u00e9gie en ligne (pendant que le syst\u00e8me est utilis\u00e9), gr\u00e2ce \u00e0 des strat\u00e9gies d'exploration qui \u00e9vitent de perturber l'apprenant. Cette m\u00e9thode a d\u00e9j\u00e0 \u00e9t\u00e9 appliqu\u00e9e avec succ\u00e8s \u00e0 des gestionnaires de dialogues parl\u00e9s (Pietquin et al., 2011a; Daubigney et al., 2011) .", |
|
"cite_spans": [ |
|
{ |
|
"start": 656, |
|
"end": 680, |
|
"text": "(Pietquin et al., 2011a;", |
|
"ref_id": "BIBREF11" |
|
}, |
|
{ |
|
"start": 681, |
|
"end": 704, |
|
"text": "Daubigney et al., 2011)", |
|
"ref_id": "BIBREF6" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Conclusion", |
|
"sec_num": "5" |
|
}, |
|
{ |
|
"text": ". ALLEGRO : www.allegro-project.eu, financ\u00e9 par le programme INTERREG-IVa et la R\u00e9gion Lorraine.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "Exp\u00e9riencesNous n'avions pas de donn\u00e9es disponibles au moment de la r\u00e9daction de cet article ; nous avons donc simul\u00e9 des interactions entre le syst\u00e8me et l'apprenant. Le mod\u00e8le de l'apprenant est inspir\u00e9 de(Corbett et Anderson, 1994). Le mod\u00e8le est bas\u00e9 sur un jeu de probabilit\u00e9s qui simulent le fait que les connaissances d'un apprenant augmentent ou non apr\u00e8s avoir suivi une phase d'enseignement et qui simulent des r\u00e9ponses \u00e0 des questions. Il est important de garder \u00e0 l'esprit que le mod\u00e8le a seulement \u00e9t\u00e9 utilis\u00e9 pour g\u00e9n\u00e9rer des donn\u00e9es concordantes avec notre repr\u00e9sentation d'\u00e9tat mais qu'il n'est pas explicitement pris en compte pour \u00e9laborer la strat\u00e9gie d'apprentissage. Du point de vue de l'apprentissage par renforcement, tout se passe comme si les donn\u00e9es \u00e9taient g\u00e9n\u00e9r\u00e9es par des utilisateurs r\u00e9els. G\u00e9n\u00e9rer des donn\u00e9es avec un mod\u00e8le a aussi l'avantage de tester les strat\u00e9gies de fa\u00e7on statistiquement coh\u00e9rente. Les donn\u00e9es prennent la forme de traces d'interactions (une interaction \u00e9tant simplement une d\u00e9cision du syt\u00e8me suivie de la r\u00e9action de l'apprenant). Pour obtenir les donn\u00e9es, l'utilisateur simul\u00e9 doit interagir avec un syst\u00e8me initial dont le comportement est d\u00e9fini par une politique cod\u00e9e \u00e0 la main (ici le choix des actions est totalement al\u00e9atoire : des phases d'\u00e9valuation et d'enseignement alternent avec une probabilit\u00e9 de 50%). L'algorithme LSPI pr\u00e9sent\u00e9 section 2.2.1 est appliqu\u00e9 ensuite sur des", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
} |
|
], |
|
"back_matter": [], |
|
"bib_entries": { |
|
"BIBREF0": { |
|
"ref_id": "b0", |
|
"title": "A serious game for second language acquisition", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Amoia", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Gardent", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "L", |
|
"middle": [], |
|
"last": "Perez-Beltrachini", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "Proceedings of the Third International Conference on Computer Aided Education (CSEDU 2011)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "AMOIA, M., GARDENT, C. et PEREZ-BELTRACHINI, L. (2011). A serious game for second language acquisi- tion. In Proceedings of the Third International Conference on Computer Aided Education (CSEDU 2011), Noordwijkerout (The Netherlands).", |
|
"links": null |
|
}, |
|
"BIBREF1": { |
|
"ref_id": "b1", |
|
"title": "ADVISOR : A machine learning architecture for intelligent tutor construction", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"E" |
|
], |
|
"last": "Beck", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "B", |
|
"middle": [ |
|
"P" |
|
], |
|
"last": "Woolf", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [ |
|
"R" |
|
], |
|
"last": "Beal", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2000, |
|
"venue": "Proceedings of the National Conference on Articial Intelligence", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "552--557", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BECK, J. E., WOOLF, B. P. et BEAL, C. R. (2000). ADVISOR : A machine learning architecture for intelligent tutor construction. In Proceedings of the National Conference on Articial Intelligence, pages 552-557, Menlo Park, CA. MIT Press.", |
|
"links": null |
|
}, |
|
"BIBREF2": { |
|
"ref_id": "b2", |
|
"title": "Dynamic Programming", |
|
"authors": [ |
|
{ |
|
"first": "R", |
|
"middle": [], |
|
"last": "Bellman", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1957, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BELLMAN, R. (1957). Dynamic Programming. Dover Publications, sixth \u00e9dition.", |
|
"links": null |
|
}, |
|
"BIBREF3": { |
|
"ref_id": "b3", |
|
"title": "Learning for mastery", |
|
"authors": [ |
|
{ |
|
"first": "B", |
|
"middle": [ |
|
"S" |
|
], |
|
"last": "Bloom", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1968, |
|
"venue": "Evaluation comment", |
|
"volume": "1", |
|
"issue": "2", |
|
"pages": "1--5", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BLOOM, B. S. (1968). Learning for mastery. Evaluation comment, 1(2):1-5.", |
|
"links": null |
|
}, |
|
"BIBREF4": { |
|
"ref_id": "b4", |
|
"title": "Linear Least-Squares algorithms for temporal difference learning", |
|
"authors": [ |
|
{ |
|
"first": "S", |
|
"middle": [ |
|
"J" |
|
], |
|
"last": "Bradtke", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [ |
|
"G" |
|
], |
|
"last": "Barto", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1996, |
|
"venue": "Machine Learning", |
|
"volume": "22", |
|
"issue": "", |
|
"pages": "33--57", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BRADTKE, S. J. et BARTO, A. G. (1996). Linear Least-Squares algorithms for temporal difference learning. Machine Learning, 22(1-3):33-57.", |
|
"links": null |
|
}, |
|
"BIBREF5": { |
|
"ref_id": "b5", |
|
"title": "Knowledge tracing : Modeling the acquisition of procedural knowledge. User modeling and user-adapted interaction", |
|
"authors": [ |
|
{ |
|
"first": "A", |
|
"middle": [ |
|
"T" |
|
], |
|
"last": "Corbett", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"R" |
|
], |
|
"last": "Anderson", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1994, |
|
"venue": "", |
|
"volume": "4", |
|
"issue": "", |
|
"pages": "253--278", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "CORBETT, A. T. et ANDERSON, J. R. (1994). Knowledge tracing : Modeling the acquisition of procedural knowledge. User modeling and user-adapted interaction, 4(4):253-278.", |
|
"links": null |
|
}, |
|
"BIBREF6": { |
|
"ref_id": "b6", |
|
"title": "Uncertainty management for on-line optimisation of a POMDP-based large-scale spoken dialogue system", |
|
"authors": [ |
|
{ |
|
"first": "L", |
|
"middle": [], |
|
"last": "Daubigney", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Gasic", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Chandramohan", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Geist", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "O", |
|
"middle": [], |
|
"last": "Pietquin", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Young", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "Proceedings of the Twelfth Annual Conference of the International Speech Communication Association", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "DAUBIGNEY, L., GASIC, M., CHANDRAMOHAN, S., GEIST, M., PIETQUIN, O. et YOUNG, S. (2011). Uncertainty management for on-line optimisation of a POMDP-based large-scale spoken dialogue system. In Proceedings of the Twelfth Annual Conference of the International Speech Communication Association (Interspeech 2011).", |
|
"links": null |
|
}, |
|
"BIBREF7": { |
|
"ref_id": "b7", |
|
"title": "Kalman Temporal Differences", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Geist", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "O", |
|
"middle": [], |
|
"last": "Pietquin", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "Journal of Artificial Intelligence Research (JAIR)", |
|
"volume": "39", |
|
"issue": "", |
|
"pages": "483--532", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "GEIST, M. et PIETQUIN, O. (2010). Kalman Temporal Differences. Journal of Artificial Intelligence Research (JAIR), 39:483-532.", |
|
"links": null |
|
}, |
|
"BIBREF8": { |
|
"ref_id": "b8", |
|
"title": "Managing Uncertainty within the KTD Framework", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Geist", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "O", |
|
"middle": [], |
|
"last": "Pietquin", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "Journal of Machine Learning Research Conference and Workshop Proceedings", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "GEIST, M. et PIETQUIN, O. (2011). Managing Uncertainty within the KTD Framework. In Proceedings of the Workshop on Active Learning and Experimental Design (AL&E collocated with AISTAT 2010), Journal of Machine Learning Research Conference and Workshop Proceedings, Sardinia (Italy). 12 pages -to appear.", |
|
"links": null |
|
}, |
|
"BIBREF9": { |
|
"ref_id": "b9", |
|
"title": "Learning teaching strategies in an adaptive and intelligent educational system through reinforcement learning", |
|
"authors": [ |
|
{ |
|
"first": "A", |
|
"middle": [], |
|
"last": "Iglesias", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "P", |
|
"middle": [], |
|
"last": "Martinez", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "R", |
|
"middle": [], |
|
"last": "Aler", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Fernandez", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2009, |
|
"venue": "Applied Intelligence", |
|
"volume": "31", |
|
"issue": "1", |
|
"pages": "89--106", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "IGLESIAS, A., MARTINEZ, P., ALER, R. et FERNANDEZ, F. (2009). Learning teaching strategies in an adaptive and intelligent educational system through reinforcement learning. Applied Intelligence, 31(1):89-106.", |
|
"links": null |
|
}, |
|
"BIBREF10": { |
|
"ref_id": "b10", |
|
"title": "Least-squares policy iteration", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [ |
|
"G" |
|
], |
|
"last": "Lagoudakis", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "R", |
|
"middle": [], |
|
"last": "Parr", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2003, |
|
"venue": "Journal of Machine Learning Research", |
|
"volume": "4", |
|
"issue": "", |
|
"pages": "1107--1149", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LAGOUDAKIS, M. G. et PARR, R. (2003). Least-squares policy iteration. Journal of Machine Learning Research, 4:1107-1149.", |
|
"links": null |
|
}, |
|
"BIBREF11": { |
|
"ref_id": "b11", |
|
"title": "Sample Efficient On-line Learning of Optimal Dialogue Policies with Kalman Temporal Differences", |
|
"authors": [ |
|
{ |
|
"first": "O", |
|
"middle": [], |
|
"last": "Pietquin", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Geist", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Chandramohan", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "International Joint Conference on Artificial Intelligence (IJCAI 2011)", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "PIETQUIN, O., GEIST, M. et CHANDRAMOHAN, S. (2011a). Sample Efficient On-line Learning of Optimal Dialogue Policies with Kalman Temporal Differences. In International Joint Conference on Artificial Intelligence (IJCAI 2011), Barcelona, Spain. to appear.", |
|
"links": null |
|
}, |
|
"BIBREF12": { |
|
"ref_id": "b12", |
|
"title": "Sample-Efficient Batch Reinforcement Learning for Dialogue Management Optimization", |
|
"authors": [ |
|
{ |
|
"first": "O", |
|
"middle": [], |
|
"last": "Pietquin", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Geist", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [], |
|
"last": "Chandramohan", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "H", |
|
"middle": [], |
|
"last": "Frezza-Buet", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "ACM Transactions on Speech and Language Processing", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "PIETQUIN, O., GEIST, M., CHANDRAMOHAN, S. et FREZZA-BUET, H. (2011b). Sample-Efficient Batch Rein- forcement Learning for Dialogue Management Optimization. ACM Transactions on Speech and Language Processing. accepted for publication -24 pages.", |
|
"links": null |
|
}, |
|
"BIBREF13": { |
|
"ref_id": "b13", |
|
"title": "Reinforcement Learning : An Introduction", |
|
"authors": [ |
|
{ |
|
"first": "R", |
|
"middle": [ |
|
"S" |
|
], |
|
"last": "Sutton", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "A", |
|
"middle": [ |
|
"G" |
|
], |
|
"last": "Barto", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 1998, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "SUTTON, R. S. et BARTO, A. G. (1998). Reinforcement Learning : An Introduction. MIT Press.", |
|
"links": null |
|
} |
|
}, |
|
"ref_entries": { |
|
"FIGREF0": { |
|
"type_str": "figure", |
|
"uris": null, |
|
"num": null, |
|
"text": "FIGURE 1 -R\u00e9sultats" |
|
}, |
|
"TABREF0": { |
|
"type_str": "table", |
|
"num": null, |
|
"html": null, |
|
"content": "<table/>", |
|
"text": "Toutes les fonctions qui peuvent se mettre sous cette forme d\u00e9finissent un espace d'hypoth\u00e8ses = {Q \u03b8 |\u03b8 \u2208 p }. Chaque fonction Q peut se projeter sur cet espace \u00e0 l'aide d'un op\u00e9rateur de projection \u03a0 d\u00e9fini tel que :" |
|
} |
|
} |
|
} |
|
} |