|
{ |
|
"paper_id": "F14-2013", |
|
"header": { |
|
"generated_with": "S2ORC 1.0.0", |
|
"date_generated": "2023-01-19T10:22:28.526872Z" |
|
}, |
|
"title": "D\u00e9tection de p\u00e9riodes musicales d'une collection de musique par apprentissage", |
|
"authors": [ |
|
{ |
|
"first": "R\u00e9my", |
|
"middle": [], |
|
"last": "Kessler", |
|
"suffix": "", |
|
"affiliation": {}, |
|
"email": "[email protected]" |
|
}, |
|
{ |
|
"first": "Nicolas", |
|
"middle": [], |
|
"last": "B\u00e9chet", |
|
"suffix": "", |
|
"affiliation": {}, |
|
"email": "[email protected]" |
|
}, |
|
{ |
|
"first": "Audrey", |
|
"middle": [], |
|
"last": "Laplante", |
|
"suffix": "", |
|
"affiliation": {}, |
|
"email": "[email protected]" |
|
}, |
|
{ |
|
"first": "Dominic", |
|
"middle": [], |
|
"last": "Forest", |
|
"suffix": "", |
|
"affiliation": {}, |
|
"email": "[email protected]" |
|
} |
|
], |
|
"year": "", |
|
"venue": null, |
|
"identifiers": {}, |
|
"abstract": "Dans ces travaux, nous pr\u00e9sentons une approche afin d'\u00e9tiqueter une large collection de chansons francophones. Nous avons d\u00e9velopp\u00e9 une interface utilisant les paroles comme point d'entr\u00e9e afin d'explorer cette collection de musique avec des filtres en fonction de chaque p\u00e9riode musicale. Dans un premier temps, nous avons collect\u00e9 paroles et m\u00e9tadonn\u00e9es de diff\u00e9rentes sources sur le Web. Nous pr\u00e9sentons dans cet article une m\u00e9thode originale permettant d'attribuer de mani\u00e8re automatique la d\u00e9cennie de sortie des chansons de notre collection. Bas\u00e9e sur un syst\u00e8me \u00e9valu\u00e9 au cours d'une des campagnes DEFT, l'approche combine fouille de textes et apprentissage supervis\u00e9 et aborde la probl\u00e9matique comme une t\u00e2che de classification multi classes. Nous avons par la suite enrichi le mod\u00e8le d'un certain nombre de traits suppl\u00e9mentaires tels que les tags sociaux afin d'observer leur influence sur les r\u00e9sultats.", |
|
"pdf_parse": { |
|
"paper_id": "F14-2013", |
|
"_pdf_hash": "", |
|
"abstract": [ |
|
{ |
|
"text": "Dans ces travaux, nous pr\u00e9sentons une approche afin d'\u00e9tiqueter une large collection de chansons francophones. Nous avons d\u00e9velopp\u00e9 une interface utilisant les paroles comme point d'entr\u00e9e afin d'explorer cette collection de musique avec des filtres en fonction de chaque p\u00e9riode musicale. Dans un premier temps, nous avons collect\u00e9 paroles et m\u00e9tadonn\u00e9es de diff\u00e9rentes sources sur le Web. Nous pr\u00e9sentons dans cet article une m\u00e9thode originale permettant d'attribuer de mani\u00e8re automatique la d\u00e9cennie de sortie des chansons de notre collection. Bas\u00e9e sur un syst\u00e8me \u00e9valu\u00e9 au cours d'une des campagnes DEFT, l'approche combine fouille de textes et apprentissage supervis\u00e9 et aborde la probl\u00e9matique comme une t\u00e2che de classification multi classes. Nous avons par la suite enrichi le mod\u00e8le d'un certain nombre de traits suppl\u00e9mentaires tels que les tags sociaux afin d'observer leur influence sur les r\u00e9sultats.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Abstract", |
|
"sec_num": null |
|
} |
|
], |
|
"body_text": [ |
|
{ |
|
"text": "Consid\u00e9rant la grande quantit\u00e9 d'informations textuelles sur la musique pouvant \u00eatre extraite du Web, ce qui inclut m\u00e9tadonn\u00e9es diverses et paroles de chanson, de nouvelles avenues pour l'\u00e9tude de la chanson populaire s'ouvrent aux chercheurs. Au moyen de techniques de fouille de textes, il devient d\u00e9sormais possible de d\u00e9velopper des syst\u00e8mes permettant aux chercheurs d'\u00e9tendre leur \u00e9tude des paroles de chansons \u00e0 de larges corpus. Le projet IMAGE 1 propose d'utiliser les paroles comme point d'entr\u00e9e afin d'explorer une collection de musique. Dans nos pr\u00e9c\u00e9dents travaux (Kessler et al., 2014a) , nous pr\u00e9sentions une approche de fouille de textes ainsi qu'une interface permettant la recherche et l'exploration d'une large collection de chansons francophones sur la base des th\u00e9matiques abord\u00e9es dans leurs paroles. Les applications de notre d\u00e9marche sont nombreuses et vari\u00e9es dans le contexte du Web et de la diffusion de contenu multim\u00e9dia (analyse de la proximit\u00e9 entre les artistes sur la base des th\u00e9matiques abord\u00e9es dans leurs chansons, analyse diachronique, etc.) ainsi qu'aupr\u00e8s des sociologues, musicologues qui \u00e9tudient la musique populaire. Notre corpus incluant des m\u00e9tadonn\u00e9es riches sur les chansons qui le composent, nous avons d\u00e9velopp\u00e9 des fonctionnalit\u00e9s suppl\u00e9mentaires. Nous avons associ\u00e9 \u00e0 chaque chanson une p\u00e9riode musicale (ann\u00e9es 80, 90, etc.) afin de visualiser les chansons en fonction de chaque p\u00e9riode. Au cours de ce processus, nous avons d\u00fb \u00e9carter une grande quantit\u00e9 de chansons de notre corpus initial dans la mesure o\u00f9 nous ne disposions pas d'information concernant leur date de sortie. Afin de compl\u00e9ter les informations contenues dans la collection et d'\u00e9viter une t\u00e2che fastidieuse d'\u00e9tiquetage manuel, nous avons d\u00e9cid\u00e9 d'exploiter le reste de la collection ainsi que les m\u00e9tadonn\u00e9es dans le but d'\u00e9tiqueter automatiquement la collection. Apr\u00e8s une pr\u00e9sentation des travaux r\u00e9alis\u00e9s par d'autres chercheurs dans ce domaine, nous pr\u00e9senterons succinctement la m\u00e9thode de collecte du corpus ainsi que des statistiques. Nous aborderons ensuite les traitements appliqu\u00e9s aux paroles et m\u00e9tadonn\u00e9es avant de d\u00e9velopper notre approche pour d\u00e9tecter automatiquement la d\u00e9cennie de chaque chanson.", |
|
"cite_spans": [ |
|
{ |
|
"start": 578, |
|
"end": 601, |
|
"text": "(Kessler et al., 2014a)", |
|
"ref_id": "BIBREF11" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Introduction", |
|
"sec_num": "1" |
|
}, |
|
{ |
|
"text": "\u00c9tant donn\u00e9 l'abondance d'informations musicales disponibles en acc\u00e8s libre sur le Web, il n'est pas surprenant de constater qu'un grand nombre de chercheurs aient d\u00e9velopp\u00e9 des outils pour collecter et exploiter ces informations dans le rep\u00e9rage de la musique (voir Li et al. (2012) pour une revue exhaustive de la litt\u00e9rature sur ce sujet). Ainsi, McKay et al. (2010) utilisent les paroles de chansons en combinaison avec d'autres donn\u00e9es telles que descripteurs acoustiques et symboliques, contenu culturel tir\u00e9 du Web afin d'am\u00e9liorer la classification automatique par genre. M\u00eame si l'approche sous forme de sacs de mots reste la plus r\u00e9pandue pour classifier les chansons par genre,Mayer et al. (2008) utilisent des caract\u00e9ristiques additionnelles telles que les rimes ou les cat\u00e9gories grammaticales. Des chercheurs ont \u00e9galement d\u00e9montr\u00e9 la pertinence d'utiliser les paroles pour r\u00e9aliser d'autres t\u00e2ches, notamment pour la d\u00e9tection d'\u00e9motions (Hu et al., 2009; Van Zaanen & Kanters, 2010) , ou encore dans le but d'\u00e9tablir le degr\u00e9 de similarit\u00e9 entre artistes \u00e0 l'aide d'une analyse s\u00e9mantique des paroles (Logan et al., 2004) . M\u00fcller et al. (2007) proposent un moteur de recherche sur les paroles de chanson permettant d'acc\u00e9der directement \u00e0 la partie de l'enregistrement audio correspondant \u00e0 sa requ\u00eate au moyen d'un alignement automatique entre paroles et bande sonore. L'utilisation des tags sociaux 2 dans le cadre des donn\u00e9es musicales est devenue pratique courante afin d'am\u00e9liorer la description des ressources en ligne. En effet, ils offrent un grand volume d'informations textuelles qui va bien au-del\u00e0 des m\u00e9tadonn\u00e9es standards. Levy & Sandler (2008) montrent leur l'efficacit\u00e9 dans un syst\u00e8me de recherche tout en soulignant les probl\u00e8mes de polys\u00e9mie 3 ou encore de synonymie 4 . De la m\u00eame fa\u00e7on, Laurier et al. (2008) les utilisent afin de constituer une r\u00e9f\u00e9rence pour \u00e9valuer leur syst\u00e8me tandis que (Trant, 2009) d\u00e9crit une m\u00e9thodologie permettant la construction automatique d'une taxonomie hi\u00e9rarchique en fonction de leurs fr\u00e9quences. M\u00eame si les tags sociaux ont des caract\u00e9ristiques particuli\u00e8res, nous pensons qu'ils sont une source de donn\u00e9es d'apprentissage pertinente. \u00c0 notre connaissance, il n'existe pas de travaux visant \u00e0 d\u00e9tecter la p\u00e9riode de cr\u00e9ation de chansons ou d'autres pi\u00e8ces musicales. N\u00e9anmoins, l'analyse des informations temporelles est souvent une composante essentielle dans la compr\u00e9hension de textes et est utile dans un grand nombre d'applications de recherche et organisation d'informations comme le souligne (Alonso, 2008; Kanhabua, 2009) . La t\u00e2che de variation diachronique a ainsi fait l'objet de deux campagnes d'\u00e9valuation DEFT 5 . Diff\u00e9rentes approches statistiques et symboliques, en combinaison avec des techniques d'apprentissage, ont \u00e9t\u00e9 d\u00e9velopp\u00e9es par les participants afin de d\u00e9tecter la p\u00e9riode de textes journalistiques. G\u00e9n\u00e9reux (2010) a ainsi pu mettre en \u00e9vidence des variations de fr\u00e9quences ou des mots saillants pour chaque d\u00e9cennie tandis que Raymond & Claveau (2011) ont pris en compte les variations de la ponctuation au cours du temps. Au niveau linguistique, une belle \u00e9tude de r\u00e9formes orthographiques a \u00e9t\u00e9 effectu\u00e9e par Albert et al. 2010, permettant aux auteurs de concevoir des filtres pour chaque p\u00e9riode sp\u00e9cifique. Des ressources externes ont aussi \u00e9t\u00e9 utilis\u00e9es, telles que des entit\u00e9s d'\u00e9v\u00e9nements nomm\u00e9s (Monceaux & Tartier, 2010) ou encore une base de donn\u00e9es avec la date de naissance de personnages c\u00e9l\u00e8bres (Garc\u00eda-Fernandez et al., 2011). M\u00eame si la s\u00e9mantique de la musique reste difficile \u00e0 d\u00e9tecter comme le montre les travaux pr\u00e9c\u00e9dents, nous pensons que les tags sociaux et les paroles de chansons, au travers des styles ou genres musicaux, fournissent des descripteurs pertinents.", |
|
"cite_spans": [ |
|
{ |
|
"start": 261, |
|
"end": 283, |
|
"text": "(voir Li et al. (2012)", |
|
"ref_id": null |
|
}, |
|
{ |
|
"start": 953, |
|
"end": 970, |
|
"text": "(Hu et al., 2009;", |
|
"ref_id": "BIBREF8" |
|
}, |
|
{ |
|
"start": 971, |
|
"end": 998, |
|
"text": "Van Zaanen & Kanters, 2010)", |
|
"ref_id": "BIBREF25" |
|
}, |
|
{ |
|
"start": 1117, |
|
"end": 1137, |
|
"text": "(Logan et al., 2004)", |
|
"ref_id": "BIBREF16" |
|
}, |
|
{ |
|
"start": 1140, |
|
"end": 1160, |
|
"text": "M\u00fcller et al. (2007)", |
|
"ref_id": "BIBREF20" |
|
}, |
|
{ |
|
"start": 1825, |
|
"end": 1846, |
|
"text": "Laurier et al. (2008)", |
|
"ref_id": "BIBREF13" |
|
}, |
|
{ |
|
"start": 1931, |
|
"end": 1944, |
|
"text": "(Trant, 2009)", |
|
"ref_id": "BIBREF24" |
|
}, |
|
{ |
|
"start": 2574, |
|
"end": 2588, |
|
"text": "(Alonso, 2008;", |
|
"ref_id": "BIBREF1" |
|
}, |
|
{ |
|
"start": 2589, |
|
"end": 2604, |
|
"text": "Kanhabua, 2009)", |
|
"ref_id": "BIBREF9" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Travaux connexes", |
|
"sec_num": "2" |
|
}, |
|
{ |
|
"text": "Dans le domaine musical, le jeu de donn\u00e9es le plus imposant est le Million Song Dataset (MSD) (Bertin-Mahieux et al., 2011) qui, comme son nom l'indique, contient plus d'un million de chansons. Il est accompagn\u00e9 des paroles de plus de deux cent mille chansons repr\u00e9sent\u00e9es sous forme de matrice sac de mots, le MusiXmatch Dataset, lequel n'inclut malheureusement qu'une faible portion de chansons en fran\u00e7ais. Nous avons donc choisi de constituer notre jeu de donn\u00e9es. \u00c0 l'aide d'une liste de pays francophones, nous avons utilis\u00e9 les API de diff\u00e9rents entrep\u00f4ts de donn\u00e9es musicales (Lyric-Wiki, EchoNest, LastFM, Paroles.net et musiXmatch,) afin de collecter un grand nombre de donn\u00e9es sur chaque chanson. Comme il s'est av\u00e9r\u00e9 difficile de trouver des informations fiables sur la langue des chansons, nous avons compar\u00e9 les paroles collect\u00e9es \u00e0 des antidictionnaires dans plusieurs langues (anglais, fran\u00e7ais, etc.) afin de d\u00e9tecter automatiquement la langue de chaque chanson. ", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Constitution d'un corpus de chansons", |
|
"sec_num": "3" |
|
}, |
|
{ |
|
"text": "Toujours dans l'id\u00e9e de d\u00e9tecter des descripteurs additionnels sur la base des informations textuelles \u00e0 notre disposition, nous avons eu recours \u00e0 l'utilisation des motifs s\u00e9quentiels. Nous introduisons dans un premier temps ces derniers avant de pr\u00e9senter la m\u00e9thode mise en oeuvre afin d'exploiter les motifs s\u00e9quentiels avec des donn\u00e9es textuelles. D\u00e9finitions. Introduite par (Agrawal & Srikant, 1995) , l'extraction de motifs s\u00e9quentiels est un champ de la fouille de donn\u00e9es visant \u00e0 extraire des r\u00e9gularit\u00e9s dans un jeu de donn\u00e9es se pr\u00e9sentant sous la forme de s\u00e9quences. Ce jeu de donn\u00e9es est appel\u00e9 base de donn\u00e9es s\u00e9quentielles (SDB). Les auteurs ont introduit la notion de s\u00e9quence not\u00e9e s = I 1 . . . I m , comme \u00e9tant une liste ordonn\u00e9e d'itemsets . Un itemset, not\u00e9 I = (i 1 . . . i n ) est un ensemble de litt\u00e9raux appel\u00e9s items. Ainsi, la s\u00e9quence (a) (a b c) (a c) (d) est ici compos\u00e9e de quatre itemsets, dont le deuxi\u00e8me itemset comporte trois items a, b et c. Une s\u00e9quence S 1 = I 1 . . . I n est incluse dans une s\u00e9quence S 2 = I 1 . . . I m si il existe des entiers 1 \u2264 j 1 < ... < j n \u2264 m tel que I 1 \u2286 I j1 ,..., I n \u2286 I jn . On dit alors que S 2 supporte S 1 et que S 1 est une sous-s\u00e9quence de S 2 . Par exemple, (a)(a c) \u2286 (a)(a b c)(a c)(d) . Le support d'un motif s\u00e9quentiel P (not\u00e9e sup(P )) est le nombre de s\u00e9quences de la SDB supportant P divis\u00e9 par le nombre de s\u00e9quences de la SDB. Finalement, un motif s\u00e9quentiel fr\u00e9quent est dit maximal si il n'existe aucun motif pouvant \u00eatre inclus dans ce dernier. Utilisation des motifs pour les textes des chansons. Dans notre cas, chaque chanson est consid\u00e9r\u00e9e comme une SDB. Ainsi, chaque vers repr\u00e9sente une s\u00e9quence. Les itemsets constituants les s\u00e9quences sont alors construits \u00e0 partir des mots de chaque vers de la mani\u00e8re suivante. Pour chaque mot, un lemme et une cat\u00e9gorie grammaticale sont extraits afin de former un itemset 7 . Consid\u00e9rons par exemple le vers suivant extrait d'une chanson : \"Sauver une \u00e2me\". La s\u00e9quence r\u00e9sultante sera alors : (Sauver V ERBE) (un P RON OM ) (\u00e2me N OM ) .", |
|
"cite_spans": [ |
|
{ |
|
"start": 381, |
|
"end": 406, |
|
"text": "(Agrawal & Srikant, 1995)", |
|
"ref_id": null |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Utilisation de motifs s\u00e9quentiels", |
|
"sec_num": "4.2.1" |
|
}, |
|
{ |
|
"text": "Afin d'obtenir de nouveaux descripteurs caract\u00e9risant les chansons nous proc\u00e9dons alors comme suit : 1) construire les SDB pour chaque chanson, 2) extraire les motifs s\u00e9quentiels maximaux \u00e0 partir des SDB, 3) conserver uniquement les k motifs les plus fr\u00e9quents afin de repr\u00e9senter chaque chanson. Finalement, une mesure de similarit\u00e9 est en cours de r\u00e9alisation afin de mesurer la proximit\u00e9 entre deux motifs s\u00e9quentiels ce qui nous permettra de calculer des m\u00e9do\u00efdes repr\u00e9sentant les diff\u00e9rentes classes. Toute nouvelle chanson, une fois les motifs s\u00e9quentiels la caract\u00e9risant extraits, pourra alors \u00eatre compar\u00e9e \u00e0 ces m\u00e9do\u00efdes afin de lui attribuer automatiquement une classe.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Utilisation de motifs s\u00e9quentiels", |
|
"sec_num": "4.2.1" |
|
}, |
|
{ |
|
"text": "Afin d'entra\u00eener les classifieurs, une \u00e9tiquette a \u00e9t\u00e9 associ\u00e9e \u00e0 chaque chanson en fonction de sa p\u00e9riode musicale (ann\u00e9es 80, 90, etc.). Compte tenu du peu de documents pour ces p\u00e9riodes dans le corpus, les chansons des ann\u00e9es 50, 60 et 70 ont \u00e9t\u00e9 ramen\u00e9es \u00e0 une \u00e9tiquette unique, ann\u00e9es 50-70. Nous avons \u00e9valu\u00e9 cette approche avec une validation crois\u00e9e classique sur 5 partitions du corpus. Chaque chanson est ainsi r\u00e9partie al\u00e9atoirement dans une des partitions, avec un nombre \u00e9quilibr\u00e9 de chansons pour chaque p\u00e9riode. Nous utilisons 4 sous-corpus en tant que donn\u00e9es d'apprentissage (trois sont utilis\u00e9s en apprentissage tandis que le dernier permet de calibrer le classifieur) et le cinqui\u00e8me corpus est r\u00e9serv\u00e9 au test : 5 jeux de tests tournants sont ainsi cr\u00e9\u00e9s. Chacune des exp\u00e9riences a \u00e9t\u00e9 \u00e9valu\u00e9e sur les corpus de test en utilisant les mesures classiques de Pr\u00e9cision, Rappel et F-score des documents bien class\u00e9s, moyenn\u00e9es sur toutes les classes (avec \u03b2 = 1 afin de ne privil\u00e9gier ni la pr\u00e9cision ni le rappel (Goutte & Gaussier, 2005) ). Le score final d'un test est ensuite calcul\u00e9 en faisant la macro moyenne de tous les scores obtenus sur chacun des ensembles de test. \u00c0 titre de comparaison, nous avons inclus la mesure d'\u00e9valuation d\u00e9velopp\u00e9e par (Grouin et al., 2011) permettant d'\u00e9valuer le r\u00e9sultat obtenu sur la base d'une fen\u00eatre de 15 ans autour de l'ann\u00e9e de r\u00e9f\u00e9rence.", |
|
"cite_spans": [ |
|
{ |
|
"start": 1030, |
|
"end": 1055, |
|
"text": "(Goutte & Gaussier, 2005)", |
|
"ref_id": "BIBREF6" |
|
}, |
|
{ |
|
"start": 1273, |
|
"end": 1294, |
|
"text": "(Grouin et al., 2011)", |
|
"ref_id": "BIBREF7" |
|
} |
|
], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Protocole exp\u00e9rimental", |
|
"sec_num": "5.1" |
|
}, |
|
{ |
|
"text": "En observant les r\u00e9sultats du tableau 2, on constate que le syst\u00e8me classique (SB) obtient un score de 0,38 en Pr\u00e9cision et un F-score de 0,54, ce qui est globalement faible, mais comparable aux r\u00e9sultats de la campagne DEFT, m\u00eame si le nombre de classes \u00e9tait plus important. L'utilisation d'un antidictionnaire et d'une \u00e9tape de lemmatisation apporte peu individuellement, mais permet d'am\u00e9liorer les r\u00e9sultats des autres exp\u00e9riences. Concernant les traits EchoNest, ceux-ci apportent peu de gain, mais nous expliquons cela par le nombre cons\u00e9quent de documents pour lesquels nous n'avions pas ces donn\u00e9es. L'apport des autres traits (COL, ACS) reste aussi faible et peu significatif m\u00eame si l'on observe que les performances sont conserv\u00e9es lors des combinaisons. L'\u00e9tude d\u00e9taill\u00e9e des r\u00e9sultats montre qu'en dehors des paroles de chansons, les tags sociaux sont le premier trait pris en compte lors de la prise de d\u00e9cision suivi par les motifs ainsi que le nom des collaborateurs. N\u00e9anmoins, une observation plus approfondie des erreurs commises montre que l'utilisation de certains tags sociaux comme \u00ab fran\u00e7ais \u00bbou encore \u00ab live \u00bb influence de fa\u00e7on n\u00e9gative le syst\u00e8me. De m\u00eame, la fr\u00e9quence importante du tag social \u00ab star \u00bbpour de nombreux artistes sur des p\u00e9riodes diff\u00e9rentes semble conduire le syst\u00e8me \u00e0 commettre des erreurs lors de l'attribution de la d\u00e9cennie. M\u00eame si certains tags \u00e0 caract\u00e8re personnel comme \u00ab favoritos \u00bbapportent peu d'information, d'autres tels que \u00ab party 2010 \u00bbou encore \u00ab seen in 2013 \u00bbpermettent au syst\u00e8me de d\u00e9terminer la bonne p\u00e9riode. En outre, l'utilisation de tags tels que \u00ab Disco francophone \u00bb , \u00ab 1960s \u00bb , \u00ab french celtic rap \u00bb , ou encore les noms d'artistes permettent de r\u00e9duire de fa\u00e7on significative les erreurs commises par le syst\u00e8me. Diff\u00e9rentes exp\u00e9riences compl\u00e9mentaires sont en cours afin d'expliquer et am\u00e9liorer ces r\u00e9sultats. Les r\u00e9sultats obtenus \u00e0 l'aide de la mesure d'\u00e9valuation de la campagne 2011 confirment ces tendances m\u00eame si les t\u00e2ches ne sont pas identiques (d\u00e9tection de d\u00e9cennie versus ann\u00e9e exacte) . On notera cependant les scores relativement bas ainsi que la faible variation entre les diff\u00e9rentes ex\u00e9cutions du syst\u00e8me.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "R\u00e9sultats", |
|
"sec_num": "5.2" |
|
}, |
|
{ |
|
"text": "Dans cet article, nous avons pr\u00e9sent\u00e9 une approche combinant fouille de texte et apprentissage afin de retrouver les p\u00e9riodes musicales manquantes d'une large collection. Plus sp\u00e9cifiquement, l'approche repose d'abord sur l'utilisation d'algorithmes de fouille de textes ainsi que sur des techniques d'apprentissage machine. Notre collection est repr\u00e9sent\u00e9e sous forme de sacs de mots compl\u00e9t\u00e9s par des traits suppl\u00e9mentaires avant de les classifier \u00e0 l'aide d'un algorithme de boosting. Les r\u00e9sultats obtenus montrent que l'utilisation des paroles et des tags sociaux sont une source int\u00e9ressante afin d'identifier les liens entre les diff\u00e9rentes p\u00e9riodes musicales fournissant une base d'apprentissage non n\u00e9gligeable. Finalement, les premiers tests bas\u00e9s sur les motifs s\u00e9quentiels pr\u00e9sentent des r\u00e9sultats encourageants, mais n\u00e9cessitent des exp\u00e9riences compl\u00e9mentaires. Nous pr\u00e9voyons de continuer \u00e0 augmenter le corpus afin de confirmer ces hypoth\u00e8ses et envisageons d'autres exp\u00e9riences comme la d\u00e9tection de parolier ou encore de styles musicaux propres \u00e0 chaque artiste.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Conclusion et perspectives", |
|
"sec_num": "6" |
|
}, |
|
{ |
|
"text": "Les tags sociaux sont les mots cl\u00e9s libres que les utilisateurs d'un service attribuent aux ressources (p. ex. : chanson, album ou artiste), notamment dans le but de les rep\u00e9rer par la suite.3 le tag \u00ab love \u00bb peut correspondre \u00e0 une chanson favorite aussi bien qu'une chanson parlant d'amour 4 la d\u00e9signation de musique \u00e9lectronique peut \u00eatre retrouv\u00e9e au travers de diff\u00e9rents termes tels que \u00ab musique \u00e9lectro \u00bb ,\u00ab musique \u00e9lectronique \u00bb ou encore \u00ab \u00e9lectro \u00bb tout court 5 D\u00c9fi Fouille de Textes http://deft.limsi.fr/", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
}, |
|
{ |
|
"text": "La lemmatisation simple consiste \u00e0 trouver la racine des verbes fl\u00e9chis et \u00e0 ramener les mots pluriels et/ou f\u00e9minins au masculins singulier.", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "", |
|
"sec_num": null |
|
} |
|
], |
|
"back_matter": [ |
|
{ |
|
"text": "Les auteurs tiennent \u00e0 remercier le Conseil de Recherches en Sciences Humaines (CRSH), qui ont partiellement financ\u00e9 ces travaux, le LIA pour la mise \u00e0 disposition de ressources, Pierre-Fran\u00e7ois Marteau pour sa collaboration ainsi que M\u00e9lanie Couderc pour ses relectures attentives. [P-S1.3]", |
|
"cite_spans": [], |
|
"ref_spans": [], |
|
"eq_spans": [], |
|
"section": "Remerciements", |
|
"sec_num": null |
|
} |
|
], |
|
"bib_entries": { |
|
"BIBREF0": { |
|
"ref_id": "b0", |
|
"title": "D\u00e9cennie d'un article de journal par analyse statistique et lexicale", |
|
"authors": [ |
|
{ |
|
"first": "Albert", |
|
"middle": [ |
|
"P" |
|
], |
|
"last": "Badin", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [], |
|
"last": "Delorme", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Devos", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "N", |
|
"middle": [], |
|
"last": "Papazoglou", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "S", |
|
"middle": [ |
|
"&" |
|
], |
|
"last": "Simard J", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "Actes DEFT", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "85--97", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "ALBERT P., BADIN F., DELORME M., DEVOS N., PAPAZOGLOU S. & SIMARD J. (2010). D\u00e9cennie d'un article de journal par analyse statistique et lexicale. In Actes DEFT 2010, p. 85-97, Montr\u00e9al, Canada.", |
|
"links": null |
|
}, |
|
"BIBREF1": { |
|
"ref_id": "b1", |
|
"title": "Temporal information retrieval", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"R" |
|
], |
|
"last": "Alonso O", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2008, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "ALONSO O. R. (2008). Temporal information retrieval. PhD thesis, University of California at Davis, Davis, CA, USA. Adviser-Gertz, Michael.", |
|
"links": null |
|
}, |
|
"BIBREF2": { |
|
"ref_id": "b2", |
|
"title": "The million Song Dataset", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Bertin-Mahieux T", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Ellis D", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Whitman B. & Lamere P", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "591--596", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "BERTIN-MAHIEUX T., ELLIS D., WHITMAN B. & LAMERE P. (2011). The million Song Dataset. In ISMIR 2011, Miami, Florida, p. 591-596.", |
|
"links": null |
|
}, |
|
"BIBREF4": { |
|
"ref_id": "b4", |
|
"title": "M\u00e9thodes pour l'arch\u00e9ologie linguistique : datation par combinaison d'indices temporels", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Garc\u00eda-Fernandez A", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Ligozat A.-L", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Dinarelli", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Bernhard D", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "Actes DEFT", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "GARC\u00cdA-FERNANDEZ A., LIGOZAT A.-L., DINARELLI M. & BERNHARD D. (2011). M\u00e9thodes pour l'arch\u00e9ologie linguistique : datation par combinaison d'indices temporels. In Actes DEFT 2011.", |
|
"links": null |
|
}, |
|
"BIBREF5": { |
|
"ref_id": "b5", |
|
"title": "Classification de textes en comparant les fr\u00e9quences lexicales", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "G\u00e9n\u00e9reux", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "Actes DEFT 2010", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "57--68", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "G\u00c9N\u00c9REUX M. (2010). Classification de textes en comparant les fr\u00e9quences lexicales. In Actes DEFT 2010, p. 57-68, Montr\u00e9al, Canada.", |
|
"links": null |
|
}, |
|
"BIBREF6": { |
|
"ref_id": "b6", |
|
"title": "A Probabilistic Interpretation of Precision, Recall and F-Score, with Implication for Evaluation", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Goutte C. & Gaussier E", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2005, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "345--359", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "GOUTTE C. & GAUSSIER E. (2005). A Probabilistic Interpretation of Precision, Recall and F-Score, with Implication for Evaluation. ECIR 2005, p. 345-359.", |
|
"links": null |
|
}, |
|
"BIBREF7": { |
|
"ref_id": "b7", |
|
"title": "Pr\u00e9sentation et r\u00e9sultats du d\u00e9fi fouille de texte DEFT2011 quand un article de presse a t-il \u00e9t\u00e9 \u00e9crit ? Actes du septi\u00e8me D\u00c9fi Fouille de Textes", |
|
"authors": [ |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Grouin", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Forest D", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Paroubek P. & Zweigenbaum P", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "GROUIN C., FOREST D., PAROUBEK P. & ZWEIGENBAUM P. (2011). Pr\u00e9sentation et r\u00e9sultats du d\u00e9fi fouille de texte DEFT2011 quand un article de presse a t-il \u00e9t\u00e9 \u00e9crit ? Actes du septi\u00e8me D\u00c9fi Fouille de Textes, p.3.", |
|
"links": null |
|
}, |
|
"BIBREF8": { |
|
"ref_id": "b8", |
|
"title": "Lyric Text Mining in Music Mood Classification", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Hu X", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"S" |
|
], |
|
"last": "Downie", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"F" |
|
], |
|
"last": "Ehmann A", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2009, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "411--416", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "HU X., DOWNIE J. S. & EHMANN A. F. (2009). Lyric Text Mining in Music Mood Classification. (5,049), 411-416.", |
|
"links": null |
|
}, |
|
"BIBREF9": { |
|
"ref_id": "b9", |
|
"title": "Exploiting temporal information in retrieval of archived documents", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Kanhabua N", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2009, |
|
"venue": "Proceedings of the 32nd", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "KANHABUA N. (2009). Exploiting temporal information in retrieval of archived documents. In Proceedings of the 32nd", |
|
"links": null |
|
}, |
|
"BIBREF10": { |
|
"ref_id": "b10", |
|
"title": "Annual International ACM SIGIR Conference on Research and Development in Information Retrieval", |
|
"authors": [], |
|
"year": 2009, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR 2009, Boston, MA, USA, July 19-23, 2009, p. 848.", |
|
"links": null |
|
}, |
|
"BIBREF11": { |
|
"ref_id": "b11", |
|
"title": "Encore des mots, toujours des mots : fouille de textes et visualisation de l'information pour l'exploration et l'analyse d'une collection de chansons en fran\u00e7ais", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Kessler R", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Laplante A", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Forest D", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2014, |
|
"venue": "Journ\u00e9es d'Analyse statistique des Donn\u00e9es Textuelles", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "KESSLER R., LAPLANTE A. & FOREST D. (2014a). Encore des mots, toujours des mots : fouille de textes et visuali- sation de l'information pour l'exploration et l'analyse d'une collection de chansons en fran\u00e7ais. In Journ\u00e9es d'Analyse statistique des Donn\u00e9es Textuelles (JADT 2014), Paris, (\u00e0 para\u00eetre).", |
|
"links": null |
|
}, |
|
"BIBREF12": { |
|
"ref_id": "b12", |
|
"title": "Exploration d'une collection de chansons \u00e0 partir d'une interface de visualisation bas\u00e9e sur une analyse des paroles", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Kessler R", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Laplante A", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Forest D", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2014, |
|
"venue": "", |
|
"volume": "EGC", |
|
"issue": "", |
|
"pages": "112--123", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "KESSLER R., LAPLANTE A. & FOREST D. (2014b). Exploration d'une collection de chansons \u00e0 partir d'une interface de visualisation bas\u00e9e sur une analyse des paroles. volume EGC, RNTI-E-26, p. 112-123.", |
|
"links": null |
|
}, |
|
"BIBREF13": { |
|
"ref_id": "b13", |
|
"title": "Multimodal Music Mood Classification Using Audio and Lyrics", |
|
"authors": [ |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Laurier", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"&" |
|
], |
|
"last": "Grivolla", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Herrera P", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2008, |
|
"venue": "Machine Learning and Applications", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "688--693", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LAURIER C., GRIVOLLA J. & HERRERA P. (2008). Multimodal Music Mood Classification Using Audio and Lyrics. In Machine Learning and Applications, 2008 ICMLA'08, p. 688-693.", |
|
"links": null |
|
}, |
|
"BIBREF14": { |
|
"ref_id": "b14", |
|
"title": "Learning Latent Semantic Models for Music from Social Tags", |
|
"authors": [ |
|
{ |
|
"first": "Levy", |
|
"middle": [ |
|
"M &" |
|
], |
|
"last": "Sandler M", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2008, |
|
"venue": "Journal of New Music Research", |
|
"volume": "", |
|
"issue": "2", |
|
"pages": "137--150", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LEVY M. & SANDLER M. (2008). Learning Latent Semantic Models for Music from Social Tags. Journal of New Music Research, (2), 137-150.", |
|
"links": null |
|
}, |
|
"BIBREF15": { |
|
"ref_id": "b15", |
|
"title": "Music Data Mining", |
|
"authors": [ |
|
{ |
|
"first": "Li", |
|
"middle": [ |
|
"T" |
|
], |
|
"last": "Mitsunori O. & Tzanetakis G", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2012, |
|
"venue": "", |
|
"volume": "21", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LI T., MITSUNORI O. & TZANETAKIS G. (2012). Music Data Mining, volume 21. CRC Press Llc.", |
|
"links": null |
|
}, |
|
"BIBREF16": { |
|
"ref_id": "b16", |
|
"title": "Semantic Analysis of Song Lyrics", |
|
"authors": [ |
|
{ |
|
"first": "Logan", |
|
"middle": [ |
|
"B" |
|
], |
|
"last": "Kositsky A", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Moreno P", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2004, |
|
"venue": "ICME'04, IEEE International Conference", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "827--830", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "LOGAN B., KOSITSKY A. & MORENO P. (2004). Semantic Analysis of Song Lyrics. In ICME'04, IEEE International Conference, p. 827-830.", |
|
"links": null |
|
}, |
|
"BIBREF17": { |
|
"ref_id": "b17", |
|
"title": "Rhyme and Style Features for Musical Genre Classification by Song Lyrics", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Mayer R", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Neumayer R. & Rauber A", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2008, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "337--342", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "MAYER R., NEUMAYER R. & RAUBER A. (2008). Rhyme and Style Features for Musical Genre Classification by Song Lyrics. In ISMIR 2008, p. 337-342.", |
|
"links": null |
|
}, |
|
"BIBREF18": { |
|
"ref_id": "b18", |
|
"title": "Evaluating the Genre Classification Performance of Lyrical Features relative to Audio, Symbolic and Cultural Features", |
|
"authors": [ |
|
{ |
|
"first": "C", |
|
"middle": [], |
|
"last": "Mckay", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"A" |
|
], |
|
"last": "Burgoyne", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [], |
|
"last": "Hockman", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [], |
|
"last": "Smith", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Vigliensoni G. & Fujinaga I", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "ISMIR 2010", |
|
"volume": "10", |
|
"issue": "", |
|
"pages": "213--218", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "MCKAY C., BURGOYNE J. A., HOCKMAN J., SMITH J., VIGLIENSONI G. & FUJINAGA I. (2010). Evaluating the Genre Classification Performance of Lyrical Features relative to Audio, Symbolic and Cultural Features. In ISMIR 2010, volume 10, p. 213-218.", |
|
"links": null |
|
}, |
|
"BIBREF19": { |
|
"ref_id": "b19", |
|
"title": "Utilisation d'outils linguistiques pour trouver la date ou l'origine d'un fragment textuel", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Monceaux L. & Tartier A", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "Actes DEFT 2010", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "21--34", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "MONCEAUX L. & TARTIER A. (2010). Utilisation d'outils linguistiques pour trouver la date ou l'origine d'un fragment textuel. In Actes DEFT 2010, p. 21-34, Montr\u00e9al, Canada.", |
|
"links": null |
|
}, |
|
"BIBREF20": { |
|
"ref_id": "b20", |
|
"title": "Lyrics-Based Audio Retrieval and Multimodal Navigation in Music Collections", |
|
"authors": [ |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "M\u00fcller", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Kurth F", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "D", |
|
"middle": [], |
|
"last": "Damm", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "C", |
|
"middle": [ |
|
"&" |
|
], |
|
"last": "Fremerey", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Clausen M", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2007, |
|
"venue": "Research and Advanced Technology for Digital Libraries", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "112--123", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "M\u00dcLLER M., KURTH F., DAMM D., FREMEREY C. & CLAUSEN M. (2007). Lyrics-Based Audio Retrieval and Multimodal Navigation in Music Collections. In Research and Advanced Technology for Digital Libraries, p. 112-123.", |
|
"links": null |
|
}, |
|
"BIBREF21": { |
|
"ref_id": "b21", |
|
"title": "Syst\u00e8me du LIA pour la campagne DEFT'10 : datation et localisation d'articles de presse francophones", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Oger S", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "M", |
|
"middle": [], |
|
"last": "Rouvier", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "N", |
|
"middle": [], |
|
"last": "Camelin", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Kessler R", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "F", |
|
"middle": [ |
|
"&" |
|
], |
|
"last": "Lef\u00e8vre", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "J", |
|
"middle": [ |
|
"M" |
|
], |
|
"last": "Torres-Moreno", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "Actes DEFT 2010", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "69--83", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "OGER S., ROUVIER M., CAMELIN N., KESSLER R., LEF\u00c8VRE F. & TORRES-MORENO J. M. (2010). Syst\u00e8me du LIA pour la campagne DEFT'10 : datation et localisation d'articles de presse francophones. In Actes DEFT 2010, p. 69-83, Montr\u00e9al, Canada.", |
|
"links": null |
|
}, |
|
"BIBREF22": { |
|
"ref_id": "b22", |
|
"title": "Participation de l'IRISA \u00e0 DEFT2011 : exp\u00e9riences avec des approches d'apprentissage supervis\u00e9 et non supervis\u00e9", |
|
"authors": [ |
|
{ |
|
"first": "Raymond", |
|
"middle": [ |
|
"C &" |
|
], |
|
"last": "Claveau V", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2011, |
|
"venue": "Actes DEFT", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "RAYMOND C. & CLAVEAU V. (2011). Participation de l'IRISA \u00e0 DEFT2011 : exp\u00e9riences avec des approches d'ap- prentissage supervis\u00e9 et non supervis\u00e9. In Actes DEFT 2011.", |
|
"links": null |
|
}, |
|
"BIBREF23": { |
|
"ref_id": "b23", |
|
"title": "BoosTexter : A boosting-based system for text categorization. Machine Learning", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [ |
|
"E" |
|
], |
|
"last": "Schapire R", |
|
"suffix": "" |
|
}, |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Singer Y", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2000, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "135--168", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "SCHAPIRE R. E. & SINGER Y. (2000). BoosTexter : A boosting-based system for text categorization. Machine Lear- ning, p. 135-168.", |
|
"links": null |
|
}, |
|
"BIBREF24": { |
|
"ref_id": "b24", |
|
"title": "Studying social tagging and folksonomy : A review and framework", |
|
"authors": [ |
|
{ |
|
"first": "J", |
|
"middle": [], |
|
"last": "Trant", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2009, |
|
"venue": "", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "TRANT J. (2009). Studying social tagging and folksonomy : A review and framework.", |
|
"links": null |
|
}, |
|
"BIBREF25": { |
|
"ref_id": "b25", |
|
"title": "Automatic Mood Classification using tf* idf based on Lyrics", |
|
"authors": [ |
|
{ |
|
"first": "", |
|
"middle": [], |
|
"last": "Van Zaanen M. & Kanters P", |
|
"suffix": "" |
|
} |
|
], |
|
"year": 2010, |
|
"venue": "Proceedings of the 11th Int. Conf. on Music Information Retrieval", |
|
"volume": "", |
|
"issue": "", |
|
"pages": "75--80", |
|
"other_ids": {}, |
|
"num": null, |
|
"urls": [], |
|
"raw_text": "VAN ZAANEN M. & KANTERS P. (2010). Automatic Mood Classification using tf* idf based on Lyrics. In Proceedings of the 11th Int. Conf. on Music Information Retrieval, p. 75-80.", |
|
"links": null |
|
} |
|
}, |
|
"ref_entries": { |
|
"TABREF0": { |
|
"text": "Le processus de collecte d'informations est d\u00e9taill\u00e9 dans(Kessler et al., 2014b) . Cette m\u00e9thode nous a permis de collecter les paroles de chanson ainsi que de riches m\u00e9tadonn\u00e9es, incluant les tags sociaux de Last.fm et diverses donn\u00e9es bibliographiques (p. ex. : nom du parolier, du compositeur) couvrant une p\u00e9riode de 1950 \u00e0 nos jours. Comme il est courant pour les artistes de sortir plusieurs versions d'un m\u00eame titre (single, compilations, live), nous avons d\u00fb retirer beaucoup de doublons de notre collection. Pour ces exp\u00e9riences, nous avons extrait un sous-ensemble de 5000 D\u00c9TECTION DE P\u00c9RIODES MUSICALES D'UNE COLLECTION DE MUSIQUE PAR APPRENTISSAGE chansons de cette collection. Nous n'avons retenu que des chansons en fran\u00e7ais pour lesquelles nous avions une date de sortie dans les m\u00e9tadonn\u00e9es. Nous avons ensuite proc\u00e9d\u00e9 \u00e0 un \u00e9chantillonnage stratifi\u00e9 visant une r\u00e9partition homog\u00e8ne des chansons par p\u00e9riode. Le tableau 1 pr\u00e9sente quelques statistiques descriptives de ce sous-ensemble. Diff\u00e9rentes caract\u00e9ristiques pour chaque chanson sont ainsi ajout\u00e9es telles que \u00ab danceability \u00bb, \u00ab Hotness \u00bb, \u00ab loudness \u00bb ou encore tempo. \u2022 Collaborateurs : Chaque chanson \u00e9tant associ\u00e9e \u00e0 des collaborateurs (parolier, compositeur, arrangeur, musiciens, etc.), ceux-ci ont \u00e9t\u00e9 regroup\u00e9s dans un champ textuel unique. Nous avons cependant fix\u00e9 la taille des n grammes \u00e0 3 afin de conserver l'association entre le type de collaboration et le nom du collaborateur (par exemple,\u00ab parolier Martial Tricoche \u00bb ). \u2022 Chansons et artistes similaires : Nous avons regroup\u00e9 dans ces traits l'ensemble des chansons et artistes similaires associ\u00e9s \u00e0 chaque chanson selon les informations issues des sites LastFM et EchoNest. \u2022 Tags sociaux : Les tags sociaux associ\u00e9s \u00e0 chaque chanson ont \u00e9t\u00e9 regroup\u00e9s en un champ textuel unique avec une taille de n grammes de 1. Les pr\u00e9traitements classiques sont appliqu\u00e9s (antidictionnaire et lemmatisation) en fran\u00e7ais ainsi qu'en anglais \u00e9tant donn\u00e9 que plusieurs utilisateurs du site Last.fm attribuent des tags dans cette langue, m\u00eame pour les chansons francophones. Nous pr\u00e9senterons en section 5 les diff\u00e9rents r\u00e9sultats obtenus pour chacun des types de traits ainsi que pour leurs combinaisons.R\u00c9MY KESSLER NICOLAS B\u00c9CHET AUDREY LAPLANTE DOMINIC FOREST", |
|
"content": "<table><tr><td/><td colspan=\"2\">avant pr\u00e9traitements apr\u00e8s pr\u00e9traitements</td></tr><tr><td/><td>linguistiques</td><td>linguistiques</td></tr><tr><td>Nombre total de mots</td><td>1 166 445</td><td>506 082</td></tr><tr><td>Nombre total de tags sociaux diff\u00e9rents</td><td>4 417</td><td>1 363</td></tr><tr><td>Moyenne de mots par chanson</td><td>225,68</td><td>100,22</td></tr><tr><td>Moyenne de tags sociaux par chanson</td><td>1,92</td><td>1,73</td></tr><tr><td colspan=\"3\">TAB. 1 -statistiques du sous-ensemble de la collection.</td></tr><tr><td>4 M\u00e9thodologie</td><td/><td/></tr><tr><td>4.1 Filtrages et pr\u00e9traitements linguistiques</td><td/><td/></tr></table>", |
|
"html": null, |
|
"num": null, |
|
"type_str": "table" |
|
}, |
|
"TABREF1": { |
|
"text": "D\u00c9TECTION DE P\u00c9RIODES MUSICALES D'UNE COLLECTION DE MUSIQUE PAR APPRENTISSAGE", |
|
"content": "<table><tr><td/><td colspan=\"4\">Pr\u00e9cision Rappel F-score Mesure DEFT 2011</td></tr><tr><td colspan=\"2\">Sans pr\u00e9traitements linguistiques</td><td/><td/><td/></tr><tr><td>Syst\u00e8me de base (SB)</td><td>0,383</td><td>0,974</td><td>0,550</td><td>0,279</td></tr><tr><td>SB+traits EchoNest (TE)</td><td>0,388</td><td>0,954</td><td>0,551</td><td>0,280</td></tr><tr><td>SB+Collaborateurs (COL)</td><td>0,387</td><td>0,961</td><td>0,551</td><td>0,277</td></tr><tr><td>SB+Tags sociaux (TS)</td><td>0,518</td><td>0,759</td><td>0,613</td><td>0,286</td></tr><tr><td>SB+Artistes/Chansons similaires (ACS)</td><td>0,383</td><td>0,974</td><td>0,550</td><td>0,279</td></tr><tr><td>SB+TE+TS</td><td>0,533</td><td>0,752</td><td>0,620</td><td>0,280</td></tr><tr><td>SB+TE+TS+COL</td><td>0,511</td><td>0,773</td><td>0,615</td><td>0,280</td></tr><tr><td>SB+TE+TS+COL+ACS</td><td>0,511</td><td>0,773</td><td>0,615</td><td>0,281</td></tr><tr><td colspan=\"2\">Avec pr\u00e9traitements linguistiques</td><td/><td/><td/></tr><tr><td>Syst\u00e8me de base (SB)</td><td>0,383</td><td>0,969</td><td>0,549</td><td>0,278</td></tr><tr><td>SB+traits EchoNest (TE)</td><td>0,388</td><td>0,971</td><td>0,554</td><td>0,282</td></tr><tr><td>SB+Collaborateurs (COL)</td><td>0,388</td><td>0,959</td><td>0,553</td><td>0,281</td></tr><tr><td>SB+Tags sociaux (TS)</td><td>0,541</td><td>0,758</td><td>0,629</td><td>0,284</td></tr><tr><td>SB+Artistes/Chansons similaires (ACS)</td><td>0,383</td><td>0,969</td><td>0,549</td><td>0,278</td></tr><tr><td>SB+TE+TS</td><td>0,533</td><td>0,752</td><td>0,620</td><td>0,280</td></tr><tr><td>SB+TE+TS+COL</td><td>0,404</td><td>0,899</td><td>0,556</td><td>0,277</td></tr><tr><td>SB+TE+TS+COL+ACS</td><td>0,545</td><td>0,754</td><td>0,630</td><td>0,290</td></tr><tr><td colspan=\"5\">TAB. 2 -Ensemble des r\u00e9sultats obtenus par chaque ex\u00e9cution du syst\u00e8me.</td></tr></table>", |
|
"html": null, |
|
"num": null, |
|
"type_str": "table" |
|
} |
|
} |
|
} |
|
} |