Colère, déprime… Faut-il attendre des robots qu'ils nous consolent ?
- L’UE a dévoilé mercredi son plan de bataille sur l’intelligence artificielle et les données pour rattraper son retard et dissiper les craintes de contrôle à la Big Brother.
- La reconnaissance faciale est un secteur de plus en plus stratégique.
- De quoi l’intelligence artificielle est-elle capable sur le terrain de la reconnaissance des émotions ? Pour l’instant, on lui prête des capacités qu’elle n’a pas.
Que peut détecter l’intelligence artificielle de nos états émotionnels ? La
reconnaissance faciale, secteur de plus en plus stratégique, est considérée comme la technologie du futur. Ses champs d’application sont nombreux et la
Chine -avec son système de crédit social- et les
Gafa sont déjà sur le coup depuis un moment. Alors que l’UE a dévoilé mercredi son plan de bataille sur l’intelligence artificielle et les données pour rattraper son retard et dissiper les craintes de contrôle à la Big Brother, 20 Minutes fait le point la reconnaissance des émotions. Une simple machine pourra-t-elle nous remonter le moral en cas de déprime ?
Le système de reconnaissance faciale d’Amazon, baptisé Rekognition, serait en mesure de détecter les six émotions de bases (joie, tristesse, colère, surprise, dégoût, confusion), relaye un article du
Guardian publié dimanche dernier. On retrouve dans toute l’humanité ces expressions de visage définies par les travaux du psychologue américain Paul Ekman. A partir de grosses bases de données, les algorithmes apprennent à reconnaître ces six émotions, auxquelles s’ajoute « le calme ».
La palette des émotions
Aujourd’hui, les algorithmes fonctionnent plutôt bien pour reconnaître les émotions de base lorsque la personne est figée devant une caméra, beaucoup moins dans un espace non contrôlé. Mais dans le quotidien, le visage est rarement figé. « La vie de tous les jours est faite d’une multitude d’expressions assez subtiles, on peut avoir plusieurs émotions en même temps, pointe Laurence Devillers, spécialiste de l’informatique affective au CNRS et professeure à Sorbonne-Université. Ces émotions : la peur forte, la tristesse forte, la joie forte… Quand est-ce que ça arrive dans la vie de tous les jours ? »
Les humains, entre eux, n’arrivent déjà pas toujours à décrypter les émotions des autres, alors une machine… Klaus Scherer, ancien professeur à l’Université de Genève, a travaillé sur la perception des émotions. Il a interrogé des milliers de personnes et il a montré que certaines émotions sont bien identifiées (à 80 %) tandis que d’autres le sont beaucoup moins (à 60 %). Un rire peut exprimer de nombreuses émotions différentes (la gêne, la joie, la rage parfois…). De même, la colère ne s’exprime pas de la même façon auprès d’un banquier ou dans le cadre d’un centre d’appel d’urgence. Le contexte a un grand rôle à jouer.
« Il y a une richesse de contenu qui n’est pas traçable par les machines », insiste Laurence Devillers. Les algorithmes actuellement utilisent très peu de contexte. « Dans pas mal de situations, le visage à lui seul ne peut pas donner l’état émotionnel de la personne, on peut introduire d’autres capteurs, des capteurs physiologiques dans certains cas, pour mieux analyser l’émotion, précise Mohamed Daoudi, professeur en informatique à IMT Lille Douai et chercheur au laboratoire CRIStAL. Mais le chemin est encore long, pour ne pas dire inaccessible.
« La machine ne comprend rien »
Les communautés entre elles ne partagent pas les mêmes systèmes de valeurs. Et dans une même communauté, les individus n’ont pas non plus les mêmes façons de traduire leurs états émotionnels. Le risque est grand de tomber dans le piège des biais avec des machines qui attribuent des émotions en fonction de bases de données faussées dès le départ. Dans le domaine de l’intelligence artificielle, les bases de données sont le nerf de la guerre. C’est pourquoi les Gafa, qui sont riches de datas, et la Chine -avec ses outils de surveillance de masse- ont plus d’une longueur d’avance sur ce terrain. Si la machine est entraînée à reconnaître des émotions à partir des expressions faciales d’une population précise (disons des hommes et femmes occidentaux), elle reconnaîtra difficilement l’expression d’une personne issue d’une autre population. C’est pourquoi il faut travailler sur des bases de données les plus représentatives possible.
« Ce qu’on fait pour l’instant, ce sont des arnaques. On sait détecter positif- négatif, et encore, s’agace Laurence Devillers. Ce qu’on détecte le mieux, c’est expressif-pas expressif ». Demander aux robots de comprendre toutes les situations et toutes les finesses des émotions est inaccessible. « La machine ne comprend rien et on manque cruellement de données annotées sur ces sujets pour faire quelque chose de sérieux », poursuit la spécialiste d’intelligence artificielle. Autant dire qu’il faut changer d’angle d’attaque.
L’application la plus prometteuse sur le long terme, ce serait des systèmes dédiés à une personne qui seraient capables de détecter des nuances dans son comportement audio ou visuel. « Dans les voitures, on peut mettre des caméras capables d’observer l’état émotionnel du conducteur (s’il s’endort ou s’il angoisse), il peut être intéressant de personnaliser un service en fonction de l’état de la personne », envisage Mohamed Daoudi. Dans le cadre de certaines maladies, les dépressions lourdes ou Alzheimer, les expressions de visage peuvent aider le médecin à mieux comprendre ce qu’il se passe. On n’est pas sur la variabilité de tous les individus mais sur la variabilité d’un individu. Et, ça éviterait de jouer aux apprentis sorciers.
Source: Lire L’Article Complet