Publié le 04/12/2017
Le cerveau humain est-il assimilable à une machine que des algorithmes pourraient comprendre et imiter ? Difficile de croire à une vision aussi simpliste. Surtout quand on sait combien nos émotions sont complexes et leur rôle dans nos capacités d’action et de réaction. C’est le sens de cet entretien avec le chercheur Julien Pierre. En prélude à son intervention lors de la journée “Créativité et émotions à l’heure de l’intelligence artificielle”, à venir le 13 décembre.
Julien Pierre est enseignant-chercheur à l’école de management Audencia Business School de Nantes. Depuis 2009, ses recherches en Sciences de l’information et de la communication l’ont amené à s’intéresser aux problématiques d’identité, de vie privée, de données personnelles et de réputation dans le contexte numérique. Puis, à partir de 2013, à la question des émotions. Il a cosigné avec Camille Alloing, chercheur à l’IAE de Poitiers, “Le Web affectif, une économie numérique des émotions”. L’ouvrage vient de paraître chez INA éditions.
Julien Pierre interviendra dans le cadre de la journée thématique “Créativité et émotions à l’heure de l’intelligence artificielle”. L’événement sous-titré “Comment l’intelligence artificielle transforme les industries culturelles et créatives”, se tient le 13 décembre à l’espace culturel Stereolux de Nantes.
Julien Pierre. Nos travaux sur l’identité et la réputation nous avaient amenés à observer ce qui se passe du côté de Facebook, Twitter, Google… Nous avons remarqué à partir des années 2013, 2014, que les grandes entreprises du numérique s’intéressent de plus en plus à la question des émotions. Ça se voit dans les discours de plus en plus nombreux sur la richesse de l’expérience. Aussi dans les interfaces avec l’apparition d’icônes permettant de marquer ses émotions, par l’investissement dans des brevets, le recrutement de compétences… Si bien que nous avons suivi l’évolution de cette stratégie.
La principale observation, c’est que les ingénieurs et développeurs se basent quasiment tous sur la théorie des émotions universelles. Donc l’idée que les tous êtres humains partagent un nombre limité d’émotions : la joie, la peur, la colère, la tristesse, le dégoût… Et que ces émotions sont faciles à détecter et mesurer, par exemple par l’expression du visage.
Sauf que notre émotivité est bien plus complexe que ça. On peut avoir des sentiments comme la nostalgie, la fierté. Des humeurs passagères sans motivation déterminée. Chacun a sa propre personnalité et peut vivre un contexte particulier à un moment donné… Tout un ensemble émotionnel que les technologies ne savent pas ou ne cherchent pas à capturer. En ne s’intéressant qu’à une infime partie de notre domaine affectif, la promesse qui nous est faite d’une expérience plus personnalisée et plus riche n’est pas au rendez-vous.
JP. Il existe plusieurs technologies. L’une d’elles est l’analyse de texte : le logiciel observe les sentiments exprimés à travers des tweets, des posts… Lorsqu’on dispose de suffisamment de sources on peut faire ce qu’on appelle du Sentiment Analysis. Une autre méthode, plus simple, consiste à ajouter des émoticones aux interfaces. En croisant les clics sur les émoticones, le texte qu’on peut laisser en commentaire, avec d’autres données comme le sexe, l’âge, la liste des amis, et ce que l’on a exprimé auparavant, on obtient une vision relativement fine des individus.
C’est ça que Facebook vend aux annonceurs : une base de données de 2 milliards d’utilisateurs aux profils bien établis. Et c’est comme ça que Facebook fait 10 milliards de chiffre d’affaires par trimestre. Ce qui ne manque pas de poser des questions d’ordre éthique. J’en vois deux en particulier. Un, la capture des émotions est une réalité dont nous n’avons pas réellement conscience. Et deux, nous n’avons pas connaissance de l’étendue des traitements qui peuvent être réalisés à partir des données émotionnelles.
JP. Bien-sûr. D’autres technologies arrivent, notamment à base d’objets connectés. Par exemple à partir de la webcam et de l’analyse des expressions du visage. Il existe aussi des solutions qui utilisent la voix : l’intonation est un bon indicateur de l’intensité de notre réaction émotionnelle. Et puis il y a les bracelets connectés et autres accessoires que l’on porte sur soi. L’ensemble des données que ces objets connectés génèrent croisées avec celles dont on parlait précédemment permettent, grâce au big data, de réaliser un profilage identitaire de plus en plus fin.
Si on pousse un cran plus loin, on voit apparaître de l’apprentissage automatique : le machine learning, qui est du domaine de l’intelligence artificielle. Ces nouvelles techniques sont capables de mieux saisir le profilage. Voire de prédire les réactions émotionnelles.
JP. La théorie sur l’intelligence considère que l’émotion est première, et que c’est elle qui conditionne notre raisonnement. Ce qui signifie que la modélisation mathématique d’un raisonnement passe obligatoirement par la compréhension du comportement affectif. Les intelligences artificielles ont besoin d’une intelligence émotionnelle pour être en capacité de raisonner comme nous le faisons. Avec deux objectifs : d’abord comprendre le fonctionnement du cerveau ; ensuite interagir avec les humains.
La discussion entre une intelligence artificielle et nous, humains, n’est possible que si celle-ci est capable de comprendre l’état émotionnel dans lequel nous nous situons. Notamment pour adapter son langage comme peut le faire un être humain. Cette intelligence artificielle doit donc posséder une compétence que nous avons tous, qui est l’empathie. C’est précisément sur cette question de l’intelligence artificielle confrontée à l’empathie que portera mon intervention.
Plus
La journée thématique “Créativité et émotions à l’heure de l’intelligence artificielle” est organisée par le Laboratoire Arts & Techs de Stéréolux en partenariat avec la Cantine de Nantes et Images & Réseaux.
Inscription gratuite et programme détaillé de la journée du 13/12
Cette journée fait partie du cycle “Art, Design & Intelligence artificielle” organisé par Stéréolux d’octobre à décembre 2017.