Intelligence artificielle émotionnelle
DécryptagesA l’inverse du paradigme technocratique, l’intelligence artificielle (IA) devient émotionnelle, pour être relationnelle. Un nouveau mode cognitif autour de l’intuition.
2018 a été un tournant : celui de l’acceptation de l’IA dans tous les secteurs, y compris l’industrie, la finance et les médias.
Dans ce contexte le mensuel WIRED au mois de décembre 2018 titrait « Less artificiel, more intelligence” avec un sous-titre audacieux « AI is already changing everything » et une vague d’analyse : après avoir conquis le terrain de la logique, la reconnaissance des formes, l’automatisation et le marketing prédicitif, l’IA est en train de passer le cap des émotions.
Si le cas Cambridge Analytica, nous a montré qu’elle pouvait être à l’origine des pires manipulations politiques, les perspectives intuitives sont aussi un nouveau terrain de jeu, et un moyen pour aider le consommateur à se reconnecter, aux objets et aux autres.
Dans un contexte où la sphère émotionnelle représente un marché de 20 milliards de dollars (sur les 39 milliards du marché de l’IA annoncés par le cabinet d’analyse IDC), les marques doivent repenser leur manière de convaincre et séduire les consommateurs.
Améliorer la fluidité des interactions
« Veux-tu m’épouser » et « Est-ce que tu m’aimes » sont les deux questions le plus souvent posées à Siri disait Adam Cheyer au SXSW en 2018. Preuve du besoin actuel de connexion émotionnel à la machine ? Peut-être. Il en reste que si les GAFAM prennent un temps d’avance sur la question des sciences cognitives, c’est avant tout dans une « perspective d’optimisation et d’amélioration de l’expérience utilisateur » selon Luis Capelo; responsable des produits de données chez Forbes.
Alors que Gartner prévoit que les seuls agents conversationnels représenteront 50 % des requêtes analytiques en 2020, Alexa (Amazon), Google Home (Google), Cortana (Microsoft) et consœurs sont avant tout la promesse d’une interaction plus simple, plus intime et plus authentique que par l’écran. Raison pour laquelle Facebook s’y met aussi et intègre en fin d’année dernière Alexa, d’Amazon dans Portal, son écran intelligent disponible sur Messenger.
Le mouvement est d’abondance et amène à chiffrer à 85% la part des relations clients qui ne nécessiteront plus de main d’œuvre humaine (Motley Fool).
« Braintech » et analyse des émotions
En parallèle de ces avancées et alors que selon les experts du Big Data Paris, dans 90% des cas c’est la partie émotionnelle de notre cerveau qui nous fait craquer pour l’achat, un nouveau cœur de business émerge sur l’analyse des comportements émotionnels (l’émotion mélangée à des stimuli : les odeurs, les sons, les mots, les textures ou encore les couleurs).
Pour les données individuelles on retrouve des algorithmes spécialisés ; sur le texte avec FastText de Facebook ; sur la voix avec le cookie vocal Allo-média et des perspectives plus nombreuses encore sur le « facial coding ». Perspective qui a cristallisée l’attention au vu des logiques de surveillance initiés en Chine mais qui – s’inspirant des travaux réalisés dans les années 60 par le psychologue Paul Ekman – s’apprête à révolutionner la façon de traiter les émotions de masse.
Une logique de « feel data » où se sont positionnés Real Eyes, Beyond verbal et Affectiva présenté au CES 2018 sur le créneau d’analyse des émotions sur les visages et le ton de la voix. Lexalytics et TheySay quant à eux offrent d’ores et déjà des capacités avancées d’analyse des sentiments sur les réseaux sociaux via des algorithmes de machine learning et PNL (Programmation neuro linguistique).
Une IA pour mieux écouter internet ?
En parallèle et concernant les données extérieures, les sociétés Alpha MOS et Aromyxaux Etat-Unis construisent des nez électroniques, dans l’objectif affiché de remodeler l’industrie des parfums… et de l’alimentation.
Pour Anna Tcherkassof, membre de l’International Society for Research on Emotion et spécialiste de la compréhension des relations hommes-machines, bien que ces analyses soient imparfaites et encore incapables de détecter des variations de culture – spécifiant que dans certains pays le terme « tristesse » n’existe même pas – cette personnalisation est aussi amenée à designer une nouvelle notion de sécurité. Exemple porté par Eyeris, et son IA automobile multi-modale qui permet de suivre les émotions du conducteur.
Pour l’intelligence, contre l’indifférence
Mais le centre du débat reste la connexion intuitive avec l’IA. Comment la développer ? Quels sont les critères à prendre en compte ?
La problématique des relations humaines-machines a largement été abordée par la science-fiction : Real Humans en Europe, Almost Human et Her (2014) aux Etats-Unis ou encore « Les trois sœurs version Androïde » au Japon, mis en scène au théâtre par Ozira Hirata. Avec chaque fois une idée ; la capacité de la machine à être émotionnellement combinatoire, au sens émotionnel du terme.
L’année 2017 en ce sens restera un tournant. Celle où cette fiction est devenue Azuma Hikari, le premier alter ego féminin conçu par l’entreprise japonaise Gatebox pour être une « épouse » virtuelle, et venir en aide aux célibataires. Suivi sur un autre terrain par les mannequins Miquela Sousa (1,5 millions d’abonnés sur instagram) Shudu ou la rencontre scénarisée à New-York entre l’influenceuse virtuelle Noonoouriet Kendal Jenner.
Quand le moment est venu de choisir la voix pour Debater d’IBM (une IA conçue pour débattre sur les humains), la société a organisé une audition et choisi 20 acteurs. Celui qui a été choisi l’a été par un jugement subjectif de l’équipe sur sa capacité à représenter une voie apaisée, empathique et humaine. Pareil pour Alexa, où la voix « a une personnalité qui reflète le personnage d’Alexa : intelligent, humble et utile ». Et la dernière en date, la no-gender « Q », présentée par Equal AI à SXSW 2019 vient confirmer cet état d’esprit.
Dans cette continuité et alors qu’Elon Musk lui-même a été ouvert à reconnaitre la valeur complémentaire des humains et des robots la promotion de l’objet émotionnel est donc à percevoir comme une nouvelle manière de créer de la relation. En témoigne Persado dans une certaine mesure.
Avec d’ores et déjà l’impératif d’axes d’améliorations plus impliquants sur les fondamentaux intuitifs du vivant : les signaux, le rythme verbal et la réponse au flux libre de la conversation humaine.
Crédit de couverture © Lil Miquela