•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Ce jeu montre les limites des IA qui détectent les émotions humaines

Une femme regarde une caméra qui scanne son visage, et un logiciel lui colle plusieurs critères de reconnaissance.

Une équipe de recherche de l'Université de Cambridge a développé un jeu qui permet de comprendre les limites des technologies de reconnaissance faciale sur la lecture des émotions humaines.

Photo : getty images/istockphoto / SDI Productions

Radio-Canada

Emojify.info, un site ludique créé par une équipe de l'Université de Cambridge, vise à ouvrir des discussions sur les technologies de reconnaissance faciale capables de reconnaître les émotions humaines et de mettre en lumière leurs limites.

Le principe est simple : on demande aux internautes de regarder la caméra de leur ordinateur et de tenter de reproduire une gamme d’émotions différentes. Le logiciel d’intelligence artificielle (IA) indique à quel pourcentage leur expression faciale se rapproche de la surprise, de la joie, de la tristesse, de la colère, de la peur ou encore du dégoût.

On se fait vite prendre au jeu, en fronçant un peu trop les sourcils pour simuler la colère, ou en exagérant notre sourire pour augmenter l’indice de bonheur. Or, ce ne sont pas des émotions qu’on éprouve réellement elles ne sont qu’interprétées. Qu’en est-il alors des émotions ressenties intérieurement? Et si, par exemple, on pleurait de joie et non de tristesse?

C’est justement vers ce genre de réflexion que souhaite nous conduire l’équipe de l’Université de Cambridge qui a travaillé sur ce jeu.

« Notre objectif est de promouvoir la compréhension de ces technologies par le public et l’implication des citoyens et citoyennes dans le développement et l’utilisation de celles-ci. »

— Une citation de  L’équipe de recherche de l’Université de Cambridge

Il existe donc un décalage entre les émotions ressenties intérieurement et celles qui transparaissent sur notre visage; la complexité des êtres humains ne peut ainsi pas se réduire à des émotions exprimées par de simples émojis, par exemple.

Capture d’écran d’un site Internet majoritairement jaune, comprenant une liste d’émotions de base et un émoji souriant.

Le site ludique emojify.info permet de tester soi-même si l’IA de reconnaissance faciale peut reconnaître les émotions humaines.

Photo : Capture d'écran du site emojify.info

L’équipe de recherche pointe également dans une vidéo les préjugés raciaux que peuvent avoir ces IA, en faisant référence à une récente étude (Nouvelle fenêtre). Celle-ci a révélé que l’IA de reconnaissance faciale du service d’authentification Face++, par exemple, considère que les émotions sur les visages des personnes noires tendent davantage vers la colère et le malheur que leurs homologues à la peau blanche, et ce, peu importe l’émotion.

« Nous pensons qu’à travers l’intelligence collective et le partage des perspectives sur des questions aussi importantes, nous pouvons donner aux communautés les moyens de promouvoir une société juste et équitable. »

— Une citation de  L’équipe de recherche de l’Université de Cambridge

Le site du jeu contient par ailleurs une section rassemblant une foule d’études et d’articles sur la place de plus en plus importante que prennent les technologies de reconnaissance faciale, notamment aux États-Unis.

Avec les informations de The Verge, et Engadget

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !