•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Ce système de suivi des doigts pourrait aider à traduire la langue des signes

Des mains placées dans différentes poses.

Si le système de suivi des doigts de Google est avancé, il n’est pas encore capable d’interpréter pleinement la langue des signes, notamment parce que celle-ci emploie des expressions faciales pour être pleinement comprise.

Photo : Google

Radio-Canada

L’équipe de recherche en intelligence artificielle (IA) de Google a mis au point un système de suivi des doigts qui peut capter et interpréter les signes des mains en temps réel en se servant uniquement de la caméra d’un téléphone intelligent.

D’autres entreprises, dont SignAll et Kintrans, ont créé des logiciels semblables, mais ils nécessitent un ordinateur et sont moins performants que celui de Google, selon TechCrunch (Nouvelle fenêtre). C’est que les mouvements des doigts sont souvent rapides et subtils, donc difficiles à suivre et à interpréter avec précision.

Une main fait de différentes poses qui sont interprétées par l'Intelligence artificielle dans un gif animé. Agrandir l’image (Nouvelle fenêtre)

Le système de suivi des doigts de Google a très peu de latence.

Photo : Google

L’algorithme de l’entreprise de Mountain View se sert entre autres de l’apprentissage machine pour produire une image détaillée des mains qu’il suit. Il localise en tout temps 21 points placés sur la paume et les jointures, ce qui lui fait d’ailleurs calculer moins de données – et avoir un plus faible temps de latence – que d’autres systèmes semblables.

Une fois qu’un signe de la main est capté par l’IA, il est comparé à tous les autres signes connus dans la base de données qu’a bâtie l’équipe de recherche.

Il a fallu que l’équipe de recherche ajoute manuellement les 21 points de référence sur plus de 30 000 images de mains dans différentes poses et sous divers éclairages pour que l’IA puisse apprendre où placer les points sur les mains qu’elle trace.

Encore du travail à faire

Si le système de suivi des doigts de Google est avancé, il n’est pas encore capable d’interpréter pleinement la langue des signes, notamment parce que celle-ci emploie des expressions faciales pour être pleinement comprise.

C’est pour cette raison que le code source de l’application est offert pour téléchargement afin que tout le monde puisse contribuer à son amélioration.

Nous souhaitons fournir cette fonctionnalité de perception de la main à la communauté de recherche et développement pour permettre l’émergence de cas d’usage créatifs, de nouvelles applications stimulantes et de nouvelles voies de recherche, a déclaré l’équipe de recherche sur son blogue.

Intelligence artificielle

Techno