•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Facebook promeut l'intelligence artificielle contre le suicide

Une adolescente, un téléphone intelligent à la main, assise sur un lit

Stratégie numérique pour prévenir le suicide.

Photo : iStock

Reuters
Prenez note que cet article publié en 2017 pourrait contenir des informations qui ne sont plus à jour.

Facebook a annoncé lundi son intention d'étendre à d'autres pays l'utilisation de son logiciel de reconnaissance des tendances suicidaires chez ses utilisateurs après l'avoir testé avec succès aux États-Unis.

Facebook a commencé en mars aux États-Unis les tests de ce logiciel qui cherche, dans les publications et les commentaires, des expressions annonciatrices d'un suicide.

Très discret sur les aspects techniques du programme, le plus grand réseau social du monde précise que ce logiciel cherche par exemple des questions comme : « Est-ce que tu vas bien? » et « Puis-je t'aider? ».

Si le logiciel détecte un potentiel passage à l'acte, une alerte est émise auprès d'employés de Facebook spécialisés dans le traitement de ces signalements.

Le système propose aussi à l'utilisateur concerné ou aux amis de cet utilisateur des moyens d'aide, comme un numéro d'assistance téléphonique.

Les employés de Facebook appellent parfois les autorités locales pour leur demander d'intervenir.

Guy Rosen, le vice-président de la gestion de produits pour Facebook, explique que la société a commencé à déployer le logiciel en dehors des États-Unis du fait de tests concluants.

Durant le mois écoulé, les « premiers intervenants » sont entrés en contact avec des utilisateurs à plus de 100 reprises après la détection d'intentions suicidaires par le logiciel, précise Guy Rosen.

Pas d'utilisation prévue au sein de l'Union européenne

Si les pays concernés par le déploiement du logiciel n'ont pas été annoncés, le dirigeant de Facebook affirme que l'objectif est de l'utiliser dans tous les pays du monde, hormis dans l'Union européenne, à cause de « sensibilités » qu'il s'est refusé à expliciter.

Facebook explique vouloir disposer d'employés spécialisés disponibles à toute heure et parlant la langue locale afin de pouvoir appeler les autorités concernées.

« La vitesse de réaction compte vraiment. Nous devons venir en aide aux personnes en temps réel », dit Guy Rosen.

Quand la société a lancé l'année dernière Facebook Live, qui permet à ses utilisateurs de diffuser en direct des vidéos, les vidéos d'actes violents, comme les suicides ou les meurtres, se sont multipliées.

Cela avait porté préjudice à l'image du réseau social, qui a annoncé en mai le recrutement de 3000 personnes supplémentaires pour surveiller les diffusions de vidéos et d'autres contenus violents.

D'autres sociétés informatiques essaient aussi de prévenir les suicides, comme Google qui affiche un numéro d'assistance téléphonique en réponse à certaines recherches.

Facebook, qui recueille de nombreuses données sur ses 2,1 milliards d'utilisateurs à des fins publicitaires, n'était jusque-là pas réputée pour scruter les discussions dans le but de détecter les comportements dangereux, hormis les conversations suspectes entre des enfants et des adultes pouvant être des prédateurs sexuels.

Analyser les conversations dans d'autres circonstances pourrait être plus difficile à justifier, explique Ryan Calo, professeur de droit à l'Université de Washington qui écrit sur les problématiques liées à l'informatique.

« Une fois que vous ouvrez la porte, vous pourriez vous demander ce qu'on va chercher d'autre. »

Guy Rosen n'a pas voulu préciser si Facebook songeait à utiliser son logiciel de reconnaissance dans d'autres domaines, comme les crimes à caractère non sexuel.

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !