•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Guerre et intelligence artificielle : le Pentagone adopte des principes éthiques

Un homme en complet affiche un air inquiet. Derrière lui se trouve le logo du Pentagone.

Le secrétaire américain à la Défense, Mark Esper, lors d'une conférence de presse au Pentagone en janvier 2020.

Photo : Getty Images / OLIVIER DOULIERY

Agence France-Presse

Le Pentagone a annoncé lundi l'adoption de principes éthiques pour l'utilisation de l'intelligence artificielle par les forces armées. Cette mesure est notamment destinée à convaincre le personnel des géants technologiques américains de collaborer avec les militaires.

L'intelligence artificielle changera beaucoup de choses sur le champ de bataille du futur, mais rien ne fera changer l'engagement inébranlable de l'Amérique à se comporter de façon responsable et légale, a noté le secrétaire américain de la Défense, Mark Esper.

Le Pentagone, qui critique régulièrement l'utilisation qu'elle juge policière de la reconnaissance faciale par la Chine, s'engage notamment à attribuer à l'intelligence artificielle des utilisations explicites et bien définies, selon un communiqué.

Ces équipements intelligents, qui acquièrent eux-mêmes par l'expérience les capacités nécessaires pour accomplir les tâches qui leur sont assignées, seront aussi fiables et leurs spécifications seront transparentes, assure l'armée américaine.

Ils seront enfin gouvernables, c'est-à-dire qu'ils pourront être désactivés en cas de fonctionnement aberrant.

L'intelligence artificielle en temps de guerre

La question des armes autonomes reste un sujet de débat au sein du Pentagone, où le principe de base est que l'être humain doit rester dans la boucle, une formule qui implique que la machine elle-même ne peut pas prendre la décision de tirer sur une cible.

Ces principes (Nouvelle fenêtre) ont été définis à l'issue de 15 mois de consultations avec des représentants et représentantes des géants technologiques américains, des grandes universités et de l'administration sous la direction d'Eric Schmidt, ancien président du conseil d'administration de Google.

Sous la pression de son personnel, Google avait renoncé en 2018 à un contrat avec le Pentagone destiné à aider les drones à mieux distinguer les objets des humains grâce à l'intelligence artificielle, un projet baptisé « Maven ».

Si nous avions eu les principes éthiques sur l'intelligence artificielle il y a trois ans [lors du lancement du projet Maven] et si nous avions été transparents sur ce que nous tentions de faire, peut-être que le résultat aurait été différent, a commenté le général Jack Shanahan, responsable de l'intelligence artificielle au Pentagone, en présentant ces nouveaux principes à la presse.

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

Intelligence artificielle

Techno