Quelles pourraient être les lois de la robotique du 21e siècle?

Le futur devrait être marquée par la place grandissante de l'intelligence artificielle dans nos vies.
Photo : iStock
Qui ne connaît pas les trois lois de la robotique dans les célèbres livres d'Asimov? La réalité rattrape la science-fiction. Il est temps aujourd'hui d'implanter des règles éthiques en intelligence artificielle. C'est ce que propose l'Institute of Electrical and Electronics Engineers (IEEE) dans son document visant à « prioriser le bien-être des humains au contact de l'intelligence artificielle et des systèmes autonomes ».
Le prolifique écrivain de science- fiction Isaac Asimov avait proposé, dès les années 40, les trois lois à implanter pour régir toute intelligence artificielle :
- Un robot ne peut porter atteinte à un être humain;
- Un robot doit obéir aux humains, sauf si ça entre en conflit avec la première loi;
- Un robot doit protéger son existence, sauf si ça entre en conflit avec la première loi ou la deuxième loi.
Utiles dans la fiction, ces lois n’avaient jusqu’à tout récemment aucune application pratique puisqu’il n’existait aucun robot aussi évolué que ceux des livres d’Asimov
Depuis quelques années, le domaine de l’intelligence artificielle a fait de tels progrès que l’idée de poser des balises éthiques a ressurgi.
En effet, si l’intelligence artificielle s’apprête à s’insérer dans toutes les sphères de nos vies, comme le web et le téléphone intelligent l’ont fait, c’est maintenant qu’il faut réfléchir aux questions éthiques.
Quelles pourraient être les lois de la robotique du 21e siècle?
Quatre principes généraux
En décembre 2016, l’IEEE, une grande association d’ingénieurs électriciens et électroniciens, a publié un document de 136 pages écrites par une centaine d’experts dans le domaine.
Il s’agit de balises qui visent à faire réfléchir ceux et celles qui contribuent au développement de systèmes intelligents en ce qui a trait aux implications éthiques de leurs projets.
Selon l’IEEE, voici les quatre principes de base pour l’instauration de systèmes autonomes. À la suite de chacun, je propose un exemple tiré de l’actualité récente qui démontre l’importance de telles règles.
- 1. S’assurer que le système respecte les plus hautes normes des droits de la personne
Une méthodologie doit être développée pour permettre de traduire en code informatique les obligations légales et juridiques. Il n’est pas question, par exemple, qu’un système décide seul comment il compte assurer la diversité culturelle, la dignité humaine ou les libertés individuelles.
Exemple : Beauty.ai, un concours de beauté dont les juges sont des robots qui ont sélectionné presque uniquement des femmes de race blanche.
- 2. S’assurer de connaître les limites et responsabilités du système
Des normes doivent permettre d’expliquer comment le système a pris telle ou telle décision, pour éviter des imbroglios juridiques ou une perte de confiance du public.
Exemple : Tesla, la voiture autonome, a été impliquée dans quelques accidents, dont un mortel en 2016.
- 3. S’assurer que le système est transparent
Il doit être possible de retracer l’origine d’une décision. Des certifications doivent encadrer les systèmes qui ont des conséquences physiques sur les gens pour indiquer le potentiel de risques à ses utilisateurs, leurs limites ou les distorsions possible de l'évaluation.
Exemple : Northpointe, un programme devant évaluer le risque de récidive de criminels, donnait de faux positifs pour une certaine catégorie de la population. Le problème, c’est qu’on ne sait pas pourquoi.
- 4. Réduire le risque que le système puisse être utilisé à mauvais escient
Faire prendre conscience aux développeurs de systèmes qu’il faut renforcer leur système contre des détournements possibles de leurs outils.
Exemple : Tay, un assistant virtuel (chatbot) sur Twitter développé par Microsoft, a été rapidement détourné par une horde de petits malins pour lui faire dire des atrocités nazies et racistes.
Des implications complexes
Si les quatre principes de base peuvent faire l’unanimité, leur application pose de sérieux défis. Le reste du document examine ces divers défis. En voici trois :
- L’accès aux données personnelles : Chaque citoyen doit être capable de contrôler quelles sont les données qui définissent son identité dans les systèmes et pouvoir contrôler comment elles sont partagées avec les autres systèmes.
- Encadrer les armes autonomes : En aucun cas, une arme capable de prendre des décisions autonomes pour tuer quelqu’un ne doit être laissée sans responsabilité légale, morale et juridique. Les développeurs de systèmes autonomes doivent être au courant que leur système (ou une partie de leur système) sera utilisé dans de tels buts.
- Anticiper les pertes d’emploi : L’intelligence artificielle devrait faire perdre de nombreux emplois, notamment les emplois peu qualifiés ou très routiniers.
Comme pour souligner la véracité de ce troisième point, ce mois-ci une firme d’assurance japonaise compte remplacer presque 30 % de ses salariés par un système d’intelligence artificielle.
La vague ne fait que commencer
Le document prévoit que la structure du marché sera si rapidement modifiée que les institutions de placement et de formation ainsi que le filet social ne réussiront peut-être pas à absorber le choc.
Le problème se double d’une compétition internationale. Seuls les pays qui ont en place l’expertise et la connaissance de ces systèmes intelligents pourront les développer et les maintenir.
Il est évidemment difficile de bien prévoir les véritables conséquences de la montée de l’intelligence artificielle à long terme. L’IEEE préconise de passer en mode proactif plutôt que réactif.
Les États qui se préoccupent tout de suite de ces enjeux auront assurément une longueur d’avance. Mais ils devront en même entreprendre un chantier social pour anticiper les problèmes.
Au moins, savoir qu’une des premières initiatives dans le domaine est de s’intéresser à l’éthique est de bon augure.