•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Jeux vidéo : des algorithmes ont surpassé les humains à Quake III

Une capture d'écran du jeu.

Quake III Arena est l'un des jeux de tir en vue subjective (FPS) les plus respectés, en raison de sa grande influence sur ce genre.

Photo : Quake III Arena est l'un des jeux de tir en vue subjective (FPS) les plus respectés, en raison de sa grande influence sur ce genre.

Radio-Canada

Les robots autonomes FTW de DeepMind ont atteint un nouveau sommet : ils sont désormais meilleurs que les humains au jeu de tir en vue subjective (FPS) Quake III Arena.

Ce jeu sorti en 1999 est l’un des plus respectés du genre FPS, qu’il a grandement influencé.

Il s’agit d’un jeu de tir en trois dimensions dans lequel les joueurs doivent faire équipe pour accomplir différents objectifs (éliminer l’équipe adverse, capturer un drapeau et le ramener à sa base, etc.)

Quake III Arena a connu un essor important grâce à la scène compétitive, aujourd’hui marginale, mais qui a offert des performances de très haut niveau pendant de nombreuses années.

Des défis uniques et complexes

Ce type de jeu oblige l’intelligence artificielle à apprendre des concepts complexes pour des machines, tels que l’orientation spatiale, le travail d’équipe et l’adaptation à des situations imprévues.

Pour son expérience, DeepMind a demandé à ses « agents FTW » (c’est ainsi qu’elle nomme ses algorithmes) de s’affronter dans le mode de jeu capture de drapeau dans des arènes générées aléatoirement avant chaque partie.

Les algorithmes avaient également été programmés pour se fier à leur « sens de la vue » pour s’orienter et identifier les autres joueurs et les drapeaux, au lieu d’avoir accès à leurs coordonnées exactes en permanence.

Deepmind n’a donné aucune instruction à ses agents FTW sur ce qu’ils devaient faire, mais a plutôt utilisé la méthode d’apprentissage par renforcement pour leur enseigner le fonctionnement du jeu.

Ce type d’apprentissage automatique récompense un algorithme autonome lorsqu’il adopte les comportements recherchés. Dans ce cas-ci, les agents FTW étaient récompensés s’ils remportaient une partie, ce qui les obligeait à se débrouiller pour déduire les règles du jeu et apprendre les stratégies optimales.

Les humains ne font pas le poids

Après avoir entraîné ses algorithmes dans 450 000 parties, DeepMind a convié 40 personnes à un tournoi lors duquel elles devaient jouer en équipe ou contre des agents FTW. Conclusion de l’expérience : les robots performent constamment mieux que les humains.

De plus, les participants ont indiqué que les algorithmes collaboraient mieux que des humains, un avantage non négligeable dans ce jeu d’équipe.

Ces recherches de DeepMind ont pour objectif de mieux comprendre comment de nombreux agents indépendants peuvent collaborer pour l’atteinte d’un objectif commun.

« Des milliards de personnes habitent sur notre planète et chacun a ses propres buts et fait ses propres actions, mais nous parvenons tout de même à nous rassembler grâce aux équipes, aux organisations et aux sociétés dans d’impressionnantes démonstrations d’intelligence collective, écrivent les chercheurs (Nouvelle fenêtre). Nous appelons cela l’apprentissage multi-agent : de nombreux agents individuels doivent agir de façon indépendante tout en apprenant à interagir et coopérer avec d’autres agents. »

DeepMind, une filiale d’Alphabet (maison mère de Google), est connue pour son intelligence artificielle AlphaGo, qui a battu le champion du monde du jeu de go en 2016. Une version subséquente de ce système, baptisée AlphaZero, est aussi considérée comme la meilleure au monde au jeu de go, aux échecs et au shogi (échecs japonais).

La percée présentée par Deepmind survient une semaine après qu’un autre laboratoire de recherche, OpenAI, a indiqué que ses algorithmes avaient atteint le même niveau que des joueurs professionnels au jeu multijoueur Dota 2.

Avec les informations de The Verge, et Engadget

Jeux vidéo

Techno