CS:GO

Google a créé une IA pour combattre les comportements toxiques sur CS:GO

par Cyril Pomathiod

Partager


Jigsaw Labs, une filiale d'Alphabet Inc (Google) a développé en partenariat avec FACEIT une IA super puissante capable de repérer et de punir les joueurs toxiques sur CS:GO.

La toxicité sur les jeux compétitifs en ligne est un fléau. League of Legends, Call of Duty, Dota 2 et Counter Strike font partie des jeux les plus e-sport les plus réputés, mais aussi des jeux disposant des communautés les plus toxiques.

Si les éditeurs de tous ces jeux se décarcassent pour trouver LA solution pour parer à ce problème, aucune société ne semble encore avoir trouvé la recette miracle. Chaque jour, les joueurs continuent d'évoluer dans ces environnements hautement toxiques qui peuvent ruiner l'expérience de jeu, incitant de fait plus de comportements toxiques et alimentant un véritable cercle vicieux.

Publicité

Counter Strike Blog
Counter Strike Blog
La toxicité, un problème sans solution ?

Néanmoins, deux sociétés semblent avoir fait un grand pas dans la lutte contre ces comportements. FACEIT, en premier lieu, est une plateforme visant à regrouper les joueurs compétitifs de plusieurs jeux e-sport dont CS:GO en proposant des tournois, un match-making de de qualité et des serveurs implacables avec les tricheurs.

Publicité

L'autre société, c'est Jigsaw Labs, appartenant au groupe Alphabet Inc, la maison mère de Google. Cette entreprise a un rôle d'incubateur technologique. Elle met à profit son expertise technologique pour développer des outils ultra-performants permettant de répondre à une situation donnée.

C'est donc main dans la main que ces deux sociétés ont créé une intelligence artificielle baptisée Minerva. Grâce au machine learning, cette IA récupère des milliers de messages chat, les analyse et apprend à reconnaître les comportements toxiques.

Minerva a été implantée en Août sur les serveurs CS:GO de FACEIT et a déjà analysé 200 millions de messages chat. Parmi tous ces messages, elle en a identifié 7 millions comme étant toxiques. l'IA a averti pas moins de 90 000 joueurs que leur comportement était inadapté et a procédé à 20 000 bans pour violence verbale ou spamming de message.

Publicité

Depuis la mise en place du système, FACEIT annonce que les indicateurs de comportements toxiques ont diminué de 20%. Le secret ? Minerva est capable d'avertir les utilisateurs quelques secondes seulement après qu'ils fassent preuve d'un comportement toxique. Les punitions sont elles aussi très rapides et les joueurs sentent donc peser une menace immédiate lorsqu'ils reçoivent un avertissement.

il ne reste plus qu'à espérer que ce genre d'IA continue de s'améliorer et devienne la norme de lutte contre la toxicité sur les jeux compétitifs en ligne. Un Leauge of Legends, CS:GO, Dota 2 ou encore CoD sans toxicité, ce n'est peut être pas un rêve si utopiste que ça !

Publicité

Source : Talkesports