in

Ubisoft et Riot Games veulent créer une IA pour en finir avec le harcèlement dans les jeux en ligne

[ad_1]

Les deux acteurs du jeu vidéo ont décidé de s’allier pour lancer le projet de recherche “Zero Harm in Comms”. Ils visent à mettre en place une IA capable de détecter les comportements toxiques dans les jeux en ligne afin d’en faire un gendarme du cyberharcèlement.

Redonner au jeu vidéo en ligne son esprit convivial, sain et communautaire dans le bon sens du terme. Les comportements toxiques de certains joueurs, capables de harceler en ligne d’autres joueurs, d’avoir des comportements plus que répréhensibles avec des streameuses ou même de simples joueuses, n’ont de cesse depuis plusieurs années de mettre en lumière le problème. Mais les solutions, au-delà de la simple modération et du signalement, ne font que panser temporairement les plaies qui ne se referment jamais.

Pour résoudre un problème qui gangrène tout le secteur, il faut que la solution vienne peut-être des principaux acteurs eux-mêmes. C’est le constat qu’ont fait Riot Games et Ubisoft. Les deux poids lourds du jeu vidéo annoncent ce mercredi le lancement du projet de recherche Zéro Harm in Comms (zéro dommage dans les commentaires, en français). Comme son nom l’indique, son but est d’aboutir à une modération automatique par intelligence artificielle de tous les commentaires blessants, outrageants, voire plus choquants.

Une IA capable de détecter les commentaires déplacés

Forts de leurs expériences dans les jeux en ligne, les éditeurs de League of Legends et Assassin’s Creed ont décidé d’allier leurs forces pour concevoir une solution basée sur l’IA qui permettrait d’épurer les commentaires. Ces outils de modération détecteront et sanctionneront les comportements inadaptés.

“Ubisoft nous a approchés pour ce projet, car ils connaissaient l’intérêt et l’engagement de Riot à travailler avec d’autres acteurs de l’industrie pour créer des communautés sûres et atténuer les comportements perturbateurs”, explique à Tech&Co Wesley Kerr, responsable de la recherche technologique chez Riot Games. “C’est un sujet complexe et difficile à résoudre”, ajoute Yves Jacquier, directeur exécutif d’Ubisoft La Forge. “Mais nous pensons qu’en rassemblant l’industrie à travers des actions collectives et un partage de connaissance, nous serons plus efficaces pour proposer des expériences en ligne positives et un environnement communautaire rassurant.”

Dans "Rainbow Six Siege", le chat peut souvent déraper, mais les sanctions sont rapides.
Dans “Rainbow Six Siege”, le chat peut souvent déraper, mais les sanctions sont rapides. © Ubisoft

Actuellement, la modération des propos repose souvent sur un dictionnaire d’insultes “facilement contournable et qui ne tient pas compte du contexte en ligne”, souligne Yves Jacquier. “Nous avons besoin d’une IA capable de comprendre le sens générale d’un jeu en ligne dans son contexte.”

Le projet vise donc à mettre au point une IA entraînée à percevoir “de manière préventive” les comportements nuisibles dans les chats en ligne et à les faire disparaître le plus vite possible. L’objectif est aussi de mettre au point des outils qui seront ensuite partagés avec les autres acteurs de l’industrie pour avoir une action concertée et complémentaire.

Membres actifs de la Fair Play Alliance, Ubisoft et Riot Games expliquent vouloir s’appuyer sur leurs technologies déjà appliquées dans les outils de jeu en ligne, ainsi que sur leur approche pour mettre en place un cadre qui garantisse l’éthique et la confidentialité. Pour cela, ils vont s’appuyer sur l’expérience des jeux compétitifs de Riot Games (Valorant notamment) qui peuvent parfois générer des comportements menaçants des joueurs malgré les efforts, mais aussi sur la diversité des jeux d’Ubisoft, de Far Cry à Mario+The Lapins Crétins, et donc des multiples profils de joueurs possibles.

Ubisoft a souvent été à la pointe de la lutte contre les comportements toxiques dans les jeux en renforçant sans cesse son outil de détection des propos racistes, homophobes, sexistes ou encore haineux dans les chats de jeu comme Rainbow Six Siege. Cela prend la forme de message affiché au joueur pour expliquer le comportement fautif, expulsion d’un jeu un temps défini, suspension de compte, voire bannissement total. Riot a, pour Valorant, multiplié les sanctions, allant de la simple coupure de micro à l’exclusion. Cela a été notamment permis par l’analyse vocale et le signalement par d’autres joueurs.

En faire un outil de modération efficace pour toute l’industrie

Il faut dire que les deux entreprises ont un intérêt commun: elles basent de plus en plus leur fonctionnement sur des jeux à fort potentiel communautaire. Et pour que ceux-ci soient attractifs, il faut que leur environnement soit sain.

Dans Valorant, Riot Games compte autant sur ses outils de modération que sur les signalements pour lutter contre les commentaires inadaptés.
Dans Valorant, Riot Games compte autant sur ses outils de modération que sur les signalements pour lutter contre les commentaires inadaptés. © Riot Games

Avec le projet de recherche Zero Harm in Comms, les deux acteurs se disent prêts à partager leurs connaissances afin de régler le problème de toxicité dans les commentaires en ligne. En croisant leurs expériences de jeu, ils espèrent mettre au point une base de données couvrant tous les types de jeux, de joueurs et de comportements, avec une IA apte à répondre à toutes les situations.

“Les comportements nocifs ne sont pas l’apanage seulement des jeux, mais de toutes les plateformes sociales,” rappelle Wesley Kerr. “Pour créer des expériences positives, il faut tous s’unir. Ce projet est l’illustration de l’engagement qui est le nôtre et le travail que nous abattons chez Riot pour développer des échanges inclusifs, sains et sécurisés dans nos jeux.”

Cette annonce est la première pierre du projet de recherche “ambitieux et cross-industrie”. Ubisoft et Riot Games espèrent rallier d’autres éditeurs et développeurs à leur cause. Les premiers enseignements devraient pouvoir être partagés dès l’an prochain avec l’industrie vidéo ludique, expliquent-ils, quelle que soit la conclusion. “Le seul véritable échec est quand cela ne fonctionne pas et que vous n’êtes pas en mesure d’expliquer pourquoi”, constate Yves Jacquier.

[ad_2]

What do you think?

Written by Germain

Leave a Reply

Your email address will not be published. Required fields are marked *

la nouvelle méga-fusée de la Nasa a décollé pour la première fois vers la Lune

Le doute, un processus au cœur de l’action