GGWP est un système d’IA qui suit et combat la toxicité dans le jeu

En ce qui concerne les jeux en ligne, nous savons tous que le bouton “signaler” ne fait rien. Quels que soient le genre, l’éditeur ou le budget, les jeux sont lancés chaque jour avec des systèmes inefficaces pour signaler les joueurs abusifs, et certains des plus grands titres au monde existent dans un état constant d’excuses pour avoir hébergé des environnements toxiques. Des franchises telles que League of Legends, Call of Duty, Counter-Strike, Dota 2, Overwatch, Ark et Valorant ont des communautés si hostiles que cette réputation fait partie de leurs marques – suggérer ces titres aux nouveaux joueurs inclut un avertissement sur le vitriol qu’ils vont expérience dans le chat.

On dirait que le bouton de signalement envoie souvent des plaintes directement dans une poubelle, qui est ensuite incendiée tous les trimestres par le service de modération composé d’une seule personne. Selon le légendaire pro de Quake et Doom esports Dennis Fong (mieux connu sous le nom de Thresh), ce n’est pas loin de la vérité dans de nombreux studios AAA.

“Je ne vais pas citer de noms, mais certains des plus grands jeux du monde étaient comme, vous savez, honnêtement, ça ne va nulle part”, a déclaré Fong. « Il va dans une boîte de réception que personne ne regarde. Vous ressentez cela en tant que joueur, n’est-ce pas? Tu te sens découragé parce que tu aimes, j’ai signalé le même gars 15 fois et il ne s’est rien passé. »

Les développeurs et les éditeurs de jeux ont eu des décennies pour trouver comment lutter seuls contre la toxicité des joueurs, mais ils ne l’ont toujours pas fait. Donc, Fong l’a fait.

Cette semaine, il a annoncé GGWP, un système alimenté par l’IA qui collecte et organise les données sur le comportement des joueurs dans n’importe quel jeu, permettant aux développeurs de traiter chaque rapport entrant avec un mélange de réponses automatisées et de critiques de personnes réelles. Une fois qu’il est introduit dans un jeu – “C’est littéralement comme une ligne de code”, a déclaré Fong – l’API GGWP agrège les données des joueurs pour générer un score de santé communautaire et décomposer les types de toxicité communs à ce titre. Après tout, chaque jeu est un gros flocon de neige en ce qui concerne les abus dans le chat.

BELLE PARTIE, BIEN JOUÉ

Le système peut également attribuer des scores de réputation à des joueurs individuels, sur la base d’une analyse dirigée par l’IA des matchs signalés et d’une compréhension complexe de la culture de chaque jeu. Les développeurs peuvent ensuite attribuer des réponses à certains scores de réputation et même à des comportements spécifiques, avertir les joueurs d’une baisse de leurs notes ou simplement briser le marteau d’interdiction. Le système est entièrement personnalisable, permettant un titre comme Call of Duty : zone de guerre d’avoir des règles différentes de, disons, Roblox.

“Nous avons très vite réalisé que, tout d’abord, beaucoup de ces rapports sont les mêmes”, a déclaré Fong. “Et à cause de cela, vous pouvez réellement utiliser les mégadonnées et l’intelligence artificielle pour aider à trier ces choses. La grande majorité de ces choses est en fait presque parfaitement préparée pour que l’IA s’attaque à ce problème. Et c’est juste que les gens n’ont tout simplement pas encore eu le temps de s’y mettre.”

GGWP est une idée originale de Fong, du fondateur de Crunchyroll, Kun Gao, et de l’expert en données et en IA, le Dr. George Ng. Il a jusqu’à présent obtenu un financement de démarrage de 12 millions de dollars, soutenu par Sony Innovation Fund, Riot Games, le fondateur de YouTube Steve Chen, le streamer Pokimane et les créateurs de Twitch Emmett Shear et Kevin Lin, entre autres investisseurs.

BELLE PARTIE, BIEN JOUÉ

BELLE PARTIE, BIEN JOUÉ

Fong et ses acolytes ont commencé à construire GGWP il y a plus d’un an, et compte tenu de leurs liens avec l’industrie, ils ont pu s’asseoir avec des dirigeants de studio AAA et demander pourquoi la modération était un problème si persistant. Le problème, ont-ils découvert, était double : premièrement, ces studios ne voyaient pas la toxicité comme un problème qu’ils avaient créé, ils n’en assumaient donc pas la responsabilité (nous pouvons appeler cela le Zuckerberg Special). Et deuxièmement, il y avait tout simplement trop d’abus à gérer.

En un an seulement, un jeu majeur a reçu plus de 200 millions de rapports soumis par des joueurs, a déclaré Fong. Plusieurs autres chefs de studio avec lesquels il s’est entretenu ont également partagé des chiffres à neuf chiffres, les joueurs générant des centaines de millions de rapports par an et par titre. Et le problème était encore plus grand que ce.

“Si vous obtenez 200 millions pour un jeu de joueurs se signalant, l’ampleur du problème est tellement énorme”, a déclaré Fong. “Parce que comme on vient d’en parler, les gens ont abandonné parce que ça ne va nulle part. Ils arrêtent juste de dénoncer les gens. »

Les dirigeants ont dit à Fong qu’ils ne pouvaient tout simplement pas embaucher suffisamment de personnes pour suivre le rythme. De plus, ils n’étaient généralement pas intéressés à former une équipe juste pour concevoir une solution automatisée – s’ils avaient des personnes IA dans le personnel, ils voulaient qu’ils construisent le jeu, pas un système de modération.

En fin de compte, la plupart des studios AAA ont fini par traiter environ 0,1 % des rapports qu’ils recevaient chaque année, et leurs équipes de modération avaient tendance à être ridiculement petites, a découvert Fong.

BELLE PARTIE, BIEN JOUÉ

BELLE PARTIE, BIEN JOUÉ

“Certains des plus grands éditeurs au monde, leurs équipes de comportement des joueurs anti-toxicité comptent moins de 10 personnes au total”, a déclaré Fong. « Notre équipe compte 35 personnes. Elle est composée de 35 personnes et ce ne sont que des spécialistes des produits, de l’ingénierie et des données. Donc, en tant qu’équipe, nous sommes plus grands que presque toutes les équipes d’éditeurs mondiaux, ce qui est un peu triste. Nous sommes très dévoués et déterminés à essayer d’aider à résoudre ce problème. »

Fong souhaite que GGWP introduise une nouvelle façon de penser à la modération dans les jeux, en mettant l’accent sur la mise en œuvre de moments propices à l’apprentissage, plutôt que sur la punition directe. Le système est capable de reconnaître les comportements utiles comme le partage d’armes et la réanimation de coéquipiers dans des conditions défavorables, et peut appliquer des bonus au score de réputation de ce joueur en réponse. Cela permettrait également aux développeurs d’implémenter des notifications en temps réel dans le jeu, comme une alerte indiquant “vous avez perdu 3 points de réputation” lorsqu’un joueur utilise un mot inacceptable. Cela les dissuaderait, espérons-le, de répéter le mot, ce qui réduirait le nombre de rapports globaux pour ce jeu, a déclaré Fong. Un studio devrait faire un peu de travail supplémentaire pour mettre en place un tel système de notification, mais GGWP peut le gérer, selon Fong.

“Nous avons complètement modernisé l’approche de la modération”, a-t-il déclaré. “Ils doivent juste être prêts à essayer.”

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation.

Leave a Comment