Soluces, guides et actualités du jeux vidéo
Generic filters
Exact matches only

Discord recourra à l’IA et à la modération humaine pour déterminer quels serveurs nécessitent une classification par âge

La plateforme de communication Discord prévoit de déployer à l’échelle mondiale, à partir de mars 2026, un mécanisme de vérification d’âge incluant des scans faciaux et la validation de documents d’identité officiels. Les utilisateurs n’ayant pas effectué cette vérification ne pourront accéder qu’à une version dite « adaptée aux adolescents », dont les fonctionnalités et le contenu accessible seront restreints. Cette mesure suscite de vifs débats au sein de la communauté des joueurs et inquiète de nombreux développeurs quant à la flexibilité future de gestion de leurs communautés officielles.

Selon les informations officielles de Discord, les comptes non vérifiés subiront plusieurs limitations : impossibilité de modifier les filtres de contenu, restrictions sur les paramètres de sécurité liés aux « scènes » (fonctionnalité permettant à des intervenants désignés de parler tandis que le public écoute uniquement), ainsi que contraintes supplémentaires sur les messages privés et les demandes d’ami. Par ailleurs, certains serveurs pourront imposer un seuil d’âge minimal, excluant de facto les utilisateurs non vérifiés.

Critères de classification des serveurs : une approche combinée

Interrogé par le média Gamesmarket, Discord a précisé que la classification ne reposerait pas uniquement sur les systèmes de notation existants comme l’ESRB ou le PEGI. « Nous ne classerons pas automatiquement par âge les serveurs ou contenus associés à un jeu simplement en fonction de sa classification officielle », a indiqué la plateforme.

Le processus de détection s’appuiera sur une combinaison de surveillance automatisée, d’analyse par intelligence artificielle et de relecture humaine pour identifier les serveurs nécessitant une restriction d’âge. Cette approche soulève toutefois des interrogations : même en l’absence de violation explicite des règles, un serveur pourrait être classé par erreur, entraînant l’exclusion involontaire de certains membres de la communauté.

Inquiétudes des studios indépendants

Pour de nombreux studios indépendants ou de petite taille, Discord constitue un outil essentiel d’interaction avec les joueurs, de partage d’aperçus du développement (captures d’écran, vidéos) et de recrutement de testeurs. L’entrée en vigueur de ce système génère des incertitudes majeures : les développeurs ne disposent d’aucun moyen de prévoir si l’esthétique visuelle de leur jeu sera perçue comme du contenu sensible.

Un style cartoon représentant des scènes de violence déclenchera-t-il des restrictions ? Un jeu intégrant des éléments liés à l’alcool ou à la consommation de boissons alcoolisées verra-t-il l’ensemble de son serveur officiel soumis à une barrière d’âge ? À ce stade, les critères demeurent flous et non documentés publiquement.

Cette évolution réglementaire, bien que motivée par des impératifs de protection des mineurs, pourrait fragiliser l’écosystème communautaire qui soutient une large partie de l’industrie du jeu vidéo indépendant, en introduisant une couche de complexité imprévisible dans la gestion des espaces d’échange entre créateurs et joueurs.

Envie de commenter ?

ou créer un compte dès maintenant et rejoignez la communauté tseret