J’aime Discord en tant que concept. Je n’aime pas toujours les politiques de Discord, notamment sa prochaine exigence mondiale de vérification de l’âge. L’approche est nulle.
Je comprends le problème. Non filtré, Internet n’est pas un endroit sûr pour les enfants. Discord tente à juste titre de lutter contre les prédateurs, les contenus dangereux et d’autres dangers pour les mineurs en modifiant l’expérience utilisateur par défaut en une expérience « adaptée aux adolescents ».
Mais Discord mettra adultes en danger lorsque cette politique sera déployée début mars.
Pour supprimer les filtres plus stricts, la limitation de l’âge et l’accès réduit aux fonctionnalités de Discord, les personnes majeures doivent autoriser un scan facial ou télécharger une pièce d’identité gouvernementale. Mais même si Discord garantit la sécurité et la confidentialité complètes des données – en affirmant qu’aucun selfie vidéo ne sera stocké ni aucun document d’identité conservé à long terme –, Discord a déjà perdu des images de 70 000 pièces d’identité gouvernementales en octobre 2025 au profit de pirates informatiques, des mois après avoir déployé cette politique pour la première fois au Royaume-Uni et en Australie en avril 2025.
Oui, les adultes peuvent rester soumis aux restrictions par défaut pour les adolescents pour éviter ce risque. Oui, Discord semble déjà essayer de répondre à ces préoccupations, même si son équipe médiatique ne m’avait toujours pas répondu au moment de la publication de cet article. Sur Reddit, u/discord_zorkian, membre du personnel de Discord, a déclaré que « la grande majorité des gens ne verront jamais la vérification de leur âge », car le système déterminera plutôt le statut d’adulte ou d’adolescent à travers des modèles d’utilisation, dont les détails restent opaques. (Pas du tout préoccupant du point de vue de la confidentialité.)
En cas d’erreur de calibrage, le titulaire du compte peut passer par le processus d’identification formel. u/discord_zorkian indique également que Discord utilisera des partenaires de vérification d’identification différents de celui qui a subi la violation de données.
Pour moi, ces informations supplémentaires laissent encore ouvertes de nombreuses questions – et doutes.
Parmi les plus importantes : premièrement, nous savons tous que toute entreprise peut être victime de violations de données. Des ressources de plus en plus importantes deviennent nécessaires pour sécuriser correctement les données, et peu d’entreprises disposent de la véritable taille nécessaire pour cela.
Deuxièmement, nous ne savons pas encore si la vérification de l’âge sera nécessaire pour gérer un groupe familial et si les centres familiaux resteront inefficaces. Actuellement, un compte « enfant » peut mettre fin à la connexion à un compte « parent », ce qui supprime également les limitations de compte imposées par le tuteur. Si vous gérez l’expérience de vos enfants sur Discord, vous n’aurez peut-être pas le choix concernant la vérification de l’âge.
Troisièmement, je ne suis pas non plus convaincu que ces changements protègent correctement les mineurs. Contenu a des limitations par défaut plus strictes : le filtrage et la limitation de l’âge brouillent ou bloquent automatiquement les messages et les canaux sensibles. La vérification de l’âge légal est requise pour l’accès. Cependant, contact n’est pas aussi verrouillé. Pour les utilisateurs probablement inconnus d’un compte adolescent, Discord acheminera leurs messages directs vers une boîte de réception distincte et marquera les demandes d’amis avec un avertissement. Aucun autre filtre n’a été annoncé pour le moment, comme les restrictions d’âge. Discord n’a pas encore mentionné la possibilité pour les tuteurs de bloquer complètement de telles demandes au nom de leurs enfants.
(Et encore une fois, si la connexion à un compte parental peut être volontairement coupée par l’adolescent, cela n’a pas beaucoup d’importance de toute façon.)
Je suis d’accord que Discord devrait prendre des mesures pour mieux protéger les enfants sur sa plateforme – et franchement, il aurait dû le faire beaucoup plus rapidement que ce calendrier. Mais de nombreuses lacunes semblent encore exister dans ce nouveau cadre. Par exemple, comment Discord gérera-t-il les comptes adultes qui montrent une habitude constante d’établir des contacts privés avec des comptes adolescents ? Comment Discord équilibrera-t-il la vérification et la confidentialité afin que, par exemple, quelqu’un ne crée pas une cargaison de comptes « adultes » et ne les vende pas, mais que la politique « aucune donnée conservée » soit respectée ?
La sécurité ne devrait pas être un jeu à somme nulle, et encore moins un jeu incroyablement compliqué. Mais c’est à cela que ressemble le premier grand pas de Discord ici. Protégez les adultes, exposez les enfants. Protégez partiellement ces adolescents, laissez leurs aînés vulnérables.
Ce n’est pas ça. Pas encore.











