La pression s'intensifie sur les géants des réseaux sociaux. Alors que plusieurs pays, y compris la France, envisagent d'interdire les services aux adolescents de moins de 15 ou 16 ans, certains organismes prennent les devants pour garantir la sécurité en ligne.
La Mental Health Coalition, un groupe dédié à la déstigmatisation des troubles mentaux, a annoncé le 10 février le lancement de normes pour évaluer les protections offertes par les plateformes. Selon le Los Angeles Times, Tiktok, Snapchat et Meta seront en première ligne de cette évaluation, accompagnés de Discord, Youtube, Pinterest, Roblox et Twitch.
Un nutri-score pour les plateformes
Avec le programme Safe Online Standards (SOS), un panel d'experts internationaux évaluera les entreprises sur une vingtaine de critères, visant à mesurer leurs efforts pour protéger les utilisateurs, en particulier les plus jeunes.
Les plateformes seront évaluées sur leur capacité à imposer des pauses et à désactiver le défilement infini, ainsi que sur d'autres critères liés à leur politique de sécurité et leur transparence.
À l'issue des évaluations, les experts attribueront une note à chaque plateforme. Un « nutri-score » qui désignera le bleu pour les protections solides et rouge pour les insuffisances majeures. Les notes intermédiaires indiqueront un niveau de protection partiel.
"Ces normes peuvent réellement faire évoluer la santé mentale des adolescents", a déclaré Dan Reidenberg, directeur général du Conseil national pour la prévention du suicide, au Washington Post. "Espérons qu'elles auront un impact sur la conception des outils par les entreprises technologiques".
Alors que Tiktok, Snapchat et Meta se lancent dans cette évaluation, des procès médiatisés commencent à affecter ces entreprises. Depuis fin janvier 2026, Instagram et Youtube font face à des jurys à Los Angeles pour déterminer si leurs designs sont volontairement addictifs pour les adolescents.
De plus, des parents accusent Snapchat d'avoir facilité l'accès à des substances nocives, suite à des tragédies impliquant leurs enfants. Un procès a également été engagé contre Meta pour ne pas avoir suffisamment protégé les mineurs des prédateurs sexuels.
Les entreprises, quant à elles, rejettent ces allégations, affirmant que de nombreux facteurs de santé mentale existent en dehors de l'utilisation des plateformes.
Un dispositif indépendant?
Alors que plusieurs pays envisagent d'interdire l'accès aux réseaux sociaux pour les jeunes, la France et d'autres pays européens emboîtent le pas. L'Australie a récemment prohibé l'accès aux moins de 16 ans. En France, l'Assemblée nationale a voté une loi pour interdire ces plateformes aux moins de 15 ans.
Les chatbots à l'IA soulèvent aussi de nouvelles préoccupations ; certains adolescents s’y tournent pour obtenir un soutien émotionnel, brouillant ainsi la ligne entre aide numérique et dépendance.
Les réseaux sociaux affirment prendre des mesures pour régler ces problèmes, mais la modération reste un défi important. La Mental Health Coalition vérifie que l'élaboration de ces standards n’a pas été influencée par des entreprises technologiques, malgré des collaborations antérieures avec Meta.







