Meta accusée de cacher la vérité sur la sécurité des enfants!

Des révélations inquiétantes sur la sécurité des enfants chez Meta

Début septembre 2025, quatre lanceurs d’alerte – deux anciens et deux employés actuels de Meta – ont transmis au Congrès américain des documents internes révélateurs. Ces pièces accusent Meta d’avoir volontairement supprimé ou caché des recherches cruciales sur la sécurité des enfants, notamment dans ses espaces de réalité virtuelle comme Horizon Worlds. Ces faits soulèvent de graves inquiétudes quant à la manière dont l’entreprise aborde les risques pour les jeunes utilisateurs de ses plateformes.

Des données supprimées pour préserver l’image de l’entreprise

Parmi les éléments transmis, l’un d’eux révèle que Meta aurait ordonné la suppression d’un rapport concernant un enfant allemand de moins de 10 ans impliqué dans un cas de sollicitation sexuelle sur Horizon Worlds. Cette suppression aurait été décidée pour protéger l’image publique de la société. Ce cas semble être loin d’être isolé. D’autres données sensibles auraient également été modifiées ou dissimulées afin de limiter leur exposition aux régulateurs.

Des politiques internes restrictives après les fuites de 2021

À la suite des révélations de Frances Haugen en 2021 sur les effets d’Instagram sur la santé mentale des adolescentes, Meta a renforcé ses politiques internes. Les chercheurs ont été incités à éviter certains mots sensibles comme “enfant”, “genre” ou “harcèlement”. Les études sur des sujets complexes ont été restreintes, et les rapports ont été formulés dans un langage délibérément vague pour échapper à toute sanction réglementaire. Cette stratégie vise à garder le contrôle sur le discours public entourant la gestion des risques internes.

Des projets abandonnés ou cachés

Le projet « Horton », dont l’objectif était de tester l’efficacité des outils de vérification d’âge avec un budget d’un million de dollars, a été annulé après une revue juridique. Un autre projet, « Salsa », prévoyait la création de comptes surveillés pour les préadolescents. Malgré ces initiatives, Meta a reconnu que les dispositifs en place restent insuffisants pour offrir une protection adéquate aux enfants de moins de 10 ans, qui continuent d’accéder aux plateformes sans surveillance adaptée.

Une vérification d’âge facilement contournable

Les mécanismes actuels de vérification d’âge chez Meta sont vivement critiqués. L’entreprise reconnaît elle-même que seulement 41 % des utilisateurs reconfirment leur date de naissance lorsque cela leur est demandé. Ce laxisme permet à bon nombre de mineurs d’accéder librement aux espaces virtuels et sociaux qui leur sont pourtant interdits. Cela démontre un manque d’efficacité flagrant des systèmes de protection, alors que les besoins en matière de surveillance numérique sont de plus en plus pressants.

La défense de Meta face aux accusations

En réponse aux critiques, Meta affirme avoir conduit plus de 180 études sur la sécurité des jeunes depuis 2022. Selon ses porte-parole, ces recherches auraient permis la mise en place d’outils de contrôle parental plus performants. Toutefois, les lanceurs d’alerte avancent que ces études auraient été filtrées ou orientées pour minimiser les risques perçus. Cette divergence alimente les soupçons sur l’écart entre le discours officiel de Meta et la réalité de sa stratégie interne.

Une affaire aux implications politiques majeures

Les documents transmis par les lanceurs d’alerte sont désormais entre les mains de la Chambre des représentants des États-Unis ainsi que de la Federal Trade Commission (FTC). Ces institutions mènent des enquêtes approfondies sur la responsabilité des plateformes numériques et la protection des mineurs. Leurs conclusions pourraient aboutir à des réglementations renforcées, voire à des sanctions sévères contre les grands acteurs technologiques comme Meta.

Pourquoi cette affaire marque un tournant

À l’instar des révélations de 2021, cette nouvelle affaire pourrait avoir un impact majeur. Elle met en lumière une facette encore peu explorée de la responsabilité des géants du numérique : la réalité virtuelle. Elle révèle également une fracture croissante entre les objectifs commerciaux de croissance et les impératifs éthiques de protection. Au moment où les jeunes investissent de plus en plus ces univers connectés, un encadrement réglementaire s’impose comme une priorité incontournable.

Une technologie au service de la sécurité avec ChappyGo

Dans un univers numérique aux enjeux croissants, l’intelligence artificielle devient un levier essentiel pour créer des espaces plus sécurisés. À Toulouse, ChappyGo développe des solutions innovantes pour surveiller les comportements à risque, renforcer les processus d’authentification, et améliorer la modération. Nos formations en IA et notre accompagnement personnalisé permettent aux entreprises de bâtir des outils adaptés aux défis contemporains, y compris pour la protection des plus jeunes. Explorez les possibilités offertes par les services IA de ChappyGo.

Agir maintenant pour des plateformes numériques plus sûres

La sûreté des jeunes en ligne est une urgence. Entre pression économique et devoir éthique, il est grand temps d’agir. Si vous souhaitez découvrir comment l’intelligence artificielle peut contribuer à la sécurisation de vos environnements numériques, contactez notre équipe ou rejoignez nos programmes spécialisés. Ensemble, faisons évoluer le numérique pour qu’il soit un espace sûr pour tous.

Mots-clés : Meta, sécurité des enfants, Horizon Worlds, réalité virtuelle, lanceurs d’alerte, harcèlement en ligne, protection des mineurs, suppression de données, contrôle parental, FTC, intelligence artificielle, ChappyGo