Quand l’histoire se répète : Le dernier rapport de l’autorité australienne de réglementation du numérique montre que la protection des enfants n’est pas une priorité pour les géants des médias sociaux
Un texte de Lianna McDonald, directrice générale du Centre canadien de protection de l’enfance (CCPE)
Du point de vue d’un organisme de protection de l’enfance, il est impossible de prendre la pleine mesure des failles de sécurité des plateformes de médias sociaux que nos enfants et adolescents utilisent tous les jours.
Plusieurs facteurs compliquent l’analyse de la situation, à commencer par le manque de transparence des entreprises de technologie vis-à-vis de leurs pratiques de modération de contenu et de sûreté de conception.
Le dernier rapport du Commissariat australien à la sécurité en ligne (eSafety Commissioner) s’avère donc un document fort utile pour demander des comptes aux entreprises de technologie. On y examine les pratiques de cinq grandes entreprises – Google, TikTok, Twitch, Discord et X (feu Twitter) – en matière de protection des enfants et les ressources qu’elles y consacrent. Les résultats illustrent une fois de plus pourquoi le modèle d’autoréglementation ne fonctionne tout simplement pas et nuit gravement aux enfants et aux survivant·es.
N’hésitant pas à utiliser les pouvoirs que lui confère la loi, le commissariat a demandé des informations détaillées à ces plateformes et dégagé plusieurs constats inquiétants, dont ceux-ci :
- Discord et Twitch – qui s’en remettent en partie à la modération communautaire – ne sont pas automatiquement avertis lorsque des utilisateurs bénévoles trouvent des images d’abus pédosexuels. Il est aussi possible à des modérateurs autoproclamés et à d’autres personnes de mettre en place des canaux spécialement consacrés à l’exploitation et aux abus sexuels d’enfants.
- Certaines entreprises n’utilisent pas les listes de blocage d’images d’abus pédosexuels connues, alors que ces listes sont largement diffusées.
- Certaines plateformes s’empêchent d’utiliser les outils largement disponibles pour intercepter les images d’abus pédosexuels et empêcher les utilisateurs de les mettre en ligne.
- La plateforme Discord, en partie consacrée à la diffusion en direct, s’abstient de déployer des outils de détection d’activités nocives, invoquant des coûts « prohibitifs ».
Qui plus est, le Commissariat à la sécurité en ligne a infligé une amende d’un peu plus de 380 000 $ US à X pour modération insuffisante des contenus et envoyé une mise en demeure à Google pour omission de fournir toutes les informations demandées. Ces constats démontrent une fois de plus la défiance affichée par les entreprises de technologie lorsque des gouvernements dûment élus les soumettent à des exigences minimales et raisonnables.
Ce ne sont là que quelques exemples du ramassis dysfonctionnel de mécanismes et de politiques de protection que le Commissariat a relevés dans le deuxième de ses excellents rapports sur les exigences de base en matière de sécurité en ligne (Basic Online Safety Expectations). Ce dernier rapport s’inscrit dans la continuité du rapport inaugural de 2022.
Ces constats concordent hélas avec ce que nous observons au CCPE dans notre travail auprès des survivant·es d’abus pédosexuels et à travers les activités de notre plateforme Projet Arachnid, qui freine la distribution des images connues sur Internet à l’échelle mondiale lorsqu’il s’agit d’abus pédosexuels et d’images préjudiciables/violentes d’enfants. Le CCPE a illustré dans ses nombreux rapports de recherche l’incapacité chronique des entreprises de technologie à faire prévaloir la sécurité des enfants.
Au nom des acteurs de première ligne dans la lutte contre l’exploitation sexuelle des enfants sur Internet, au nom des parents, et surtout, au nom des survivant·es, nous saluons les efforts inlassables du Commissariat à la sécurité en ligne pour responsabiliser les entreprises. Nous avons plus que jamais besoin que les gouvernements se mobilisent d’urgence pour protéger leurs citoyens sur Internet, en particulier ceux qui sont les plus vulnérables à l’exploitation et aux abus sexuels.