La décision d’Apple de s’attaquer proactivement aux images d’abus pédosexuels est un grand pas vers une action centrée sur les victimes à l’échelle de l’industrie
La technologie de détection d’images proposée n’est qu’une partie de la solution, estime le Centre canadien de protection de l’enfance; de nombreux autres problèmes restent à résoudre.
Pour publication immédiate
Winnipeg (Manitoba) — Le Centre canadien de protection de l’enfance (CCPE) se réjouit de l’annonce par Apple de son intention de s’attaquer à la propagation des images d’abus pédosexuels sur Internet en déployant une technologie de détection proactive sur la plupart de ses plateformes aux États‑Unis.
La semaine dernière, Apple a annoncé son intention de déployer des outils pour contrer les images d’abus pédosexuels sur ses services iMessage, iCloud et Siri/Recherche. Le système d’Apple mettra les enfants et les parents en garde contre les contenus sensibles et comparera les images stockées sur leurs appareils avec des banques d’images d’abus pédosexuels connues.
« Pour nous, la détection proactive des images préjudiciables et illégales est une mesure que tous les fournisseurs de services électroniques (FSÉ) doivent sérieusement mettre en œuvre. L’approche proposée par Apple pour ses utilisateurs est une victoire pour les survivantes et survivants, dont les images d’abus pédosexuels sont partagées à répétition depuis des années, et j’espère bien que d’autres entreprises de technologie s’y mettront elles aussi et feront leur part », signale Lianna McDonald, directrice générale du CCPE.
L’adoption de technologies efficaces de détection proactive est l’une des principales recommandations du récent rapport du CCPE, mais elle a ses limites, car ces technologies ne peuvent ni prévenir ni bloquer le partage d’images nouvelles qui n’ont pas encore de correspondance dans les banques d’images d’abus pédosexuels existantes.
« On voudrait bien croire que les algorithmes et les technologies peuvent à eux seuls prévenir la violence faite aux enfants sur Internet, poursuit Lianna McDonald, mais nous avons constaté au fil des ans que ces outils ont leurs limites et ne représentent qu’une partie de la solution. La modération humaine, la vérification de l’âge, le traitement rapide des plaintes et la suppression des images sont autant de mesures essentielles qui aident à protéger les enfants sur Internet. »
Apple n’a pas encore annoncé son intention d’étendre ce programme au Canada. Dans une telle éventualité, le CCPE serait ravi d’aider Apple à comprendre le contexte canadien entourant les images d’abus pédosexuels et la diffusion non consensuelle d’images intimes.
Contacts médias :1 204 560-0723
communications@protegeonsnosenfants.ca