Déclaration au nom des Phoenix 11 : Les voix des survivant.e.s doivent être entendues dans le débat sur les intentions d’Apple face aux images d’abus pédosexuels
Pour publication immédiate
Nous, les Phoenix 11, faisons partie des innombrables enfants dont la douleur et le traumatisme se reflètent dans les millions d’images d’abus pédosexuels qui, en ce moment même, circulent librement sur Internet.
Les intentions d’Apple de détecter les téléchargements d’images d’abus pédosexuels sur ses serveurs font couler beaucoup d’encre ces temps‑ci. Hélas, les voix les plus fortes attaquent cette initiative, insistant plutôt sur d’hypothétiques préoccupations liées au droit à la vie privée des utilisateurs.
Ce qu’on n’a pas entendu, ce sont les voix des survivant.e.s. On n’a rien entendu sur ce que vivent les survivant.e.s comme nous du fait qu’on laisse nos images d’abus se propager sur Internet.
Cela va de soi, mais il est bon de souligner que chacune de nos images d’abus pédosexuels a été créée illégalement. C’est notre vie privée qui est violée chaque fois que quelqu’un voit nos images d’abus, se les approprie ou les partage.
Cela n’a rien d’hypothétique pour nous. C’est difficile de décrire ce que ça fait de savoir qu’à tout moment quelqu’un quelque part regardera des images de nous, enfants, en train de nous faire abuser sexuellement et en tirera une sorte de gratification sadique. C’est comme si nous nous refaisions abuser encore et encore.
Vous n’avez pas entendu les voix des survivant.e.s dans le débat public parce que nous devons prendre des précautions pour protéger nos identités, car personne ne nous protège. Des internautes nous traquent, divulguent nos données personnelles et nous pourchassent. Chaque jour, nous craignons de nous faire reconnaître par des gens qui ont vu nos images d’abus.
Qu’en est‑il de notre droit à la vie privée?
Nous voyons d’un bon œil ces premières mesures présentées par Apple. La détection proactive des images d’abus pédosexuels est déjà une réalité sur de nombreuses plateformes en ligne. Or, la barre a été placée très bas.
Apple indique que son système ne déclenchera que des alertes internes et qu’un minimum de 30 images d’abus pédosexuels connues devront avoir été détectées sur le compte iCloud d’un utilisateur avant qu’elle n’agisse. Ce n’est qu’à ce moment‑là que les images seront examinées manuellement par Apple et ensuite par le National Center for Missing & Exploited Children avant d’être potentiellement transmises à la police. Quel autre crime peut‑on commettre 30 fois avant d’être dénoncé aux forces de l’ordre?
Nous demandons à Apple de reconsidérer ce seuil. Une seule image, c’est déjà trop.
Les outils de détection d’images d’abus pédosexuels représentent pour nous, survivantes et survivants, un formidable espoir de pouvoir un jour être loin des projecteurs. Cette rediffusion des images est non seulement préjudiciable aux victimes qui y figurent, elle sert à manipuler psychologiquement la prochaine génération de victimes et à banaliser ces abus à leurs yeux. Nous ne voulons pas qu’un seul autre enfant subisse la même chose que nous alors qu’il est possible de remédier à la situation.
Nous avons le devoir collectif d’obliger les entreprises à supprimer ces photos et vidéos. Ça ne devrait pas être si compliqué.
Contacts médias :1 204 560-0723
communications@protegeonsnosenfants.ca