Passez au contenu principal Passez au menu de la section

Un groupe d’universitaires demande à l’UE de renoncer à mettre en place des mécanismes de blocage des images d’abus pédosexuels, mais ses affirmations ne passent pas l’épreuve de la réalité


, directeur informatique, Centre canadien de protection de l’enfance

La semaine dernière, un groupe international de scientifiques a demandé à l’UE de renoncer à mettre en place des mesures réglementaires qui obligeraient les entreprises de technologie à prendre les moyens de détecter les images d’abus pédosexuels sur leurs plateformes et les efforts des pédocriminels pour conditionner des enfants à des fins sexuelles.

Ce groupe justifie son opposition en prétendant que si le système utilisé pour prévenir l’exploitation sexuelle des enfants sur Internet est imparfait, alors il ne sert à rien de l’implanter. C’est un refrain maintes fois repris lorsqu’il est question de mettre en place des mesures de protection dans les espaces numériques. Sans compter que certaines affirmations du groupe sont erronées, trompeuses ou les deux à la fois.

Le Centre canadien de protection de l’enfance utilise plusieurs des technologies critiquées par le groupe, et ce, depuis plus de dix ans. L’expertise de son équipe n’est pas théorique; elle est appliquée. Ces outils éprouvés lui ont permis d’obtenir la suppression de millions de photos et de vidéos d’abus pédosexuels. Examinons de plus près certaines des affirmations avancées dans la lettre ouverte des scientifiques :

« Il est en outre possible de créer une image légitime qui sera faussement détectée comme étant une image illégale si elle possède la même empreinte numérique qu’une image présente dans la base de données (faux positif). On peut y arriver sans même connaître le contenu de la base de données. Une telle attaque pourrait être dirigée contre des personnes innocentes ou servir à inonder les forces policières de faux positifs et ainsi détourner des ressources qui auraient pu être consacrées à des enquêtes sur de vrais cas d’abus pédosexuels. »

On peut aussi s’en prendre à des personnes innocentes et inonder les services d’incendie de faux positifs en déclenchant des alarmes incendie. Au lieu d’éliminer les services incendie, on prévoit des sanctions pénales pour décourager de tels comportements antisociaux. Sans compter que la création d’une image faussement positive quand on n’a pas accès à la base de données principale demande beaucoup plus de temps et de ressources que le déclenchement d’une alarme incendie.

« Comme scientifiques, nous ne pensons pas qu’il sera possible, dans les 10 à 20 prochaines années, de développer une solution évolutive qui puisse fonctionner sur les appareils des utilisateurs sans divulguer d’informations illégales et qui puisse détecter des images connues (ou des images dérivées ou liées à des images connues) de manière fiable, c’est-à-dire avec un nombre acceptable de faux positifs et de faux négatifs. »

C’est le principal problème : le « nombre acceptable » de faux positifs et de faux négatifs n’est jamais précisé. Si ce « nombre acceptable » était égal à zéro, alors la détection des images d’abus pédosexuels serait soumise à des normes plus strictes que toutes les autres technologies d’atténuation des abus. Prenons l’exemple des radars, des caméras de surveillance du trafic, des scanners dans les aéroports et des chiens renifleurs de drogue : chaque méthode de détection comporte un risque de faux positifs, mais au lieu d’abandonner ces technologies, on prend acte de leurs limites et de leurs risques et on les encadre par des protocoles et des politiques pour éviter que les faux positifs entraînent des conséquences pour des personnes innocentes. Le même argument avait été avancé contre l’utilisation de PhotoDNA pour la détection des images; cette technologie est en usage depuis des années et l’apocalypse des faux positifs ne s’est jamais concrétisée.

« Au volume de messages privés qui s’échangent sur Internet, le seul fait de balayer les messages échangés dans l’UE au moyen d’une seule application reviendrait à générer des millions d’erreurs chaque jour. »

On se demande sur quoi repose cette estimation puisque, pour citer les auteurs de la lettre, « aucune évaluation ouverte et objective n’a été réalisée pour démontrer leur efficacité ».

« Les faux positifs sont en outre inévitables avec les technologies de détection, même pour les images d’abus pédosexuels connues. »

Il est vrai qu’aucun système de détection n’est parfait, mais il existe d’innombrables exemples de systèmes de détection où la sûreté et la sécurité sont mises en balance avec le taux de faux positifs.

« Le seul moyen de réduire cette marge d’erreur à un niveau acceptable serait de ne recourir au balayage que dans des circonstances précises et vraiment ciblées où il existe une suspicion antérieure. »

Une fois de plus, on ne sait trop ce qui est entendu par « acceptable ».

« [...] le grand nombre de personnes qui devront vérifier des millions de textos et d’images. »

Encore un chiffre cité sans source.

« Deuxièmement, un virus peut être reconnu à partir d’une sous-chaîne unique et courte, mais pas une photo ou une vidéo. Il serait très facile de modifier ou de supprimer une sous-chaîne unique en faisant de petits changements qui ne modifieraient en rien l’apparence de l’image, mais le même procédé appliqué à un virus rendrait son code inopérant. »

Aux dires de l’industrie, c’est faux; voir par exemple :https://www.kaspersky.com/resource-center/definitions/what-is-a-polymorphic-virus. « Selon des études publiées l’an dernier, rien de moins que 97 % des virus analysés avaient des propriétés polymorphes. » Les détecteurs de virus utilisent des correspondances imprécises et des analyses heuristiques, comme toute autre technologie de détection.

« Ces outils fonctionneraient en analysant le contenu de l’appareil de l’utilisateur avant chiffrement ou après déchiffrement, puis en signalant les images illicites éventuellement trouvées. C’est comme si on installait des caméras vidéo dans nos maisons pour écouter toutes les conversations et envoyer des signalements dès que des sujets illicites sont abordés. »

Dans un régime de balayage côté client, seules les images en transit (c’est-à-dire, celles qui vont de l’appareil au serveur externe) sont « vérifiées » pour détecter les images d’abus pédosexuels. Signalons que WhatsApp utilise le terme « vérifications » plutôt que « balayage » pour décrire son usage du balayage côté client pour détecter les logiciels malveillants; voir https://faq.whatsapp.com/667552568038157/?cms_platform=android&cms_id=667552568038157&draft=false.

Les images conservées sur l’appareil de l’utilisateur ne sont pas soumises à ces « vérifications ». En ce sens, le balayage côté client fonctionne non pas comme une caméra vidéo, mais plutôt comme un détecteur de fumée : il joue un rôle de protection vital, sans perturber nos activités normales.

« La seule fois où le balayage côté client a été utilisé dans le monde libre, c’était par Apple en 2021 et Apple prétendait qu’il s’agissait d’une technologie de pointe. »

Les entreprises de technologie utilisent des techniques de balayage côté client dans différents contextes depuis des années. L’application de messagerie Signal a utilisé une technique impliquant l’usage d’empreintes numériques tronquées des numéros de téléphone inscrits dans le carnet d’adresses de l’utilisateur à des fins de découverte de contacts; voir https://signal.org/blog/private-contact-discovery/. Apple utilise actuellement le balayage côté client pour détecter les photos sensibles; voir https://support.apple.com/fr-ca/HT212850.

« Cette initiative a été abandonnée après moins de deux semaines en raison de préoccupations en matière de protection de la vie privée et du fait que le système avait déjà été piraté et manipulé. »

La source n’étant pas citée, il ne peut s’agir ici que d’une pure spéculation sur les motivations d’Apple.

« Lorsqu’il est déployé sur l’appareil d’un utilisateur, le balayage côté client agit comme un logiciel espion, permettant à des adversaires d’accéder facilement à l’appareil. »

Cette affirmation est complètement fausse et trompeuse. Il n’y a techniquement aucune connexion entre le balayage côté client et la possibilité pour autrui d’accéder à un appareil.

« Toute loi qui imposerait le balayage côté client ou toute autre technologie permettant d’accéder aux messages, de les analyser ou de les partager entraverait sans aucun doute le chiffrement. »

Faux aussi; il n’y a techniquement aucune connexion entre le balayage côté client et le chiffrement.

« Même s’il était possible de concevoir un tel système de balayage côté client, le risque qu’il soit utilisé abusivement est extrêmement élevé. Les décideurs politiques subiront vraisemblablement de fortes pressions pour en permettre l’utilisation à d’autres fins, à commencer par la détection du recrutement de terroristes, puis d’autres activités criminelles et enfin des discours dissidents. »

Sur quelle base évalue-t-on ici le risque « extrêmement élevé » d’utilisation abusive et la volonté des gouvernements de compromettre le balayage côté client? Le même argument avait été avancé contre le balayage côté serveur par PhotoDNA il y a 15 ans; y a-t-il eu de tels abus?

« Si un tel mécanisme était mis en œuvre, il faudrait qu’il repose en partie sur le principe de la sécurité par l’obscurité, car autrement il serait facile pour les utilisateurs de contourner les mécanismes de détection, par exemple en vidant la base de données de ses empreintes numériques ou en contournant certaines vérifications. »

Encore là, c’est faux; de nombreux mécanismes de sécurité (lecteurs DVD et Blu-ray, protection des contenus numériques haute définition, verrouillage des cartes SIM sur les téléphones portables, restrictions sur les mises à jour de micrologiciels, sécurité des appareils mobiles, chiffrement des disques durs d’ordinateurs) reposent sur le principe de la sécurité sans obscurité au niveau de l’appareil. Par exemple, il serait très difficile de débrider un iPhone mis à jour. Ces mesures ne sont pas parfaites, mais les entreprises continuent d’y investir parce qu’elles fonctionnent.

« Nous doutons sérieusement de l’efficacité des technologies imposées par règlement : les pédocriminels seraient conscients de l’existence de ces technologies et se tourneraient vers de nouvelles techniques, de nouveaux services et de nouvelles plateformes pour échanger des images d’abus pédosexuels tout en échappant à la détection. »

Voilà un argument fataliste utilisé par les groupes qui s’opposent à l’imposition de règles ou de politiques dans un domaine. Ces mêmes universitaires prétendraient-ils que les pouvoirs publics s’abstiennent aussi de limiter l’accès aux armes à feu au motif que des individus mal intentionnés pourraient trouver d’autres moyens de s’en procurer? Les mécanismes de suppression des comportements illicites ne sont jamais parfaits, pas plus qu’ils n’ont de finalité définie. Ils évoluent constamment et visent à mettre des entraves dans des systèmes potentiellement exploitables pour commettre des méfaits.

Dans les faits, nous parvenons à détecter et à supprimer des dizaines de milliers de ces images chaque jour grâce à ces technologies de hachage perceptuel. Nous n’allons pas arrêter sous prétexte que les pédocriminels font tout pour échapper à la détection; nous nous adaptons et nous innovons en fonction de l’évolution de la menace, tout comme les entreprises de technologie sont censées le faire.

« Ce sont les plaintes des utilisateurs et non l’intelligence artificielle qui, dans les faits, conduisent à la détection de nouvelles images d’abus. »

Google précise que son API Content Safety, qui s’appuie sur l’intelligence artificielle, traite des millions d’images chaque année : https://protectingchildren.google/intl/fr_ca/tools-for-partners/. On peut supposer que Google et ses partenaires utilisent cet outil parce qu’il permet effectivement de détecter des images d’abus qui n’avaient jamais été vues auparavant.

-30-

Un mot sur le Centre canadien de protection de l’enfance : Le Centre canadien de protection de l’enfance (CCPE) est un organisme de bienfaisance national qui se consacre à la protection personnelle de tous les enfants. Il veut réduire l’exploitation et les abus sexuels d’enfants et offre à cette fin des programmes, des services et des ressources aux familles, au personnel éducatif, aux organismes de services à l’enfance et aux forces policières du Canada ainsi qu’à d’autres intervenants. Cyberaide.ca — la centrale canadienne de signalement des cas d’exploitation et d’abus sexuels d’enfants sur Internet — relève aussi du CCPE, de même que Projet Arachnid, une plateforme Web qui détecte les images d’abus pédosexuels connues sur le Web visible et le Web clandestin et qui envoie des demandes de suppression à l’industrie.

Soutenez nos efforts. Faites-nous un don.

Associez-vous à une grande cause. En tant qu’organisme de bienfaisance enregistré, nous faisons appel aux dons pour nous aider à offrir nos services et nos programmes à la population. Aidez-nous à aider les familles et à protéger les enfants.

Faire un don