Comment les GAFA tentent de lutter contre la diffusion des contenus pédopornographiques



Dans une enquête sur les contenus pédopornographiques en ligne, le New York Times met en cause la responsabilité des grandes entreprises de la tech. Si elles ont su repérer et signaler 45 millions de contenus au cours de l’année 2018, elles ont « systématiquement échoué à mettre en place des mesures agressives pour y mettre fin », écrit le quotidien américain. Et pointe les failles qui reflètent des « approches incohérentes, souvent unilatérales et menées en secret » pour réguler des images qui peuvent détruire la vie des enfants – comme en témoignent les deux soeurs qui ouvrent l’article dans les colonnes du quotidien américain. 

Des efforts insuffisants 

Le New York Times montre les limites de l’outil presque unanimement utilisé par les géants de la tech : PhotoDNA. Développé en 2009 par Microsoft et le chercheur Hany Farid, ce logiciel permet de comparer « l’empreinte numérique » de photos mises en ligne à celles présentes dans une énorme base de données d’images pédopornographiques. A la manière d’une recherche inversée, PhotoDNA est capable de déceler automatiquement les images déjà présentes dans cette base, même si elles ont subi des modifications par rapport au cliché original. Même si la méthode a fait ses preuves, elle n’est pas exempte de défauts.

D’abord, le problème principal est que l’analyse ne s’effectue que dans une seule base de données. PhotoDNA n’est pas capable d’analyser les contenus stockés ailleurs. D’autre part, l’outil ne permet pas de détecter de nouvelles images pédopornographiques, qui ne sont pas répertoriées dans ladite base. L’inédit passe à la trappe. 

Partager ses codes d’accès pour contourner

Si l’outil analyse les images en ligne, qu’en est il des contenus stockées sur les plates-formes ? Le New York Times explique que les images pédopornographiques sont souvent stockées sur Google Drive, Dropbox, Microsoft OneDrive ou Azure, mais qu’elles ne sont en aucun cas analysées lors de leur téléversement, mais seulement par la suite, notamment lorsqu’elles sont partagées. Mais les pédophiles usent de techniques pour contourner les filtres, notamment en partageant les codes d’accès a leur compte plutôt que les contenus en eux-même. 

Sous couvert de protection de la vie privée, ces sociétés n’analysent pas tous les contenus hébergés sur leurs serveurs. Interrogé au même titre que les autres, Apple n’a pas répondu au New York Times, estimant que le partage d’informations sur le sujet pourraient servir les pédophiles.

Facebook, l’exception 

Ces réactions montrent bien les soucis que posent l’arbitrage entre filtrage de contenus répréhensibles et protection des données personnelles. Jusqu’à quel point une entreprise a-t-elle droit de regard sur ce qui se partage sur son réseau ? Certaines messageries sont ainsi chiffrées pour que les contenus ne soient lisibles que par l’émetteur et le récepteur, et jamais pas l’hébergeur.

Dans l’enquête, le New York Times alerte sur la volonté de Facebook de chiffrer son service Messenger, « la principale source d’imagerie » pédopornographique de la plate-forme. Une inquiétude d’autant plus forte que « 90 % des images détectées l’an dernier par les entreprises de la tech » ont été détectés par l’entreprise de Mark Zuckerberg. Le quotidien américain note au passage que le plus grand réseau social au monde scrute «minutieusement » sa plate-forme et se qu’il s’y passe. 

Pas de filtre sur les vidéos 

Enfin, une des lacunes -et pas des moindres- de l’outil de filtrage reste qu’il n’examine que les photos -et non les vidéos. Pire : il n’existe pas d’équivalent servant de standard à l’industrie. « Plusieurs plates-formes majeures – comme AOL, Snapchat et Yahoo! – n’analysent même pas les vidéos », écrit le New York Times. En parallèle, d’autres ont développé leurs propres outils, comme Facebook et Google. Mais les systèmes sont incompatibles, donc ne peuvent pas rassembler les informations. 

En outre, le quotidien américain a également interrogé les résultats des moteurs de recherche. On découvre ainsi que Bing, qui appartient à Microsoft, donne accès à des images pédopornographiques en réponse à certains mots-clés. Même constat chez Yahoo! et DuckDuckGo, qui sont basés sur les algorithmes de Bing. Le manquement avait pourtant déjà été mis en lumière par TechCrunch en janvier 2019. « Nous avons trouvé et réglé quelques problèmes dans nos algorithmes de détection des images illégales », a expliqué un porte-parole de Microsoft au journal. Concernant Google, le New York Times se fait le relais du Centre canadien de protection de l’enfance qui a, lui, détecté des images pédopornographiques – ensuite retirées. 

Reste ensuite les vidéos en streaming… Si les vidéos sont déjà un défi majeur pour les plates-formes, les diffusions en direct sur les réseaux paraissent insurmontables. Englobant la pédopornographie, cette méthode de diffusion est une des plus utilisées par les criminels. Les tueries en live sur Facebook ne sont déjà plus des cas isolés. Pourtant, les défis techniques auxquels font face les plates-formes ne vont faire de prendre de l’ampleur dans les années à venir. 

Source : New York Times





A lire aussi

Laisser un commentaire