France | L’utilisation de l’IA par les pédocriminels se démocratise

non

“Dans quelques années, 95 % des images pédocriminelles seront issues de l’intelligence artificielle”
Gabrielle Hazan, cheffe de l’Ofmin, l’Office mineurs, service de police judiciaire chargé, entre autres, de repérer les auteurs de ces contenus et de venir en aide à leurs victimes.

Dans un rapport publié le 22 juillet dernier, Europol, l’organisation des polices européennes, s’inquiète du recours croissant à l’intelligence artificielle par les consommateurs de contenus pédocriminels.

Une tendance que confirme la commissaire Gabrielle Hazan, cheffe de l’Ofmin, l’Office mineurs, service de police judiciaire chargé, entre autres, de repérer les auteurs de ces contenus et de venir en aide à leurs victimes.

FRANCE INTER : De quelles manières les consommateurs de contenus pédocriminels ont-ils recours à l’intelligence artificielle ?

GABRIELLE HAZAN : “Il y a trois façons pour les pédocriminels d’utiliser l’intelligence artificielle. La première – et c’est le cas le plus commun – est de créer des images pédocriminelles ab initio, de toutes pièces. La deuxième possibilité est de créer des images à partir de contenus pédocriminels déjà existants : ils vont alors modifier soit le visage de l’enfant, soit la position dans laquelle l’enfant va se trouver.
Et enfin, la dernière possibilité, qui est la plus récente, mais aussi une des plus inquiétantes pour les services opérationnels, ce sont les pédocriminels qui arrivent à déshabiller un enfant dont ils vont récupérer la photo, sur les réseaux sociaux par exemple, pour en créer de toutes pièces un contenu pédocriminel, à partir d’un visage réel d’un enfant, et, dans certains cas, mettre en place une mesure de chantage ou de menace à l’égard de cette victime.

Le premier conseil que l’on peut donner aux parents est vraiment de limiter la diffusion d’images de leurs enfants sur les réseaux sociaux. Dans un contexte actuel de vacances, s’ils tiennent à partager des souvenirs, il faut bien garder à l’esprit qu’il faut essayer de rendre leurs enfants non-identifiables sur ces réseaux, avec des photos qui sont prises de loin, un peu floutées au niveau du visage, ou en plaçant tout simplement un émoticône au niveau de la tête de l’enfant. Le deuxième conseil à prodiguer est de rappeler aux parents de bien mettre leurs réseaux sociaux en mode “privé” pour éviter que des pédocriminels puissent aller récupérer facilement des contenus qu’ils auraient diffusés sur Internet. C’est vraiment une précaution qui est utile puisque l’on estime aujourd’hui que 50% des photos échangées sur les forums pédocriminels sont des images d’enfants qui ont été récupérées sur les réseaux sociaux.”

Les enquêteurs ont-ils les moyens de distinguer les images créées à partir d’une intelligence artificielle ?

GABRIELLE HAZAN : “C’est la principale difficulté à laquelle les services opérationnels sont aujourd’hui confrontés : nous n’avons en effet pas de logiciel ou d’outil numérique qui nous permette de faire cette distinction entre les contenus pédocriminels “réels” et ceux qui sont créés avec l’intelligence artificielle. La seule façon que l’on a de discriminer une image créée par l’intelligence artificielle aujourd’hui est l’œil humain, et nous y arrivons aisément sur des images qui sont créées de façon grotesque. En revanche, plus on est face à une intelligence artificielle qui est précise et de qualité, plus nous sommes confrontés à cette difficulté. Et il est déjà arrivé que l’on enquête sur des contenus pédocriminels avant de se rendre compte qu’en réalité, il n’y a pas d’images, il n’y a pas d’enfant réel derrière le contenu.

Pour rappel, nous recevons environ 870 signalements par jour à l’Office. Nous ne sommes évidemment pas en capacité de tous les traiter, il ne faut donc pas, en plus, que l’on perde notre temps à travailler sur des signalements qui sont générés par de l’intelligence artificielle, puisque c’est autant de temps que nous ne pourrons pas consacrer à des contenus réels, et nous n’arriverons donc pas à identifier des enfants qui sont abusés quotidiennement et qu’il faut donc aller protéger.”

Avez-vous une idée de la proportion de dossiers qui sont en lien avec l’intelligence artificielle?

GABRIELLE HAZAN : “Il est très difficile pour nous d’arriver à estimer le nombre d’images que cela représente, puisque l’on n’arrive pas à discriminer les images créées par une intelligence artificielle. Ce que l’on subodore, c’est qu’il y a une grande partie d’images qui sont issues de l’intelligence artificielle parmi les contenus pédocriminels. Cela pourrait expliquer, en partie, la très forte augmentation des contenus que l’on reçoit chaque jour à l’Office. Certaines associations ou fondations ont essayé de faire des études de cas sur ces images issues de l’intelligence artificielle. Une association a, par exemple, démontré qu’il y avait plus de 20.000 images qui avaient été postées sur un seul forum du Darknet en un mois, qui étaient issues de l’intelligence artificielle.

Nous estimons que, dans quelques années, 95 % des images pédocriminelles qui seront diffusées sur Internet seront issues de l’intelligence artificielle. Nous serons donc vraiment noyés sous ces images, alors qu’aujourd’hui, elles sont déjà très faciles d’accès puisque l’on sait que, en trois clics, à partir d’un moteur de recherche généraliste, on peut y accéder. Quant aux images générées à partir de contenus pédocriminels existants – donc avec de réels enfants victimes dessus – à chaque fois que cette image est retravaillée avec l’intelligence artificielle, cela va recréer et réactiver un traumatisme chez l’enfant qui pourrait être amené à les visualiser.”

Source(s):