Le directeur des douanes de l'équipe chargée des opérations contre l'exploitation des enfants, Simon Peterson, a révélé une augmentation inquiétante du matériel provenant de exploitation sexuelle des enfants généré numériquement en Nouvelle-Zélande.
Comme l'a rapporté Stuff, trois agences gouvernementales, dont les douanes, la police et le ministère de l'Intérieur (DIA), a confirmé avoir trouvé du contenu répréhensible généré par l'intelligence artificielle dans le pays, après des enquêtes découlant de cas similaires dans d'autres pays lieux.
voir plus
La recherche révèle que le cerveau des adolescents est "câblé" pour...
PicPay facturera désormais des frais d'inactivité; voir comment cela fonctionnera
Selon Peterson, les douanes ont récemment intercepté un jeu dont le contenu dépeint des abus sexuels sur des enfants, ce qui accroît les inquiétudes quant à l'utilisation de l'IA dans ce contexte. Il a souligné que si le concept de telles pratiques n'est pas nouveau, la capacité de l'IA à produire des images toujours plus réalistes rend la situation plus problématique et inquiétante.
Stuart Mills, responsable des opérations d'interception et de technologie et inspecteur-détective, a exprimé son inquiétude quant à l'utilisation abusive de l'intelligence artificielle pour générer des images qui symbolisent l'abus sexuel de mineurs.
"C'est un problème auquel sont confrontées les forces de l'ordre à l'échelle internationale", a déclaré le détective.
Nous avons saisi un important arriéré de matériel impliquant l'exploitation sexuelle d'enfants, y compris des images produites numériquement », a déclaré un représentant de la DIA.
Selon lui, le matériel d'abus créé numériquement est confisqué par les douanes depuis le début des années 2000, utilisant traditionnellement des outils tels que Photoshop. Cependant, des contenus produits « entièrement par l'IA » sont actuellement interceptés.
Il précise que près d'un quart des contenus actuellement appréhendés sont produits numériquement.
« La difficulté avec la plateforme d'IA, c'est son accessibilité universelle. Je tiens à dire que nous sommes extrêmement doués pour identifier les contrefaçons, mais l'IA peut être très convaincante », a-t-il déclaré. "Il est possible que quelqu'un utilise l'IA pour créer quelque chose et nous ne pouvons pas faire la différence", a-t-il ajouté.
Il a réitéré que l'IA n'est que la dernière frontière technologique envahie par les pédophiles, suivant le même schéma qu'Internet et plus tard les médias sociaux.
«Cela a rendu la maltraitance des enfants plus accessible. Une perspective effrayante », a poursuivi l'expert. "En plus de ces images partagées, vendues ou échangées, les images générées par l'IA sont susceptibles d'être être utilisé par des criminels pour manipuler et contraindre les jeunes victimes en ligne dans des cas d'infractions telles que la sextorsion », fini.