Des entreprises de premier plan telles que Google, Meta, Microsoft, OpenAI et Amazon ont uni leurs forces dans un projet pionnier visant à établir des réglementations strictes pour empêcher l’IA de générer des images d’abus sexuels sur des enfants.
Ce projet, promu par Thorn et All Tech is Human, cherche à concentrer le pouvoir transformateur de l’IA vers un progrès qui protège les droits et l’intégrité des mineurs.
Ce projet renforce également l'idée que l'innovation technologique doit aller de pair avec une forte éthique de développement. Dans sa quête pour explorer les limites du possible, l’IA ne doit pas dépasser les limites de ce qui est moralement acceptable.
L’ampleur du problème que ces lignes directrices cherchent à atténuer est alarmante. Rien qu'aux États-Unis, plus de 104 millions de dossiers soupçonnés de contenir du matériel pédopornographique ont été signalés en 2023, selon les données fournies par Thorn.
Ce chiffre reflète l’urgence d’établir des barrières numériques efficaces contre la prolifération de tels contenus sur Internet.
Comment l’IA peut-elle affecter l’intégrité des mineurs ?
L’intelligence artificielle générative, même si elle possède un énorme potentiel d’innovation, représente également un risque important pour la protection et la sécurité des mineurs, c’est pourquoi elle mérite une attention urgente.
Selon le document qui soutient le projet susmentionné, l'IA peut affecter le processus d'identification des victimes avec la prolifération de fausses images.
De plus, cette technologie peut être utilisée pour intensifier les pratiques de harcèlement, telles que le toilettage et la sextorsion, en produisant du contenu qui simule des actions et des poses explicites sans avoir besoin de matériel initial explicite.
Ce type de contenu pourrait également potentiellement accroître les délits de contact physique. « La normalisation de ce matériel contribue également à d’autres conséquences néfastes pour les enfants », peut-on lire dans le document.
Les modèles d’IA générative peuvent être utilisés par les prédateurs pour partager des conseils sur la manière de commettre efficacement des abus, notamment sur les moyens de contraindre les victimes, de détruire des preuves ou de manipuler des éléments abusifs pour éviter d’être détectés.
Phénomène des deepfakes sexuels non consensuels
Le phénomène de création et de diffusion d’images non consensuelles utilisant l’intelligence artificielle s’est étendu au-delà des mineurs, touchant également les adultes, notamment les personnalités publiques et les célébrités.
Une récente enquête menée par Forbes a révélé comment eBay, la célèbre plateforme d'enchères en ligne, était devenue un marché pour la vente de faux contenus explicites provenant de célébrités connues.
Grâce à l'intelligence artificielle avancée et à des outils d'édition tels que Photoshop, des images sexuellement explicites d'au moins 40 personnalités célèbres ont été générées , dont Margot Robbie, Selena Gómez et Jenna Ortega.
Étonnamment, une boutique eBay proposait à la vente plus de 400 produits contenant des photos altérées de célébrités telles que Taylor Swift, Selena Gómez, Katy Perry, Ariana Grande et Alexandria Ocasio-Cortez, les présentant dans des situations compromettantes.
La réaction d'eBay à l'alerte de Forbes a été immédiate, procédant au retrait de centaines de ces fausses photographies et à la suspension des comptes des vendeurs impliqués.
Cet incident souligne l'urgence de mettre en œuvre des mesures plus rigoureuses pour lutter contre la diffusion de contenus numériques générés sans consentement, soulignant la nécessité d'un cadre réglementaire plus strict qui protège l'intégrité et la vie privée de toutes les personnes dans l'environnement numérique.