La décision découle d'une recommandation du Content Advisory Council, qui suggérait une politique plus inclusive envers les matériaux générés par cette technologie . Actuellement, seuls les deepfakes sont réglementés, c'est-à-dire des vidéos modifiées pour donner l'impression qu'une personne dit quelque chose qu'elle n'a pas réellement exprimé.
De plus, l'initiative cherche à fournir un contexte supplémentaire , en particulier si le contenu généré par l'IA pourrait prêter à confusion sur des sujets importants, en ajoutant une étiquette bien visible pour offrir plus d'informations aux utilisateurs.
Comment le contenu créé avec l'IA sera étiqueté
Meta commencera à étiqueter un spectre plus large de contenu multimédia, y compris des vidéos, de l'audio et des images, en les marquant comme « Réalisé avec l'IA ».
Monika Bickert, vice-présidente de la politique de contenu chez Meta, a souligné que l'évolution de l'intelligence artificielle a permis la production de contenu réaliste dans différents formats, pas seulement vidéo, ce qui a rendu nécessaire d'élargir l'approche de l'entreprise pour éviter les risques de restriction. liberté d'expression des utilisateurs.
Tout en fournissant un meilleur contexte sur l'origine du contenu, comme c'est le cas pour le matériel qui représente un risque élevé de tromperie , ceux-ci auront une étiquette plus visible afin que les gens aient plus d'informations et de contexte lorsqu'ils le consultent.
La mise à jour de la politique a été élaborée en collaboration avec plus de 120 entités de 34 pays , dont des universitaires et des organisations civiles, cherchant à aborder efficacement la gestion des documents générés par l'IA. Et une fois la nouvelle mesure appliquée, Meta s'appuiera sur son réseau de près de 100 vérificateurs de faits indépendants pour déterminer l'authenticité du contenu de l'IA et appliquer des étiquettes informatives supplémentaires s'il est considéré comme faux ou altéré.
De même, la participation d'entreprises telles que Google, OpenAI, Microsoft, Adobe et Midjourney est incluse, afin de permettre aux méta-plateformes d'identifier plus facilement si le contenu a été généré par l'IA.
Quelles implications ce changement a-t-il sur les utilisateurs ?
Cette nouvelle stratégie affectera non seulement les utilisateurs individuels mais aussi les créateurs de contenu, les entreprises et les annonceurs, qui doivent adhérer aux nouvelles réglementations , y compris des avis spécifiques sur l'utilisation d'éléments visuels générés ou modifiés par l'IA dans les campagnes publicitaires.
Meta a souligné son engagement à supprimer toutes les publications qui violent ses normes communautaires , en maintenant un équilibre entre l'authenticité de l'information et la liberté d'expression créative permise par les nouvelles technologies.
Elle s’engage également à continuer de collaborer avec les partenaires industriels pour établir des normes techniques communes en matière de détection du contenu de l’IA, garantissant ainsi une adaptation continue aux avancées technologiques rapides.
Cette initiative vise non seulement à améliorer la transparence pour les utilisateurs de Facebook, Instagram et Threads, mais garantit également une interaction continue avec les gouvernements et les organisations civiles pour revoir et adapter leur approche à mesure que la technologie de l'IA évolue.
Rappelons que l’importance de labelliser les contenus générés avec l’intelligence artificielle sur les réseaux sociaux réside dans plusieurs aspects cruciaux pour l’intégrité de l’information et l’éthique numérique. Les utilisateurs ont le droit de savoir si le contenu qu'ils consomment a été créé par des humains ou généré par des algorithmes , car cela permet de discerner l'authenticité et la fiabilité des informations.