Découvrez comment Meta étiquette les contenus IA sur Facebook et Instagram pour lutter contre la désinformation et renforcer la transparence.
Découvrez comment Meta étiquette les contenus IA sur Facebook et Instagram pour lutter contre la désinformation et renforcer la transparence.
À partir de mai, les vidéos, images et sons créés avec l’IA sur Facebook et Instagram seront marqués d’une étiquette « Made with AI ».
Cette initiative étend une politique existante qui ne concernait auparavant qu’une petite partie des vidéos altérées.
Meta prévoit également d’apposer des étiquettes plus visibles et distinctes sur les médias numériquement altérés présentant un « risque particulièrement élevé de tromperie matérielle du public sur une question importante », qu’ils aient été créés à l’aide de l’IA ou d’autres outils.
En termes de technologie, Meta avait déjà annoncé un plan pour détecter les images créées par les outils d’IA d’autres entreprises grâce à des marqueurs invisibles intégrés dans les fichiers, sans toutefois préciser de date de lancement.
Cette méthode de labellisation s’appliquerait aux contenus postés sur Facebook, Instagram et Threads, tandis que d’autres services de Meta, tels que WhatsApp et les casques de réalité virtuelle Quest, seraient régis par des règles différentes.
Ces changements interviennent quelques mois avant l’élection présidentielle américaine de novembre, qui, selon les chercheurs en technologie, pourrait être transformée par les technologies d’IA génératives.
En février, le conseil de surveillance de Meta avait qualifié les règles existantes de l’entreprise sur les médias manipulés d' »incohérentes » après avoir examiné une vidéo de Joe Biden publiée sur Facebook l’année dernière, qui avait été faussement altérée.
Le problème avec la vidéo de Joe Biden était qu’elle avait été altérée pour donner une fausse impression de ses actions ou de ses paroles.
Toutefois, selon la politique existante de Meta à ce moment-là, cette vidéo ne contrevenait pas aux règles puisqu’elle n’avait pas été générée par IA et ne faisait pas dire à Biden des mots qu’il n’avait pas prononcés.
Autrement dit, la vidéo restait dans une sorte de zone grise, n’étant pas couverte par les règles existantes, malgré son potentiel de désinformation.
Le Conseil de Surveillance a donc qualifié ces règles d' »incohérentes« , suggérant qu’elles n’étaient pas suffisamment complètes ou claires pour traiter efficacement tous les types de médias manipulés.
Ce cas particulier a mis en évidence que des vidéos pouvaient être trompeuses même si elles ne rentraient pas dans les catégories strictes définies par les règles de Meta, comme celles altérées par l’IA ou modifiant radicalement les propos d’une personne.
Meta précise qu’elle continuera à retirer de ses plateformes tout contenu, créé par un humain ou une IA, qui va à l’encontre de ses règles contre l’ingérence dans le processus électoral, l’intimidation, le harcèlement, la violence, ou toute autre politique de ses normes communautaires.
Elle compte également sur un réseau d’environ 100 vérificateurs de faits indépendants pour identifier les contenus générés par l’IA qui sont faux ou trompeurs.
Ps : si vous souhaitez également décelé les textes rédigés par IA, ces détecteurs de textes IA devraient vous intéresser !
Avant de se quitter…
Si cet article sur la lutte de Meta contre la désinformation vous a plu, n’hésitez pas à le partager sur les réseaux sociaux, à vous abonner à notre newsletter digitale et/ou à nous suivre sur Google Actualités pour recevoir nos prochains articles.
Vous pouvez également suivre nos meilleurs articles via notre flux RSS : https://www.leptidigital.fr/tag/newsletter-digitale/feed/ (il vous suffit de l’insérer dans votre lecteur de flux RSS préféré (ex : Feedly)).
Nous sommes aussi actifs sur LinkedIn, X, Facebook, Threads et YouTube. On s’y retrouve ?
À l’heure actuelle, je me consacre au journalisme avec une spécialisation en cybersécurité, intelligence artificielle et culture internet, tout en nourrissant un vif intérêt pour les domaines relatifs aux sciences humaines. Mon objectif principal est d’éclaircir et rendre accessible des sujets fréquemment perçus comme obscures ou complexes. Pour me contacter : [email protected]