OpenAI présente un outil pour repérer les images créées par DALL-E 3. Une innovation clé pour lutter contre la désinformation visuelle. En savoir plus.
OpenAI présente un outil pour repérer les images créées par DALL-E 3. Une innovation clé pour lutter contre la désinformation visuelle. En savoir plus.
L’intelligence artificielle a révolutionné de nombreux domaines, mais elle a également introduit des défis importants, notamment en matière de manipulation d’images.
Les images générées par l’IA peuvent être facilement modifiées, ce qui pose des problèmes de désinformation et de fraude.
OpenAI a annoncé que son nouvel outil de détection est capable d’identifier les images générées par DALL-E 3 avec une précision de 98 %.
Ce taux de réussite impressionnant démontre le potentiel de l’outil pour lutter contre les manipulations d’images.
Cependant, l’outil n’est pas infaillible. Il peut être trompé, surtout lorsque des images générées par l’IA sont retouchées après leur création initiale.
De plus, l’efficacité de l’outil diminue significativement lorsqu’il s’agit de détecter des images créées par d’autres IA génératives. Les tests internes d’OpenAI montrent une réussite de seulement 5 à 10 % pour ces cas, indiquant que l’outil est principalement optimisé pour DALL-E 3.
Actuellement, l’outil est accessible uniquement à un groupe restreint de scientifiques, de chercheurs et d’organisations journalistiques à but non lucratif.
L’objectif est d’améliorer et d’affiner la classification des contenus générés par l’IA à travers des tests et des retours d’expérience de ces utilisateurs privilégiés.
OpenAI s’engage également à ajouter des marques en filigrane aux images générées par DALL-E 3, en conformité avec les normes de la Coalition for Content Provenance and Authenticity (C2PA).
Ces marques d’authenticité aideront à identifier facilement les images créées par l’IA, réduisant ainsi le risque de désinformation.
Ce n’est pas la première fois qu’OpenAI propose des outils pour détecter les contenus générés par l’IA. En février 2023, l’entreprise avait lancé un classificateur de texte pour identifier les textes générés par ChatGPT.
Malheureusement, cet outil n’a pas rencontré le succès escompté et a été retiré en raison de performances insuffisantes.
Il reste à voir si cet outil de détection d’images connaîtra un meilleur sort. Les premiers résultats sont prometteurs, mais des améliorations sont encore nécessaires pour atteindre une fiabilité optimale, notamment pour les images créées par d’autres modèles d’IA.
Avant de se quitter…
Si cet article sur l’outil d’OpenAI pour détecter les images générées par IA vous a plu, n’hésitez pas à le partager sur les réseaux sociaux, à vous abonner à notre newsletter digitale et/ou à nous suivre sur Google Actualités pour recevoir nos prochains articles.
Vous pouvez également suivre nos meilleurs articles via notre flux RSS : https://www.leptidigital.fr/tag/newsletter-digitale/feed/ (il vous suffit de l’insérer dans votre lecteur de flux RSS préféré (ex : Feedly)).
Nous sommes aussi actifs sur LinkedIn, X, Facebook, Threads et YouTube. On s’y retrouve ?
À l’heure actuelle, je me consacre au journalisme avec une spécialisation en cybersécurité, intelligence artificielle et culture internet, tout en nourrissant un vif intérêt pour les domaines relatifs aux sciences humaines. Mon objectif principal est d’éclaircir et rendre accessible des sujets fréquemment perçus comme obscures ou complexes. Pour me contacter : [email protected]