NEWS #Digitale : envie de recevoir nos meilleurs articles ?  Inscription → 

Le nouvel outil d’OpenAI pour débusquer les images générées par IA

OpenAI présente un outil pour repérer les images créées par DALL-E 3. Une innovation clé pour lutter contre la désinformation visuelle. En savoir plus.

OpenAI a développé un outil pour détecter celles créées par DALL-E 3 et découvrez comment cette technologie pourrait changer notre approche de la vérification des contenus numériques. L’outil est-il vraiment fiable ?
OpenAI IA
OpenAI

La nécessité d’un outil de détection

L’intelligence artificielle a révolutionné de nombreux domaines, mais elle a également introduit des défis importants, notamment en matière de manipulation d’images.

Les images générées par l’IA peuvent être facilement modifiées, ce qui pose des problèmes de désinformation et de fraude.

Fonctionnement et performances de l’outil

OpenAI a annoncé que son nouvel outil de détection est capable d’identifier les images générées par DALL-E 3 avec une précision de 98 %.

Ce taux de réussite impressionnant démontre le potentiel de l’outil pour lutter contre les manipulations d’images.

Cependant, l’outil n’est pas infaillible. Il peut être trompé, surtout lorsque des images générées par l’IA sont retouchées après leur création initiale.

De plus, l’efficacité de l’outil diminue significativement lorsqu’il s’agit de détecter des images créées par d’autres IA génératives. Les tests internes d’OpenAI montrent une réussite de seulement 5 à 10 % pour ces cas, indiquant que l’outil est principalement optimisé pour DALL-E 3.

Accès restreint et améliorations futures

Actuellement, l’outil est accessible uniquement à un groupe restreint de scientifiques, de chercheurs et d’organisations journalistiques à but non lucratif.

L’objectif est d’améliorer et d’affiner la classification des contenus générés par l’IA à travers des tests et des retours d’expérience de ces utilisateurs privilégiés.

OpenAI s’engage également à ajouter des marques en filigrane aux images générées par DALL-E 3, en conformité avec les normes de la Coalition for Content Provenance and Authenticity (C2PA).

Ces marques d’authenticité aideront à identifier facilement les images créées par l’IA, réduisant ainsi le risque de désinformation.

Comparaison avec les efforts antérieurs

Ce n’est pas la première fois qu’OpenAI propose des outils pour détecter les contenus générés par l’IA. En février 2023, l’entreprise avait lancé un classificateur de texte pour identifier les textes générés par ChatGPT.

Malheureusement, cet outil n’a pas rencontré le succès escompté et a été retiré en raison de performances insuffisantes.

Il reste à voir si cet outil de détection d’images connaîtra un meilleur sort. Les premiers résultats sont prometteurs, mais des améliorations sont encore nécessaires pour atteindre une fiabilité optimale, notamment pour les images créées par d’autres modèles d’IA.

Avant de se quitter…

Si cet article sur l’outil d’OpenAI pour détecter les images générées par IA vous a plu, n’hésitez pas à le partager sur les réseaux sociaux, à vous abonner à notre newsletter digitale et/ou à nous suivre sur Google Actualités pour recevoir nos prochains articles.

Vous pouvez également suivre nos meilleurs articles via notre flux RSS : https://www.leptidigital.fr/tag/newsletter-digitale/feed/ (il vous suffit de l’insérer dans votre lecteur de flux RSS préféré (ex : Feedly)).

Nous sommes aussi actifs sur LinkedIn, X, Facebook, Threads et YouTube. On s’y retrouve ?

Un avis ? post

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *