Google DeepMind lance SAFE pour révolutionner la vérification des faits dans les LLM. Découvrez comment chaque fait est analysé !
Google DeepMind lance SAFE pour révolutionner la vérification des faits dans les LLM. Découvrez comment chaque fait est analysé !
Créée par Google, DeepMind se positionne comme l’une des entreprises leaders sur le marché de l’IA, avec des applications variées dans de nombreux domaines tels que la santé, l’énergie ou encore les transports.
Avec l’introduction du système SAFE, elle gagne en précision et en fiabilité pour traiter encore plus efficacement les informations qu’elle reçoit.
SAFE emploie une méthodologie distincte qui implique la décomposition de réponses textuelles étendues en faits singuliers.
Chacun de ces faits fait ensuite l’objet d’une vérification rigoureuse via des requêtes effectuées sur Google Search.
Cette approche permet une évaluation autonome et précise des informations, élargissant ainsi les horizons de la factualité dans les réponses générées par les IA.
Lors d’expérimentations comparatives, SAFE a démontré une concordance notable avec les évaluations humaines, coïncidant dans 72 % des cas.
De plus, dans une série de 100 divergences entre les évaluations humaines et celles de SAFE, le système s’est avéré correct dans 76 % des cas.
Ces résultats indiquent non seulement l’efficacité de SAFE en tant que système de vérification des faits, mais aussi son potentiel en termes de rentabilité, étant donné qu’il se révèle 20 fois moins coûteux que les méthodes humaines traditionnelles.
Néanmoins, l’attribution du qualificatif « surhumain » à SAFE a provoqué des débats académiques.
Des chercheurs tels que Garcy Marcus ont exprimé des réserves, suggérant que cette terminologie pourrait conduire à une surestimation des capacités réelles du système.
Selon Marcus, pour mériter cette appellation, SAFE devrait être évalué en comparaison avec une gamme plus étendue de vérificateurs de faits humains professionnels, plutôt qu’avec des contributeurs du crowdsourcing.
Google DeepMind a mis à disposition le code source de SAFE sur GitHub. Cette initiative permettrait à la communauté scientifique d’accéder, d’utiliser et de contribuer à l’amélioration de SAFE.
Le dépôt GitHub inclut divers éléments essentiels comme LongFact, un ensemble de 2,280 prompts nécessitant des réponses longues, ainsi que l’évaluateur automatisé SAFE lui-même.
Pour plus de détails, le code de SAFE est accessible sur GitHub.
Avant de se quitter…
Si cet article sur l’IA de vérification des faits de Google vous a plu, n’hésitez pas à le partager sur les réseaux sociaux, à vous abonner à notre newsletter digitale et/ou à nous suivre sur Google Actualités pour recevoir nos prochains articles.
Vous pouvez également suivre nos meilleurs articles via notre flux RSS : https://www.leptidigital.fr/tag/newsletter-digitale/feed/ (il vous suffit de l’insérer dans votre lecteur de flux RSS préféré (ex : Feedly)).
Nous sommes aussi actifs sur LinkedIn, X, Facebook, Threads et YouTube. On s’y retrouve ?
À l’heure actuelle, je me consacre au journalisme avec une spécialisation en cybersécurité, intelligence artificielle et culture internet, tout en nourrissant un vif intérêt pour les domaines relatifs aux sciences humaines. Mon objectif principal est d’éclaircir et rendre accessible des sujets fréquemment perçus comme obscures ou complexes. Pour me contacter : [email protected]