NEWS #Digitale : envie de recevoir nos meilleurs articles ?  Inscription → 

Faut-il faire confiance aux réponses de ChatGPT Search ?

L’étude du Tow Center montre que ChatGPT Search a du mal à identifier les sources pour appuyer les réponses générées. Peut-on vraiment compter sur cet outil pour avoir des informations fiables ?

Présentée comme l’alternative à Google et Bing, ChatGPT Search permet de répondre rapidement aux requêtes des utilisateurs, en citant des sources pertinentes. Cependant, l’analyse du Tow Center (école de journalisme de l’Université de Columbia) révèle que cet outil, malgré de bonnes intentions, souffre de nombreuses imperfections dans les réponses générées.
ChatGPT Search
ChatGPT Search

Des failles dans l’identification des sources

Depuis le déploiement de ChatGPT Search, OpenAI affirme avoir amélioré son outil, notamment en permettant aux éditeurs de contrôler l’accès au contenu de leur site via des fichiers robots.txt et en signant des accords de licence avec certains médias.

Cependant, une étude menée par le Tow Center a démontré qu’il pouvait exister des failles quant à la précision et la fiabilité des contenus mis en avant dans ChatGPT Search. En testant 200 citations issues de 20 éditeurs différents, les résultats ont révélé que l’outil ne parvient pas toujours à identifier correctement les sources, même lorsque les éditeurs autorisent l’accès à leur contenu.

Exemple Reponse ChatGPT Search
Exemple de Réponse Générée avec ChatGPT Search dont la Source et l’Éditeur ne sont pas corrects

L’étude du Tow Center a testé ChatGPT en demandant à l’outil d’identifier la source de plusieurs citations provenant de différents articles d’éditeurs. Ces résultats ont montré que dans plus de 75% des cas, ChatGPT n’a pas attribué correctement les citations. Certaines sources ont été complètement ignorées, d’autres ont été mal citées.

Resultats Analyse Tow Center
Résultats de l’Analyse

De plus, ChatGPT Search citerait des contenus plagiés de contenus originaux. Par exemple, un article du New York Times, inaccessible à ChatGPT en raison d’un blocage, a été référencé sur le moteur de recherche à partir d’un site tiers qui n’a pas été autorisé.

Plagiat Article New York Times
Exemple d’une Réponse qui renvoie vers une Version Plagiée d’un Article du New York Times

Comment expliquer ces disparités de réponses ?

Lors des tests réalisés par le Tow Center, les réponses obtenues à partir d’une même requête étaient parfois incohérentes.

Cette variation est liée à la manière dont le modèle de langage GPT-4 fonctionne : il utilise un paramètre appelé « température » pour ajuster la variabilité des réponses. Un paramètre élevé peut entraîner des réponses moins précises mais plus créatives, tandis qu’un paramètre bas vise à fournir des réponses plus pertinentes.

Ce système de réponse aléatoire pose donc un problème de fiabilité.

Les utilisateurs, qui n’ont aucune manière de vérifier la provenance des réponses de ChatGPT, peuvent être induits en erreur par des informations erronées qui semblent pourtant crédibles.

Quels impacts pour les éditeurs ?

Si ce constat se révèle réel et fréquent, alors les éditeurs pourraient perdre la confiance des utilisateurs. Ces derniers pourraient remettre en question l’exactitude des contenus publiés.

De plus, le fait que des contenus soient attribués à tort à d’autres sources, pourraient amener les éditeurs à perdre en visibilité.

Des améliorations nécessaires pour renforcer la confiance en l’outil

OpenAI a déjà entrepris certaines démarches, comme le respect des fichiers robots.txt, l’intégration de liens vers des sources et des accords de licence avec des éditeurs.

Le constat suite à l’étude du Tow Center invite OpenAI à aller plus loin, notamment en améliorant la précision des réponses avec la garantie que les contenus originaux soient référencés correctement, ou encore, en signalant qu’une source n’est pas accessible ou qu’une réponse n’est pas certaine.

Source : CJR.org

Avant de se quitter…

Si cet article sur ChatGPT Search et ses failles dans l’attribution des sources vous a plu, n’hésitez pas à le partager sur les réseaux sociaux, à vous abonner à notre newsletter digitale et/ou à nous suivre sur Google Actualités pour recevoir nos prochains articles.

Vous pouvez également suivre nos meilleurs articles via notre flux RSS : https://www.leptidigital.fr/tag/newsletter-digitale/feed/ (il vous suffit de l’insérer dans votre lecteur de flux RSS préféré (ex : Feedly)).

Nous sommes aussi actifs sur LinkedIn, X, Facebook, Threads et YouTube. On s’y retrouve ?

Un avis ? post

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *