NEWS #Digitale : envie de recevoir nos meilleurs articles ?  Inscription → 

2026 : l’IA source de désinformation majoritaire d’après une étude

Alerte désinformation : d’ici 2026, l’IA devrait surpasser le contenu humain sur Internet. Quelles conséquences pour notre perception de l’information ?

Les deepfakes, ces contenus numériques sophistiqués générés par l’intelligence artificielle, représentent aujourd’hui l’une des menaces les plus préoccupantes pour la société moderne. Selon un rapport récent de l’University College London, ces techniques de manipulation audiovisuelle sont classées parmi les risques majeurs, avec un impact potentiel sur la politique, les élections, la fraude, et même la confiance envers les institutions.
Meta OpenAI et Google rejoignent la C2PA pour lutter contre la désinformation

Deepfakes et désinformation : une menace croissante

Les deepfakes, ces contenus synthétiques générés par intelligence artificielle (IA), représentent aujourd’hui une menace croissante. Ils sont de plus en plus utilisés dans des campagnes de désinformation pour influencer la politique, les élections, commettre des fraudes et manipuler les actionnaires.

Dans ce contexte, Europol a publié un rapport intitulé « Faire face à la réalité ? ». L’application de la loi et le défi des deepfakes », initialement paru en 2022 et récemment actualisé en 2024.

Ce rapport, issu du Laboratoire d’innovation d’Europol, analyse en profondeur les implications multiples des deepfakes sur les pratiques des forces de l’ordre. La version mise à jour de ce document, parue en janvier 2024, insiste sur l’évolution constante de la technologie des deepfakes et son impact sur la société.

Plus spécifiquement, les modifications apportées au chapitre « Compréhension des deepfakes » signalent la nécessité pour les autorités de s’adapter rapidement à ce phénomène en mutation constante.

Considérés désormais comme un risque plus important que le vol d’identité, surtout depuis la pandémie de COVID-19, ils sont classés parmi les plus grandes menaces actuelles pour la société selon un rapport de l’University College London.

Augmentation spectaculaire du nombre de sites hébergeant de faux articles générés par l’IA

Une étude récente de Newsguard révèle une croissance exponentielle des sites web diffusant des articles générés par l’intelligence artificielle depuis avril 2023. Le nombre de ces sites a augmenté de 1150,51 %, avec une augmentation mensuelle moyenne de 143,81 %.

Ainsi, plus de 614 pages web proposent désormais de fausses informations, représentant un saut significatif par rapport aux 49 sites précédemment identifiés.

Impact sur le travail des forces de l’ordre

Les conséquences des deepfakes ne sont pas négligeables pour les forces de l’ordre. Les experts s’inquiètent de leurs répercussions sur la sécurité et la vie privée, avec le risque de nouveaux types de criminalité.

Les deepfakes pourraient induire en erreur les forces de l’ordre et perturber le processus judiciaire, complexifiant de leur gestion dans le cadre de la loi.

Conscience publique et la détection

L’un des grands défis est la méconnaissance du public concernant les deepfakes.

En 2019, une étude au Royaume-Uni a révélé que 72 % des personnes interrogées n’étaient pas conscientes de leur existence et de leur impact. Malgré les défis, des avancées sont réalisées dans le développement de logiciels de détection des deepfakes mais aussi dans les logiciels détecteurs de textes générés par IA (et images).

Prévision : 90 % du contenu en ligne généré par l’IA d’ici 2026

Nina Schick, conseillère en intelligence artificielle, estime qu’à mesure que la technologie progresse, jusqu’à 90 % du contenu en ligne pourrait être généré par des algorithmes d’IA d’ici 2026.

Débat sur l’instauration d’une norme mondiale pour les filigranes des contenus générés par l’IA

Un débat émerge autour de la nécessité d’établir une norme mondiale pour l’étiquetage des contenus générés par l’IA afin de lutter contre la désinformation et la manipulation en ligne.

Bien que des mesures aient été proposées aux États-Unis et en Chine, des questions persistent quant à leur mise en œuvre effective.

La nécessité de mesures préventives face aux deepfakes

Dans le contexte actuel où les deepfakes constituent une menace grandissante, les entreprises technologiques et les plateformes en ligne se retrouvent au cœur de la problématique. Voici une analyse des actions concrètes qu’elles peuvent entreprendre pour contrer ce phénomène:

  1. Déploiement de systèmes de détection sophistiqués : Les plateformes peuvent miser sur des solutions d’intelligence artificielle pour détecter les anomalies dans les vidéos et les audios, permettant ainsi d’identifier les contenus manipulés de manière automatisée.
  2. Collaboration avec les experts en cybersécurité : Un partenariat étroit avec des spécialistes en sécurité informatique est essentiel pour améliorer continuellement les méthodes de détection et s’adapter aux évolutions rapides de ces technologies.
  3. Renforcement des mécanismes de signalement : La mise en place de procédures efficaces pour permettre aux utilisateurs de signaler les contenus suspects est primordiale. La modération de ces signalements doit être rapide et rigoureuse.
  4. Education et sensibilisation du public : Les entreprises ont aussi un rôle éducatif à jouer, en sensibilisant leurs utilisateurs aux risques liés aux deepfakes et en fournissant des ressources pour les aider à détecter les manipulations.
  5. Mutualisation des ressources et des informations : Une approche collaborative entre différentes entreprises peut permettre de développer des stratégies unifiées plus efficaces contre la propagation des deepfakes.
  6. Politiques de gestion de contenu strictes : L’élaboration de règles claires interdisant les deepfakes malveillants et définissant les sanctions applicables est une mesure préventive nécessaire.
  7. Adoption de technologies de certification d’authenticité : L’utilisation de technologies permettant de vérifier l’origine et l’intégrité des contenus pourrait jouer un rôle déterminant dans la lutte contre les manipulations.
  8. Collaboration avec les autorités : Une coopération renforcée avec les instances judiciaires et les forces de l’ordre est indispensable pour traiter les cas les plus sérieux.

Avant de se quitter…

Si cet article sur l’IA et la désinformation en ligne vous a plu, n’hésitez pas à le partager sur les réseaux sociaux, à vous abonner à notre newsletter digitale et/ou à nous suivre sur Google Actualités pour recevoir nos prochains articles.

Vous pouvez également suivre nos meilleurs articles via notre flux RSS : https://www.leptidigital.fr/tag/newsletter-digitale/feed/ (il vous suffit de l’insérer dans votre lecteur de flux RSS préféré (ex : Feedly)).

Nous sommes aussi actifs sur LinkedIn, X, Facebook, Threads et YouTube. On s’y retrouve ?

3.5/5 - (36 votes)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *