•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Des centaines de sites s’appuient sur l’IA pour générer des articles, parfois faux

Un ordinateur ouvert sur l'outil conversationnel Chat GPT.

De plus de plus de gens tombent dans le panneau des faux articles générés par l'IA.

Photo : Radio-Canada / L'épicerie

Agence France-Presse

L'intelligence artificielle (IA) dite générative est employée par des centaines de sites web pour créer des articles sans intervention humaine, parfois dans l’intention de véhiculer de fausses informations, d’après une équipe de recherche.

De simples internautes, mais aussi des têtes dirigeantes, se font de plus en plus duper par ces sites.

En décembre, le président ukrainien Volodymyr Zelensky a ainsi été interpellé au Congrès américain par des personnes élues républicaines au sujet d'un achat supposé de deux yachts pour 75 millions de dollars américains (101,2 millions de dollars canadiens), en plein débat sur l'aide à l'Ukraine.

Cette information fantaisiste avait été générée le mois précédent par le site DC Weekly, propriété d'un ancien soldat de la marine américaine désormais installé en Russie et qui, selon la plateforme de lutte contre la désinformation NewsGuard, utilise l'IA.

La désinformation générée par l'IA sera probablement un élément important de la campagne électorale américaine cette année.

Une citation de Greg Marcus, professeur à l'Université de New York

NewsGuard, qui évalue la fiabilité de contenus d'information publiés en ligne, a repéré 739 sites qui fonctionnent sans ou avec très peu de supervision humaine et qui publient des articles largement ou entièrement écrits par des robots, peut-on lire dans un rapport publié en février.

Ces robots sont des programmes capables de générer du contenu sur demande en langage courant, en s'appuyant sur des éléments collectés dans une base de données ou directement sur Internet.

Des sites pas toujours transparents

Certaines plateformes, telles que NewsGPT et DeepNewz, présentent ouvertement leurs articles comme étant rédigés par une interface d'IA. Toutefois, ce n'est pas toujours le cas, d’après NewsGuard, qui met les gens en garde contre la prolifération de sites obscurs.

Ceux-ci ne sont pas fiables, car ils fonctionnent avec peu ou pas de supervision humaine, souligne cet observatoire des médias.

Parmi les centaines d'articles générés grâce à l'IA, certains comprennent des affirmations erronées, notamment concernant des têtes dirigeantes en politique, relève le rapport de NewsGuard.

On y trouve aussi de faux avis de décès de célébrités, des nouvelles inventées ou d'anciens événements présentés comme s'ils venaient juste de se produire.

Un faux suicide signé l’IA

NewsGuard s'est particulièrement intéressé à une fausse nouvelle annonçant le suicide d'un psychiatre du premier ministre israélien, Benyamin Nétanyahou, qui aurait mis en cause le dirigeant. L’information, totalement fantaisiste, a été publiée en novembre par le site pakistanais Global Village Space.

L’IA semble s’être inspirée d'un article satirique publié en 2010, selon NewsGuard.

Une analyste de l'organisation, McKenzie Sadeghi, a indiqué à l'AFP avoir demandé à l'interface d'IA générative OpenAI d'écrire une dépêche d'information à partir de cet article satirique et avoir obtenu un résultat très semblable à celui mis en ligne par le site pakistanais.

La désinformation s'est pourtant rapidement propagée sur plusieurs plateformes de langues différentes et a été reprise par des milliers d’internautes sur les réseaux sociaux, ainsi que par une chaîne de télévision iranienne.

Les sites de désinformation ou de propagande avaient, il y a encore peu, besoin de nombreux rédacteurs et rédactrices pour alimenter leurs pages, mais l'IA générative leur offre désormais une manière plus rapide et surtout beaucoup moins onéreuse de produire du contenu en apparence authentique.

La croissance exponentielle des publications générées par l'IA est alarmante, parce que ces plateformes peuvent être perçues comme des sources d'information légitimes et fiables par les gens.

Une citation de McKenzie Sadeghi, analyste de NewsGuard

Après avoir été mis en accusation, Global Village Space a présenté le sujet sur le premier ministre israélien comme étant à visée satirique. L’équipe du site n'a pas donné suite à une demande de commentaire de l’AFP.

La pointe de l’iceberg

Les centaines de sites repérés par NewsGuard ne sont probablement que la partie émergée de l'iceberg, prévient Darren Linvill, professeur à l'Université de Clemson, en Caroline du Sud.

Avec leurs titres et contenus à sensation, les sites qui s'appuient sur l'IA générative cherchent aussi à générer des recettes publicitaires.

Ils y parviennent d'autant plus facilement que le placement de publicités est le plus souvent lui-même géré par des algorithmes et non des êtres humains.

Si nous n'y prenons pas garde, dit Darren Linvill, cela va encore davantage brouiller la frontière entre la réalité et la fiction, qui est déjà très floue.

Vous souhaitez signaler une erreur?Écrivez-nous (Nouvelle fenêtre)

Vous voulez signaler un événement dont vous êtes témoin?Écrivez-nous en toute confidentialité (Nouvelle fenêtre)

Vous aimeriez en savoir plus sur le travail de journaliste?Consultez nos normes et pratiques journalistiques (Nouvelle fenêtre)

Chargement en cours

Infolettre Info nationale

Nouvelles, analyses, reportages : deux fois par jour, recevez l’essentiel de l’actualité.

Formulaire pour s’abonner à l’infolettre Info nationale.