|
EN BREF
|
Des affirmations fausses concernant le Premier ministre arménien, Nikol Pachinian, relayées par des sites prorusses, ont été identifiées comme vraies par certains chatbots d’intelligence artificielle. En janvier 2026, l’observatoire NewsGuard a constaté que dans 50 % des cas, ces outils relayaient des récits mensongers comme des faits avérés. Les chatbots, basés sur des modèles probabilistes, sont influencés par la massivité de la propagande émise par le réseau Pravda, qui publie des contenus en plusieurs langues, s’appuyant sur des récits favorables au Kremlin. Les résultats varient selon les langues, montrant une plus grande résistance dans des langues largement parlées comme l’anglais. Des stratégies pour contrer cette désinformation, telles que l’établissement de listes noires de sites de propagande, sont envisagées pour améliorer la fiabilité des chatbots.
Depuis l’émergence des outils d’intelligence artificielle (IA), le monde de l’information a connu des bouleversements sans précédent. Si ces technologies promettent des solutions profitables dans de nombreux domaines, elles sont également exposées à des tentatives de manipulation, notamment par des acteurs prorusses. Dans cet article, nous allons explorer comment la désinformation s’infiltre dans les réponses des chatbots et les implications de cette intrusion. Nous examinerons les enquêtes récentes, les résultats de tests réalisés par des observatoires de la désinformation, ainsi que la réponse du secteur face à ces défis.
Le contexte actuel de l’IA et la désinformation
Avec l’avènement des chatbots tels que ChatGPT, Bard, et autres modèles commerciaux, le public s’est tourné vers ces outils pour obtenir des informations rapides sur une multitude de sujets. Cependant, cette transition vers une consommation d’information via l’IA se heurte à un problème majeur : la désinformation. En particulier, les campagnes de désinformation, notamment celles propulsées par le réseau prorusse, trouvent un écho dans ces systèmes. Cette réalité soulève des questions sur la fiabilité et la qualité des informations fournies par ces agents conversationnels.
L’émergence des chatbots dans le paysage numérique
Les chatbots, ces assistants virtuels alimentés par l’IA, se sont établis comme des outils incontournables dans notre recherche d’information. De la simple réponse à des questions courantes à des fonctions plus complexes, leur capacité à traiter et synthétiser des données en un temps record est impressionnante. Cependant, leur nature probabiliste pose un défi, car ils s’appuient souvent sur les informations les plus répandues, plutôt que sur celles qui sont vérifiées ou fiables. Cela crée un terrain fertile pour les récits trompeurs.
Les fausses informations et leur impact
D’une manière générale, la désinformation consiste à diffuser délibérément de fausses informations dans le but de manipuler l’opinion publique. Dans le cadre des chatbots, cela peut conduire à la propagation de récits erronés qui favorisent certaines narrations géopolitiques. L’exemple de l’Arménie et de la mine d’Amulsar, où des affirmations fallacieuses ont été relayées par certains chatbots, illustre parfaitement cette problématique.
La propagation des récits prorusses
Les acteurs prorusses ont mis en place un vaste réseau de sites web, souvent classés sous l’enseigne de Pravda, qui publient massivement des contenus dans de multiples langues. Cette stratégie permet aux récits favorables au Kremlin d’atteindre un large public. Les résultats des tests menés par l’observatoire NewsGuard mettent en lumière que 33 % des réponses fournies par divers chatbots répètent ces narrations comme des faits avérés, renforçant ainsi la désinformation.
Les résultats des tests par NewsGuard
En janvier 2026, NewsGuard a testé la capacité de divers chatbots à éviter de relayer des fausses informations générées par des acteurs prorusses. Les résultats montrent qu’ils ont accentué des récits discordants, affichant une prévalence de 50 % de faux récits relayés dans leurs réponses. Alors que certains chatbots semblent avoir amélioré leur performance, d’autres continuent de diffuser des informations trompeuses, souvent en citant les sources non fiables du réseau Pravda.
La nature probabiliste des chatbots
La façon dont les chatbots sont conçus contribue à leur propension à relayer la désinformation. En tant qu’outils probabilistes, ils travaillent essentiellement sur des modèles qui mettent en avant les récits qui ont le taux d’apparition le plus élevé. Ainsi, si les sites prorusses génèrent davantage de contenu, cela diminue la probabilité que d’autres récits, plus vrais mais moins fréquemment publiés, apparaissent dans leurs réponses.
Impact des langues sur l’exactitude des informations
Un autre paramètre intéressant est l’impact de la langue sur la fiabilité des réponses des chatbots. Des études ont montré que dans des langues largement parlées comme l’anglais et le français, les chatbots réussissent à mieux contrer les fausses informations. En revanche, dans des langues moins courantes, comme le finnois ou le slovène, ces outils peuvent facilement faire écho à la désinformation.
Les défis posés par la propagande numérique
Les acteurs de désinformation, principalement prorusses, ont déployé des efforts pour infiltrer non seulement les chatbots, mais également d’autres outils d’IA. Ce phénomène invite à s’interroger : ces systèmes sont-ils véritablement conçus pour répondre à des humain.e.s ou coordonnés pour optimiser le contenu diffusé ? Des analyses, telles que celles de Pipsa Havula, soulignent la possibilité que les contenus de mauvaise qualité soient créés intentionnellement pour exploiter les failles des algorithmes de compréhension.
Les remèdes pour la désinformation
Face à cette vague montante de fausses informations, il devient indispensable de mettre en œuvre des méthodes de prévention. Les entreprises technologiques sont encouragées à introduire des garde-fous, tels que des listes noires des sites de propagande identifiés. De plus, une approche de liste blanche pourrait être envisagée pour des sujets sensibles, garantissant que seules des sources vérifiées soient citées.
Les responsabilités des entreprises d’IA
La fiabilité des outils d’IA dépend grandement de la manière dont les entreprises gèrent leurs algorithmes. Marc Faddoul, chercheur en IA, met en lumière l’absence de normes communes de sécurité au niveau des entreprises, ce qui comporte un risque accru de diffusion de désinformation.
Le rôle du fact-checking dans la lutte contre la désinformation
Le fact-checking, ou la vérification des faits, est essentiel dans le combat contre la désinformation. La mise en place de réseaux de vérification est cruciale pour contrecarrer la propagande malveillante et garantir que les informations diffusées aux utilisateurs sont exemptes de biais ou d’erreurs. Les initiatives comme celles menées par des journalistes nordiques doivent être considérées comme des exemples à suivre.
Vers une régulation de l’IA et la prévention de la désinformation
Alors que l’utilisation de l’IA continue de croître, il est impératif de poser les fondations d’une régulation efficace. Des directives claires permettront de diminuer les ambiguïtés et d’augmenter la transparence quant à la provenance des informations. Cela pourrait également favoriser la collaboration entre les acteurs de l’IA et les agences de vérification.
Les futurs enjeux du référencement et de l’IA
Avec l’émergence du SEO traditionnel, un nouveau mouvement s’installe : le Generative Engine Optimization (GEO). Ce phénomène pousse les acteurs à tout mettre en œuvre pour que leur récit soit adopté par les chatbots. Alors que 20 % des Français déclarent utiliser l’IA pour s’informer, il est vital que les technologies disponibles ne favorisent pas les récits biaisés au détriment de la réalité factuelle.
Conclusions sur les défis à relever
La lutte contre la désinformation prorusse au sein des systèmes d’IA est un défi complexe qui nécessite la coopération et la vigilance de nombreux acteurs. Alors que des progrès ont été réalisés, il reste encore beaucoup à faire pour garantir que ces technologies agissent en tant que vecteurs de vérité et non de confusion. Aux yeux des consommateurs, la transparence pour éclairer les procédés des chatbots sera essentielle pour bâtir un écosystème numérique de confiance.

Depuis quelques années, les chatbots basés sur l’intelligence artificielle sont de plus en plus utilisés pour répondre à des questions et fournir des informations. Cependant, de récents tests ont révélé que ces outils pourraient relayer des rumeurs fausses, en particulier celles émanant de réseaux propagandistes tels que Pravda. Ces découvertes soulèvent des préoccupations quant à leur fiabilité.
Chine Labbé, rédactrice en chef chez NewsGuard, témoigne des résultats inquiétants des analyses : « En mars 2025, nous avons constaté que 33 % des principaux chatbots commerciaux reproduisaient des récits propagés par des sources prorusses. Ces informations étaient présentées comme des faits avérés, ce qui est alarmant. » Ce constat démontre que les chatbots peuvent facilement devenir des vecteurs de désinformation.
D’autres journalistes, comme Pipsa Havula du réseau de fact-checking Nordis, confirment ce phénomène : « Lors de notre enquête, nous avons découvert que les sites de propagande avaient infiltré les réponses des chatbots, en particulier dans certaines langues. Cela soulève des questions sur la façon dont ces outils sont alimentés et entraînés. » Ce témoignage souligne les lacunes présentes dans les algorithmes d’IA concernant la détection des informations fiables et leur tendance à se baser sur des récits largement diffusés.
Lors de tests comparatifs, il a été révélé que la réponse d’un chatbot pouvait varier selon la langue utilisée. « Quand nous avons demandé à Copilot en finnois si un Danois avait été tué à Krivoy Rog, la réponse était incorrecte. En revanche, en français, le chatbot a correctement identifié l’information comme fausse », explique un chercheur impliqué dans ces tests. Cette observation met en lumière l’impact direct des langues moins répandues sur la qualité des informations fournies par ces outils d’IA.
Enfin, le chercheur Marc Faddoul aborde cette problématique : « Il est essentiel que les entreprises développant des chatbots mettent en place des garde-fous. Cela pourrait inclure l’exclusion de sites de propagande connus ou la mise en place de listes blanches de sources fiables pour s’assurer que les réponses fournies soient basées sur des informations vérifiées. » Ce témoignage souligne la nécessité d’une action proactive pour garantir l’intégrité des informations dans un monde où l’IA a une place de plus en plus prépondérante.
