|
EN BREF
|
Des enquêtes récentes montrent que les chatbots d’intelligence artificielle (IA), comme ceux développés par des entreprises telles qu’OpenAI, peuvent véhiculer des informations erronées, en particulier celles provenant du réseau Pravda, qui est connu pour sa propagande prorusse. En janvier 2025, un rapport a révélé que dans 33 % des cas, ces outils répétaient des récits fallacieux comme des faits établis. Bien que certains progrès aient été constatés, les fausses informations continuent d’infiltrer les réponses des chatbots, en particulier dans les langues moins parlées. Cela soulève des inquiétudes quant à la fiabilité des IA, souvent influencées par la quantité plutôt que par la qualité de l’information disponible.
L’intelligence artificielle (IA) est devenue un outil omniprésent dans notre quotidien, y compris dans le domaine de l’information. Cependant, l’utilisation de chatbots et d’agents conversationnels peut parfois mener à la propagation de d’informations erronées, notamment des récits prorusses. Des études récentes ont révélé que ces outils d’IA, conçus pour faciliter l’accès à l’information, sont parfois incapables de distinguer le vrai du faux, relayant ainsi des narrations biaisées qui servent des intérêts géopolitiques spécifiques. Cet article examine les mécanismes à l’origine de cette désinformation et les défis auxquels les utilisateurs sont confrontés.
Les chatbots et la désinformation
Qu’est-ce qu’un chatbot ?
Un chatbot est un programme informatique conçu pour simuler une conversation avec des utilisateurs. Alimentés par des algorithmes d’intelligence artificielle, ces outils interagissent avec les utilisateurs via des plateformes de messagerie, des sites web, ou même par la voix. Les chatbots peuvent être efficaces pour fournir des informations rapidement, mais leur fonctionnement repose sur des bases de données qui, si elles ne sont pas encadrées, peuvent contenir des informations incorrectes.
Les sources de désinformation
De nombreux chatbots s’appuient sur une multitude de sources d’informations disponibles sur le web. Certainement, certains d’entre eux vont puiser dans des récits propagandistes, notamment ceux diffusés par des réseaux comme Pravda. La prolifération de ces narratives biaisées rend difficile la tâche de séparation entre informations fiables et fausses. En réalité, certaines affirmations trompeuses peuvent apparaître légitimes aux yeux des chatbots, car elles se retrouvent fréquemment répétées dans les contenus analysés.
Études sur la propagation de la désinformation
Les recherches de NewsGuard
Le travail de l’observatoire NewsGuard a permis de mettre en lumière la façon dont les chatbots intègrent des récits prorusses. En janvier 2026, l’organisme a révélé qu’environ 33 % des chatbots commerciaux répétaient des fausses affirmations comme de vérités acceptées. Cela indique un problème sérieux de fiabilité de l’information fournie par ces outils. Lorsque des utilisateurs interrogent ces chatbots sur des actualités liées à des récits propagandistes, les résultats peuvent être alarmants.
Études réalisées par Nordis
Un autre exemple pertinent est l’enquête menée par le réseau de fact-checking nordique, Nordis, qui a découvert que des récits propagés par la Russie avaient infiltré les chatbots dans leurs pays. Bien que ces outils aient été entraînés à contrer des discours de propagande courants, ils avaient beaucoup de mal à identifier des informations plus sensibles ou moins connues, ce qui représente un défi majeur dans la lutte contre la désinformation.
Les biais des chatbots
Probabilisme et critères de réponse
Les chatbots fonctionnent sur des modèles probabilistes, mettant en avant l’information la plus répandue plutôt que celle qui est factuellement précise. Cela signifie que si un récit prorusse est largement diffusé, statistiquement, il sera plus susceptible d’être repris par l’IA. De plus, des études montrent que les chatbots sont plus vulnérables aux fausses informations dans des langues où la propagande est plus répandue et où l’écosystème de fact-checking est moins développé.
Comparaison des langues
Lors d’une étude menée par les Observateurs de France 24, il a été démontré que les réponses des chatbots variaient considérablement en fonction des langues. Par exemple, un chatbot comme Copilot a répondu de manière juste en français concernant une intox sur la guerre en Ukraine. En revanche, dans d’autres langues moins parlées comme le finnois, il a relayé des fausses informations. Cette disparité met en lumière l’importance de la langue dans la diffusion de la désinformation.
Le rôle des systèmes de désinformation
Intérêt stratégique des acteurs prorusses
Les opérations de désinformation prorusses semblent cibler délibérément ces systèmes d’IA. Comme le souligne la journaliste finlandaise Pipsa Havula, il est impressionnant de constater la qualité médiocre des textes en finnois diffusés par des réseaux de désinformation : ils semblent être conçus non pour les humains, mais pour des machines. Cette approche soulève des questions sur les objectifs réels des informations propagées et leurs impacts sur l’opinion publique.
La stratégie de désinformation organisée
Des groupes comme le réseau Pravda, avec leur vaste infrastructure de publications, représentent un défi essentiel pour les plateformes d’IA. En 2025, ils avaient publié un nombre massif d’articles, ce qui confère un avantage statistique aux récits alignés sur les intérêts du Kremlin. C’est là qu’en vient à la lumière la nécessité d’une approche intelligente pour réguler ces contenus et préserver l’intégrité des informations diffusées par les IA.
Solutions potentielles aux défis de désinformation
Garde-fous et régulations
Pour contrer ces problèmes, des garde-fous peuvent être mis en place. Certaines entreprises pourraient introduire des listes noires de sites de propagande connus, évitant ainsi que les chatbots s’y réfèrent. De plus, il serait judicieux d’établir des listes blanches pour les sujets sensibles, garantissant que seuls des contenus vérifiés soient disponibles pour les questions cruciales, comme celles touchant à la santé ou aux élections.
Engagement des entreprises d’IA
La fiabilité des chatbots dépend aussi de l’engagement des géants de l’IA à mettre en place des politiques de trust and safety. Cela nécessite une coopération et une transparence accrues dans le développement d’algorithmes plus résistants à la désinformation. Sans cette volonté, ces outils continueront à proliférer et à véhiculer des informations trompeuses.
Il est crucial d’évaluer sérieusement les impacts de la désinformation véhiculée par les chatbots. L’intelligence artificielle, bien qu’emblématique du progrès technologique, pose également des défis éthiques et pratiques. Les enjeux sont d’autant plus vastes dans un contexte où les utilisateurs se fient de plus en plus à ces technologies pour s’informer.

Témoignages sur l’Intelligence Artificielle : Quand les Chatbots Véhiculent la Désinformation Prorusse
Des experts en vérification des faits soulignent l’inquiétude grandissante au sujet de l’impact des chatbots basés sur l’intelligence artificielle. Selon Chine Labbé, rédactrice en chef chez NewsGuard, les résultats d’une étude récente révèlent que dans 33 % des cas, ces outils commerciaux répètent des récits mensongers pro-Kremlin comme s’il s’agissait de vérités. Cela démontre que la désinformation s’infiltre insidieusement dans les réponses fournies à des utilisateurs qui s’attendent à des informations fiables.
Un autre journaliste impliqué dans un réseau de fact-checking nordique, Pipsa Havula, a partagé les résultats d’une enquête révélatrice. Il a observé que certains chatbots, bien que mieux équipés pour contrer les récits de propagande les plus connus, échouent à filtrer les fausses informations récentes ou moins courantes. « La propagande a tendance à passer plus facilement à travers leurs filtres », explique-t-il, mettant en lumière une lacune majeure dans la capacité de ces outils à évaluer l’exactitude des informations qu’ils diffusent.
Un test mené par les Observateurs de France 24 a confirmé la variabilité des réponses fournies par les chatbots en fonction de la langue. Lorsqu’un chatbot a été interrogé sur une rumeur concernant la guerre en Ukraine, les réponses ont révélé une contradiction : correcte en français mais fausse en slovène. Ce constat met en évidence le fait que les algorithmes semblent moins performants dans la détection des informations trompeuses dans certaines langues, révélant ainsi une inégalité dans la fiabilité des outils d’intelligence artificielle.
Les chercheurs interrogés, dont Marc Faddoul, soulignent la nécessité de mettre en place des garde-fous pour ces technologies. Ils suggèrent que les entreprises d’IA devraient établir des listes noires de sites de propagande connus et même envisager des listes blanches pour certains sujets sensibles. Cela pourrait constituer une première étape essentielle pour assurer une diffusion d’informations vérifiables et limiter la propagation de récits falsifiés.
Ces témoignages et informations révèlent une réalité troublante : alors que les chatbots peuvent être des ressources précieuses pour obtenir des informations, leur vulnérabilité face à la désinformation soulève des questions cruciales sur leur rôle et leur responsabilité dans la société moderne. Les acteurs malveillants pourraient exploiter ces outils, amplifiant encore plus les récits mensongers, ce qui pose un défi majeur pour la confiance des utilisateurs dans les informations qu’ils reçoivent.
