|
EN BREF
|
Une étude récente menée par l’université d’Édimbourg révèle que les cybercriminels éprouvent des difficultés à intégrer l’intelligence artificielle (IA) dans leurs activités illégales. L’analyse de plus de 100 millions de messages sur des forums clandestins a montré qu’ils s’intéressent à ces outils, mais ne constatent pas de véritables bénéfices. Selon l’étude, l’IA n’a pas fondamentalement changé leurs méthodes de travail et est davantage utile aux individus déjà expérimentés. Les retours indiquent que les hackers utilisent principalement l’IA pour des tâches faciles à automatiser, tandis que les garde-fous existants semblent efficaces pour contrer leurs tentatives d’exploitation.
Une récente étude menée par l’université d’Édimbourg met en lumière les difficultés rencontrées par les cybercriminels dans leur tentative d’intégrer l’intelligence artificielle (IA)) au sein de leurs activités illicites. En analysant plus de 100 millions de messages échangés sur des forums de hackers, les chercheurs ont conclu que bien que ces derniers s’intéressent à l’apprentissage des outils d’IA, cette technologie ne révolutionne pas leur modus operandi. Ce constat soulève des questions sur l’efficacité de l’IA dans les pratiques criminelles en ligne et sur les barrières qui empêchent son adoption par des acteurs néfastes.
Un champ d’analyse vaste
Les chercheurs se sont appuyés sur la base de données CrimeBB, qui compile des informations provenant de forums clandestins. Cette approche exhaustive a permis d’examiner de nombreuses discussions portant sur l’utilisation potentielle de l’IA par des cybercriminels. En recoupant ces données à l’aide d’un grand modèle de langage, les scientifiques ont ciblé des thèmes récurrents et des avis sur l’utilisation de l’IA.
Les limitations de l’IA pour les cybercriminels
Malgré un intérêt manifeste pour l’IA, il apparaît que les cybercriminels ne sont pas parvenus à intégrer cette technologie de manière significative à leurs activités. Les discussions analysées révèlent que les outils d’IA sont souvent jugés peu utiles. Les chercheurs n’ont trouvé « aucun élément probant » justifiant que les hackers avaient réussi à tirer profit de ces technologies pour améliorer leur efficacité ou développer des outils plus performants.
Apprentissage et compétences
Un des enseignements majeurs de l’étude indique que les assistants de programmation fondés sur l’IA semblent être d’une aide plus précieuse pour des individus déjà expérimentés. Cela signifie que pour bénéficier des avantages offerts par ces outils, un apprentissage préalable des bases de la programmation s’avère primordial. Un message typique dans les forums révélait que « il faut d’abord apprendre les bases de la programmation par soi-même avant de pouvoir utiliser l’IA et en tirer VRAIMENT profit ».
L’IA pour automatiser des tâches simples
Pour l’instant, l’impact de l’IA sur le cybercrime se limite principalement à l’automatisation de tâches relativement simples. Ce constat englobe la conception de bots pour les réseaux sociaux, certaines escroqueries sentimentales et les fraudes SEO. L’IA a ainsi permis la création de faux sites web, lesquels sont propulsés en tête des résultats de recherche pour générer des revenus publicitaires.
Les chatbots comme aide à l’apprentissage
Il est intéressant de noter que même les hackers aguerris semblent recourir à des chatbots pour obtenir des réponses à des questions liées à la programmation ou pour générer des notes de référence pour les aider dans leur processus de codage. Cette dépendance envers la technologie montre à quel point elle peut être utile, mais souligne également une réalité : la majorité des outils d’IA utilisés par les cybercriminels émanent de produits grand public comme Claude d’Anthropic ou Codex d’OpenAI.
L’inefficacité des outils conçus pour les activités illicites
En parallèle, les plateformes spécifiquement développées pour le cybercrime, telles que WormGPT, qui produit du code malveillant ou des courriels de phishing, semblent également peiner à répondre aux exigences des utilisateurs malveillants. Paradoxalement, une grande partie des échanges recensés sur ces forums montre des cybercriminels en quête de moyens pour contourner les protections mises en place sur ces modèles grand public. Toutefois, leurs efforts pour désactiver les mécanismes de sécurité de ces systèmes échouent souvent.
Une dépendance aux modèles open source
Face à ces difficultés d’adaptation vers des outils plus avancés, de nombreux hackers se rabattent sur des modèles d’IA open source moins performants, qui sont plus faciles à « déverrouiller ». Cependant, ces derniers se révèlent généralement moins efficaces et réclament « des ressources considérables » pour fonctionner. L’étude met en lumière que les garde-fous instaurés par les entreprises d’IA semblent fonctionner de manière efficace pour contrer les abus pour le moment.
Conclusion de l’étude
En somme, cette analyse démontre que même si l’intelligence artificielle suscite un intérêt chez les cybercriminels, elle ne constitue pas encore un levier d’action déterminant pour l’optimisation de leurs pratiques criminelles. L’intégration de ces technologies reste limitée, et les obstacles liés à l’utilisation de l’IA dans le domaine de la cybercriminalité soulèvent des défis non négligeables.
Perspectives futures
La situation actuelle pose la question de l’avenir de l’IA dans la cybercriminalité. Avec les avancées continues en matière d’intelligence artificielle, des opportunités peuvent émerger, mais aussi des risques accrus. Une étude sur le terrain des cybercriminels nous donne un aperçu des défis inhérents à l’adoption de nouvelles technologies par ces individus. Cela permet aussi d’identifier de potentielles stratégies de défense à mettre en place pour contrer ces menaces.
Surveillance accrue et innovations préventives
Les acteurs de la cybersécurité devront donc redoubler d’efforts pour surveiller l’évolution des pratiques en matière d’IA dans le milieu criminel. Le développement d’outils avancés qui intègrent des systèmes d’IA dédiés à la prévention des cyberattaques semble devenir une priorité. Sa mise en œuvre devra s’accompagner d’une sensibilisation des utilisateurs aux pratiques de sécurité et de protection contre la cybercriminalité.
Liens connexes
Pour approfondir le sujet, consulter également :
- Comment fonctionne cette solution de paiement en ligne en 2025 ?
- Les cybercriminels testent l’IA et en ressortent déçus
- Comment l’IA alimente la cybercriminalité en 2025
- L’IA et les lacunes de sécurité en expansion
- Fraudes liées au référencement et compromissions
- Cybercriminalité et menaces sans précédent
- Cyberattaques de plus en plus efficaces et coûteuses
Une récente étude menée par l’université d’Édimbourg met en lumière les difficultés rencontrées par les cybercriminels dans l’intégration de l’intelligence artificielle (IA) à leurs activités. En analysant plus de 100 millions de messages issus de forums clandestins, les chercheurs ont pu constater que, malgré un intérêt manifeste pour ces technologies, les résultats obtenus jusqu’à présent restent limités.
Les discussions et avis partagés sur ces forums montrent que les outils d’IA sont souvent perçus comme inefficaces. Un participant a même souligné que « de nombreux outils n’apportent pas de réelles améliorations » dans les méthodes employées pour mener à bien des opérations illicites. Cela soulève la question de la véritable valeur ajoutée de l’IA dans ce contexte.
Les chercheurs notent qu’ils n’ont trouvé « aucun élément probant » indiquant que les hackers avaient réussi à tirer parti de l’IA pour optimiser leurs techniques de cyberattaque. Au contraire, les retours d’expérience révèlent que l’assistance offerte par des modèles d’IA ne bénéficie réellement qu’aux utilisateurs déjà aguerris. Un témoignage indique qu’« il faut d’abord maîtriser les bases de la programmation avant de pouvoir utiliser efficacement l’IA ». Cette dépendance à une compétence préalable limite l’accessibilité de ces outils pour les novices.
Le principal impact de l’IA dans le secteur illégal semble se cantonner à des tâches facilement automatisables, comme la gestion de bots sur les réseaux sociaux ou la création de faux sites web. Ainsi, les escroqueries sentimentales et les fraudes SEO restent des domaines d’application où l’IA est exploitée, mais sans transformation radicale des pratiques lourdes. Les criminels semblent adopter une approche opportuniste, utilisant des chatbots pour obtenir des conseils sur des questions techniques, plutôt que de développer leurs propres outils avancés.
Il est intéressant de noter que les formats d’IA qui sont effectivement utilisés dans la cybercriminalité sont souvent des produits grand public, comme Claude d’Anthropic ou Codex d’OpenAI. Cela illustre une adaptation des cybercriminels à des technologies conçues pour le grand public, car les modèles spécialisés restent difficilement accessibles. Les hackers en quête de sophistication se heurtent à des garde-fous de plus en plus robustes, ce qui les pousse à se tourner vers des modèles d’IA plus anciens, souvent moins efficaces.
Enfin, l’étude conclut que les dispositifs de sécurité mis en place par les entreprises d’IA semblent fonctionner pour le moment. Les messages sur les forums révèlent une frustration palpable quant à la capacité des cybercriminels à contourner ces protections, renforçant l’idée que malgré leur intérêt pour l’IA, ils peinent à en tirer profit dans leurs activités malveillantes.
