Bienvenue dans notre série de prévisions sur la cybersécurité en 2024 ! Il s'agit de l’un de nos quatre articles d'experts dans lesquels nous dévoilons des prévisions clés sur l’évolution de l’IA, au paysage géopolitique, aux défis liés à la surface d’attaque et aux ransomwares. Vous pouvez également visionner notre webinaire à la demande qui couvre ces sujets et répond à vos questions sur ce que 2024 réserve à la cybersécurité.
Lorsque vous pensez aux applications de l'IA dans le domaine de la cybercriminalité, veillez à appliquer le principe du rasoir d'Occam. Rappelez-vous que les attaquants n'ont pas toujours besoin d'outils sophistiqués, car notre société a encore du mal à mettre en place des pratiques de sécurité de base. Les cybercriminels adaptent leurs outils pour contrer les défenses, et ils peuvent ne pas s'embarrasser d'outils complexes. Ils utilisent l'IA pour faciliter les tâches routinières, tout comme le commun des mortels. En 2024, le risque le plus important lié à l'IA en matière de cybersécurité pourrait être sa transformation en un mot à la mode et le « buzz » crée autour de celui-ci. Les entreprises pourraient sauter les étapes de protection de base, en se concentrant sur les menaces théoriques de l'IA avec des produits de sécurité non éprouvés. Maintenez une approche équilibrée en vous concentrant sur des stratégies éprouvées telles que la défense en profondeur et la sécurité multicouche.
Dans nos récentes prédictions 2024 concernant les ransomwares, nous avons indiqué que le comportement des groupes de ransomware est plus prévisible parce qu'il s'agit d'acteurs rationnels, motivés par des considérations financières. En revanche, les prévisions concernant l'IA sont tout à fait opposées. Comme pour toute technologie de rupture, nous nous trouvons actuellement dans une phase d'innovation intense, tant au niveau de la technologie que de ses applications, avec l'apparition et la disparition de diverses approches. Tout finira par s'installer dans une routine plus prévisible, mais 2024 ne sera pas cette année-là. Il faut s'attendre à une route cahoteuse et à des rebondissements inattendus. Nos idées ne valent que pour cette année ; ne nous en tenez pas rigueur en 2025.
L'IA va augmenter le nombre d'emplois : L'IA ne remplacera pas votre emploi, mais peut-être que quelqu'un qui sait comment l’utiliser efficacement le fera. L'IA excelle à améliorer ou à compléter des compétences préexistantes, et les mêmes limites s'appliquent aux cybercriminels. Aussi ennuyeux que cela puisse paraître, l'application la plus pratique de l'IA pour les attaquants pourrait consister à simplifier des tâches banales. Il faut s'attendre à ce que les cybercriminels deviennent plus productifs avec l'aide de l'IA, plutôt qu'à ce qu'ils atteignent des niveaux entièrement nouveaux. Les deepfakes constituent une exception notable à cette règle, mais nous y reviendrons plus tard.
Les petites évolutions offensives basées sur les grands modèles de langage (LLM) seront efficaces : En théorie, les applications défensives de l'IA devraient l'emporter sur les avantages des applications offensives, surtout si l'on considère les problèmes de sécurité opérationnelle auxquels sont confrontés les cybercriminels. Ces derniers hésitent à investir trop de temps, d'argent et d'efforts dans un système qui peut être rapidement modifié pour ruiner leurs investissements. Ils s'appuient généralement sur des directives simples, reproductibles et évolutives, alors que l'IA fonctionne de manière dynamique et subit des changements continus. Les systèmes dotés d'une infrastructure complexe et d'une nature dynamique fonctionnent mieux lorsque le cas d'utilisation est officiel, plutôt que lorsque les intentions doivent être dissimulées aux autorités chargées de l'application de la loi.
Pour les cybercriminels, nous nous attendons à ce que l'IA soit principalement utilisée dans les attaques d'ingénierie sociale, où les humains restent la première ligne de défense. Sur la base des expériences passées, nous savons qu'en dépit d'efforts considérables en matière de formation et de simulations, les personnes constituent une terrible première ligne de défense. Si notre capacité à reconnaître les comportements suspects reste la même, même des améliorations mineures pour les attaquants augmenteront leurs chances de succès.
Les attaques hybrides brouilleront les frontières entre les tactiques de précision et les tactiques générales : Les cybercriminels sont susceptibles de favoriser l'utilisation de l'IA en coulisses, ce qui rend de plus en plus difficile de déterminer si une attaque a été exécutée par un acteur sophistiqué ou avec l'aide de l'IA. Dans un premier temps, les cybercriminels peuvent tenter de dissimuler l'utilisation de l'IA dans leurs opérations, ce qui complique les efforts d'attribution pour les défenseurs. Les capacités d'automatisation de l'IA permettront aux acteurs de la menace d'adopter une approche individualisée pour chaque attaque, même lorsqu'elle est exécutée à grande échelle. S'agit-il d'une attaque ciblée ou générale, menée par des humains, par l'IA ou par une combinaison des deux ? Il sera de plus en plus difficile de tracer une ligne claire.
Les LLM représenteront la prochaine étape de la mondialisation : Ce qui distingue véritablement les LLM des anciens modèles d'apprentissage automatique, c'est leur capacité à traiter le langage naturel. Les modèles de type LLM, tels que ChatGPT, sont souvent des « menteurs confiants ». Mais lorsqu'il s'agit de la langue anglaise, leur compétence est vraiment remarquable.
L'élimination des barrières linguistiques permettra aux cybercriminels d'étendre leurs activités à un public plus large. Au-delà des considérations linguistiques, il convient d'inclure les termes du secteur, les acronymes d'initiés ou les événements d'actualité qui influencent le public visé. Par exemple, les langues slaves, qui ne connaissent pas le concept d'article, posent souvent problème lorsqu'il s'agit d'écrire en anglais, même pour les personnes disposant d'un vocabulaire étendu.
À l'avenir, ce qui comptera, c'est que vous puissiez parler la même langue que l'IA (ingénierie prompte efficace), et pas nécessairement la langue de votre cible.
2024 ne sera probablement pas l'ère des LLM « malveillants » : En ce qui concerne les LLM, les cybercriminels ont trois options. La première est qu’ils peuvent développer un LLM personnalisé, ce qui exige des compétences techniques et des ressources. Cependant, les LLM malveillants existants ont montré une tendance prédominante : la majorité d'entre eux tentaient d'escroquer les escrocs ou n'obtenaient pas les résultats escomptés. Nombre de ces modèles ont compensé leur manque de compétences réelles en adoptant un langage « l33t hax0r » et sont plus adaptés à la production d'histoires explicites qu'à celle d'un véritable contenu malveillant. Cela va changer, car il est de plus en plus facile d'adapter des modèles locaux avec des LLM très efficaces (par exemple Mixtral avec des techniques telles que QLora). Bien qu'il soit actuellement peu probable que cette approche soit suffisante pour construire des LLM malveillants généraux capables de contribuer au développement de malwares, la véritable menace réside dans la possibilité que les LLM soient dirigés vers des personnes escroquées, une préoccupation réelle cette année.
La deuxième option pour les cybercriminels est de jailbreaker les LLM ordinaires. Le jailbreak des LLM nécessite des compétences techniques rapides et, bien qu'il puisse donner des résultats, ceux-ci sont généralement temporaires. Plus important encore, l'expertise requise pour l'ingénierie rapide tend à exclure attaquants moins expérimentés qui bénéficieraient le plus de l'accès aux LLM.
Enfin, la troisième option consiste à s'appuyer sur les GPT, des versions personnalisées de ChatGPT qui peuvent être créées à des fins spécifiques. GPT Builder d'OpenAI fournit une plateforme permettant aux utilisateurs de personnaliser ChatGPT pour des tâches spécifiques sans avoir à coder. En fournissant des instructions et en sélectionnant des fonctionnalités, les utilisateurs peuvent créer des GPT sur mesure, par exemple pour aider dans les jeux de société, enseigner les mathématiques ou encore aider les cybercriminels. L'outil donne la priorité aux contrôles de la vie privée, permettant aux utilisateurs de gérer les données et les interactions, et met l'accent sur une approche communautaire du développement de l'IA.
En ce qui concerne l'exploitation à court terme, nous parions sur le fait que les GPT seront ciblés par les cybercriminels au cours des deux ou trois prochains mois. Cependant, nous pensons que les modèles locaux deviendront l'approche préférée des attaquants qui utilisent les LLM en 2024. Il devient de plus en plus facile de former et de déployer localement des LLM puissants, tandis que divers fournisseurs proposent même des services de formation dans le cloud faciles à utiliser et bon marché, qui pourraient ou non inclure les garanties de sécurité nécessaires pour éviter d'aider les attaquants à développer des LLM malveillants.
Bien qu'il soit difficile de prédire l'évolution de l'IA sur une année entière, une chose est sûre : dans les trois attaques décrites ci-dessous, il faut s'attendre à ce que le langage s'améliore et à ce que les barrières linguistiques tombent. Et cela conduira à davantage de compromissions de points d'accès.
Par « ingénierie sociale générique », nous entendons des attaques opportunistes qui ratissent large et tentent de piéger qui elles peuvent. Dans le contexte de ces attaques, l'introduction des LLM au cours de cette année entraîne plusieurs développements notables :
« Le décret royal est entré en vigueur, l'aide des roturiers ne sera plus nécessaire » : Les chatbots alimentés par des LLM peuvent éliminer l'une des limites historiques de l'ingénierie sociale générique. Traditionnellement, certaines escroqueries, telles que les célèbres escroqueries nigérianes, reposaient sur une stratégie de base de « test de QI » pour filtrer les réponses. Les systèmes d'avance de frais utilisent souvent des récits qui peuvent être facilement identifiés comme faux avec un minimum d'esprit critique. Les personnes qui répondaient aux escrocs étaient plus susceptibles de devenir des victimes involontaires. Cette stratégie était un moyen pratique d'éviter des volumes d'interactions trop importants. Toutefois, l'existence de robots de conversation de type humain rend cet obstacle à l'évolutivité obsolète et permet à des cybercriminels plus habiles sur le plan technologique de renforcer la crédibilité des systèmes de paiement à l'avance. Cette transition se fera progressivement, à mesure que les chatbots deviendront plus faciles à mettre en œuvre.
Les deepfakes vont devenir une menace réelle : Anticipez le véritable défi posé par les deepfakes (ou « hypertrucages ») en 2024. Les deepfakes les plus convaincants nécessitent des heures de ressources vidéo et audio pour se former, mais ce qui n’est pas forcément un frein pour les personnalités publiques telles que les politiciens ou les personnalités influentes des médias sociaux. La combinaison d'une technologie avancée et d'élections à venir dans de grands pays crée un environnement idéal pour que les cybercriminels qui expérimentent cette technologie. Si les deepfakes alimenteront principalement les campagnes de désinformation, on s'attend à ce qu'ils soient également utilisés à des fins financières. Une recrudescence des tentatives de prise de contrôle sur les plateformes de médias sociaux, associée à l'utilisation de deepfakes pour usurper l'identité des propriétaires originaux - en particulier dans les escroqueries liées aux cryptomonnaies - se profile à l'horizon. C'est ainsi le bon moment pour apprendre à identifier les deepfakes.
Tout comme pour les attaques génériques, il faut s'attendre à une amélioration générale de la qualité des tentatives de spear phishing. Voici ce que nous attendons de cette catégorie d'attaques :
Répercussions des tactiques de haut niveau : Ces dernières années, nous avons été témoins d’attaques très sophistiquées qui ont nécessité beaucoup de temps, de dévouement et d’investissements pour se préparer. Cependant, les LLM ont le potentiel de réduire considérablement les barrières à l’entrée de telles attaques, les rendant ainsi accessibles à un plus large éventail d’acteurs malveillants. Cela élargit non seulement le nombre d’attaquants potentiels, mais permet également aux cybercriminels déjà compétents d’exécuter ces attaques sophistiquées plus fréquemment.
Augmentation du nombre d'attaques de type BEC (Business Email Compromise) : Comme indiqué dans nos prédictions sur les ransomwares pour 2024, nous prévoyons une recrudescence des attaques de type Business Email Compromise (BEC) ciblant les entreprises de toutes tailles, y compris les plus petites. Cette tendance, déjà amorcée avant l'introduction des LLM, deviendra un risque important en 2024. Grâce aux LLM, les acteurs de la menace peuvent facilement reproduire le style de communication, la terminologie et les connaissances d'initiés des dirigeants en entrant leurs conversations passées dans ces modèles.
Deepfakes de PDG : La création de deepfakes implique l'utilisation de nombreuses données audio et vidéo introduites dans le modèle, une ressource qui n'est généralement pas disponible pour les individus ordinaires. Toutefois, pour les personnalités publiques telles que les propriétaires d'entreprises et les PDG, ces données sont plus accessibles. Si les deepfakes ont été peu fréquents par le passé, nous prévoyons de les rencontrer plus fréquemment en 2024. L'évolution positive est que la recherche actuelle se concentre sur une approche de reconnaissance plus large des deepfakes, s'éloignant de l'identification singulière de modèles individuels (vous pouvez lire notre recherche sur la localisation faiblement supervisée des deepfakes).
Attaques multiples et coordonnées : À mesure que la barrière des attaques sophistiquées diminue, nous prévoyons l'émergence d'attaques qui étaient auparavant possibles mais jugées trop exigeantes en termes de main-d'œuvre et de logistique. Il s'agit notamment de coordonner des attaques contre plusieurs entreprises, en particulier dans le cadre de scénarios tels que des acquisitions/fusions ou entre des entreprises appartenant à un même Groupe.
Jusqu’en 2023, nous avons lu beaucoup d’actualités concernant les logiciels malveillants développés par l’IA, avec des affirmations « grandiloquentes ». Nous avons analysé ces malwares et n’avons pas été très impressionnés. La qualité du code malveillant produit par l’IA a tendance à être faible, ce qui en fait une option moins attrayante pour les cybercriminels expérimentés qui peuvent trouver de meilleurs exemples dans des référentiels de code publics comme GitHub. Pouvez-vous générer des logiciels malveillants à l’aide de ChatGPT ? Oui. Mais est-il de meilleure qualité que ce qui est déjà disponible en tant que produit ? Non.
Le côté positif est que l’IA aide les chercheurs en sécurité dans l’analyse du code et la rétro-ingénierie (reverse engineering), des domaines dans lesquels les Bitdefender Labs sont un pionnier. Bien que l’IA soit à la mode dans les médias et le grand public récemment sensibilisé, son intégration dans les pratiques de cybersécurité est loin d’être nouvelle. Nous avons adopté l'apprentissage automatique (Machine Learning) il y a près de 15 ans. Il est remarquable que bon nombre des détections de menaces que nous créons sont conçues pour des logiciels malveillants qui n'ont même pas encore émergé. Pour illustrer que cette technologie n'est pas nouvelle, notre modèle qui a détecté WannaCry (un événement important en 2017) a été formé il y a près de dix ans en 2014 (trois ans avant l'attaque proprement dite).
Dans nos recherches en cours sur l’IA, nous explorons des approches de pointe telles que l’IA génétique et les réseaux antagonistes génératifs (GAN). L’IA génétique, inspirée de la sélection naturelle, évolue au fil des générations, à l’image de la façon dont les espèces évoluent dans la nature. Cet apprentissage améliore la détection des menaces sans règle ni réglage manuel. D’un autre côté, les GAN fonctionnent comme un duo dynamique : un générateur créant des données réalistes et un discriminateur faisant la distinction entre le contenu réel et synthétique. Considérez-le comme un artiste (générateur) créant des contrefaçons et un critique d'art (discriminateur) apprenant à les détecter.
Ne vous attendez pas à Skynet ou HAL 9000 : Si vous imaginez les derniers logiciels malveillants crées par l’IA, ne pensez pas un binaire complexe manœuvrant habilement à travers les réseaux pour identifier les vulnérabilités à exploiter. Imaginez plutôt un code avec des personnalisations mineures, conçu dans la langue de votre choix. Les amateurs de scripts sont plus susceptibles de trouver cette opportunité attrayante que les développeurs de malwares expérimentés.
Une « masse » de logiciels malveillants médiocres : Contrairement à la croyance populaire, les malwares courants sont déjà dynamiques et en pleine évolution ; nos propres Bitdefender Labs traitent environ 400 menaces uniques chaque minute ! Si la promesse de ChatGPT est d’apporter davantage de malwares médiocres, nous pouvons y faire face. Les cybercriminels trouveront davantage d’utilité aux LLM dans les langages humains plutôt que dans les langages machines. Il convient de noter que, comme dans la vraie vie, cela n’empêchera pas certains acteurs malveillants d’utiliser l’IA à des fins « marketing ».
Cibles ICS (Industrial Control System) / SCADA de grande valeur : Chaque année, des prédictions refont surface sur la vulnérabilité des infrastructures critiques face aux cyberattaques. Jusqu’à présent, cette menace a été quelque peu atténuée par le concept de destruction mutuelle assurée (MAD). Ceux qui ont la capacité d’exploiter ces systèmes (généralement les cybercriminels parrainés par des États) sont conscients des conséquences autodestructrices de telles attaques. Cependant, avec l’aide de l’IA et la capacité de manipuler les langages de programmation de sortie, les systèmes ICS/SCADA pourraient devenir accessibles à un plus large éventail d’acteurs malveillants, pas nécessairement du plus mauvais niveau, mais certainement à un niveau inférieur. Les connaissances requises pour les langages CEI 61131-3 ne sont pas répandues, et l'IA a le potentiel de combler cette lacune, en élargissant potentiellement le nombre d'acteurs capables de cibler ces systèmes critiques.
Dans le domaine des codes malveillants, les chercheurs en sécurité ont tendance à devancer les cybercriminels. La véritable préoccupation réside dans les attaques qui exploitent des éléments humains. Ce sont les menaces reposant sur les vulnérabilités humaines qui devraient être la principale préoccupation.
Étonnamment, l’une des questions les plus fréquentes que l’on pose sur l’IA concerne ses capacités en matière d’études de marché. Peut-elle être utilisée pour recueillir plus d’informations sur une entreprise spécifique, déterminer si une organisation est potentiellement frauduleuse ou fournir un bref aperçu de sa situation financière actuelle ? Ce sont les mêmes questions auxquelles les cybercriminels cherchent à répondre lors des opérations de type « renseignement de sources ouvertes » (OSINT). Les groupes de Ransomware-as-a-Service (RaaS) incluent fréquemment des équipes OSINT dédiées pour évaluer et déterminer les demandes de rançon appropriées.
Calculateur de rançon : Tout comme des outils tels que CrunchBase, les LLM peuvent aider à collecter des informations sur les entreprises. Non seulement en fournissant un aperçu de l'histoire et de la situation financière d'une organisation, mais également en analysant ses dernières actualités, y compris les fusions et acquisitions. L’une des utilisations les plus pratiques et les plus facilement monétisables est le développement d’un outil de reconnaissance basé sur l’IA pour analyser de grandes quantités de données et identifier des cibles de grande valeur dotées de capacités financières importantes. En sélectionnant et en ciblant intelligemment les organisations les plus susceptibles de payer des rançons substantielles, les groupes de ransomware peuvent augmenter le montant de leur demande de rançon, ce qui entraîne des retours sur investissement potentiellement plus élevés.
Risques de fuite de données sensibles : Bien que les LLM offrent des fonctionnalités puissantes, les implémentations actuelles ressemblent plus souvent au « Far West », dans la mesure où à la fois les entreprises et les employés incluent l'IA dans leurs flux de travail. Le risque de fuite de données sensibles présente une opportunité intrigante pour les acteurs malveillants au cours de cette phase d’apprentissage, d’autant plus que les groupes de ransomware continuent de s’orienter vers l’exfiltration de données. Nous ne serions pas surpris d'assister à une faille de sécurité majeure en 2024, où la cible de l'attaque d'ingénierie sociale serait un LLM d'entreprise.
Analyse des fuites de données publiques : Les messages personnalisés générés par les LLM peuvent être utilisés pour développer des attaques de spear phishing convaincantes, en exploitant les informations obtenues à partir de fuites publiques ou des sites Web des organisations. Cette automatisation étend non seulement la portée des cibles potentielles, mais améliore également l'authenticité des communications malveillantes.
Tri des données exfiltrées : Enfin, les cybercriminels peuvent exploiter les LLM pour passer au crible les données exfiltrées des entreprises ciblées. La compréhension du langage naturel des modèles leur permet de catégoriser et d'identifier les informations sensibles au sein des données volées. Voler des téraoctets de données est une chose ; trouver des informations qui peuvent être utilisées efficacement à des fins de chantage est un tout autre défi.
Lorsqu’on envisage l’avenir de l’IA et son rôle dans la cybercriminalité, il est essentiel de garder à l’esprit le « biais d’ancrage ». Tout en considérant l’évolution de l’IA offensive, il est tout aussi important de ne pas négliger les progrès continus de l’IA défensive. Plutôt que de rechercher des solutions insaisissables ou des solutions rapides, l’accent devrait rester sur des stratégies éprouvées qui ont résisté à l’épreuve du temps, comme la défense en profondeur et la sécurité multicouche. Bitdefender, avec plus de deux décennies d'expérience, a utilisé avec succès cette approche, intégrant l'IA comme une avancée solide dans notre engagement continu à protéger nos clients grâce à des bases de recherche solides.
Plongez dans le panorama des cybermenaces de 2024 ! Notre webinaire à la demande, Prédictions 2024 : L'évolution des ransomwares, les réalités de l'IA et la mondialisation de la cybercriminalité, va au-delà de cet article, avec des discussions en direct sur ces différents sujets.
tags
Bitdefender is a cybersecurity leader delivering best-in-class threat prevention, detection, and response solutions worldwide. Guardian over millions of consumer, enterprise, and government environments, Bitdefender is one of the industry’s most trusted experts for eliminating threats, protecting privacy, digital identity and data, and enabling cyber resilience. With deep investments in research and development, Bitdefender Labs discovers hundreds of new threats each minute and validates billions of threat queries daily. The company has pioneered breakthrough innovations in antimalware, IoT security, behavioral analytics, and artificial intelligence and its technology is licensed by more than 180 of the world’s most recognized technology brands. Founded in 2001, Bitdefender has customers in 170+ countries with offices around the world.
Voir toutes les publications