Les cybercriminels utilisent l'intelligence artificielle pour mettre en œuvre des stratagèmes plus élaborés. Ils ciblent tout, de l'épargne-retraite aux secrets d'entreprise, avec des méthodes de plus en plus difficiles à détecter.
La même technologie qui personnalise les publicités pour les acheteurs en ligne est désormais utilisée par des acteurs malveillants pour collecter des informations personnelles et lancer rapidement des escroqueries en ligne personnalisées. Très rapidement.
Les grandes entreprises d'IA comme Anthropic, OpenAI et Google signalent que des criminels exploitent leurs plateformes pour orchestrer des opérations d'hameçonnage complexes, développer des logiciels nuisibles et exécuter diverses attaques numériques. Les spécialistes de la sécurité avertissent que les criminels produisent également de faux clips audio et vidéo de dirigeants d'entreprise pour tromper les employés et leur faire divulguer des informations sensibles.
Les entreprises et les bureaux gouvernementaux pourraient bientôt faire face à des essaims de systèmes pilotés par l'IA capables de repérer les faiblesses dans les réseaux informatiques, puis de planifier et d'exécuter des attaques avec presque aucune aide humaine.
La technologie change la façon dont les criminels opèrent en ligne. Alice Marwick dirige la recherche chez Data & Society, une organisation indépendante de recherche technologique. Elle a déclaré au Wall Street Journal que le plus grand changement concerne la taille et la portée. « Le véritable changement est l'ampleur et l'échelle. Les escroqueries en ligne sont plus importantes, plus ciblées, plus convaincantes. »
Brian Singer est doctorant à l'université Carnegie Mellon. Il étudie comment les grands modèles de langage sont utilisés dans les cyberattaques et les défenses. Son estimation ? La moitié à trois quarts des messages de spam et d'hameçonnage dans le monde proviennent désormais de systèmes d'IA.
Les attaques elles-mêmes sont devenues plus crédibles. Les systèmes d'IA formés sur les communications d'entreprise peuvent produire des milliers de messages qui semblent naturels et correspondent au style d'une entreprise. Ils copient la façon dont les dirigeants écrivent. Ils mentionnent des nouvelles récentes trouvées dans les archives publiques.
La technologie aide également les escrocs étrangers à masquer les erreurs de langue qui rendaient autrefois leurs tentatives évidentes. Les criminels peuvent usurper l'identité de victimes par le biais de fausses vidéos et de voix copiées. Ils utilisent la même fausse identité pour cibler plusieurs personnes à la fois.
John Hultquist est analyste en chef du Google Threat Intelligence Group. Il décrit le changement principal comme « la crédibilité à grande échelle ».
Les acteurs malveillants s'améliorent également dans le choix des cibles. Ils utilisent l'IA pour parcourir les réseaux sociaux et trouver des personnes confrontées à des difficultés majeures dans leur vie. Divorce, décès dans la famille, perte d'emploi et situations qui pourraient rendre quelqu'un plus vulnérable aux arnaques sentimentales, à la fraude à l'investissement ou aux fausses offres d'emploi.
La barrière à l'entrée de la cybercriminalité a chuté. Les marchés clandestins vendent ou louent désormais des outils d'IA pour un travail criminel pour aussi peu que 90 $ par mois. Nicolas Christin dirige le département des logiciels et des systèmes sociétaux de Carnegie Mellon.
Il a déclaré que ces plateformes proposent différents niveaux de tarification et d'aide à la clientèle. « Les développeurs vendent des abonnements à des plateformes d'attaque avec des tarifs échelonnés et un support client. »
Ces services portent des noms comme WormGPT, FraudGPT et DarkGPT. Ils peuvent créer des logiciels nuisibles et des campagnes d'hameçonnage. Certains incluent même du matériel pédagogique sur les techniques de piratage.
Margaret Cunningham est vice-présidente de la sécurité et de la stratégie IA chez Darktrace, une entreprise de sécurité. Elle dit que c'est simple. « Vous n'avez pas besoin de savoir coder, juste où trouver l'outil. »
Il existe un développement récent appelé vibe-coding ou vibe-hacking. Il pourrait permettre aux criminels en herbe d'utiliser l'IA pour créer leurs propres programmes malveillants plutôt que de les acheter auprès de sources clandestines. Anthropic a révélé plus tôt cette année qu'elle avait stoppé plusieurs tentatives d'utiliser son IA Claude pour créer des ransomwares par des « criminels ayant peu de compétences techniques ».
Les opérations criminelles elles-mêmes changent. La cybercriminalité fonctionne comme un marché commercial depuis des années maintenant, selon les experts. Une opération de ransomware typique impliquait différents groupes. Des courtiers d'accès qui pénétraient dans les réseaux d'entreprise et vendaient l'entrée. Des équipes d'intrusion qui se déplaçaient dans les systèmes en volant des données. Et des fournisseurs de ransomware-as-a-service qui diffusaient le malware, géraient les négociations et divisaient l'argent.
L'IA a augmenté la vitesse, la taille et la disponibilité de ce système. Le travail auparavant effectué par des personnes ayant des connaissances techniques peut désormais s'exécuter automatiquement. Cela permet à ces groupes d'opérer avec moins de personnes, moins de risques et des profits plus élevés. « Considérez cela comme la prochaine couche d'industrialisation. L'IA augmente le débit sans nécessiter plus de main-d'œuvre qualifiée », explique Christin.
L'IA peut-elle lancer des attaques complètement seule ? Pas tout à fait encore. Les experts comparent la situation à la poussée vers des véhicules entièrement autonomes. Les premiers 95 % ont été atteints. Mais la partie finale qui permettrait à une voiture de conduire n'importe où, n'importe quand par elle-même reste hors de portée.
Les chercheurs testent les capacités de piratage de l'IA dans des environnements de laboratoire. Une équipe de Carnegie Mellon, soutenue par Anthropic, a recréé la célèbre violation de données d'Equifax en utilisant l'IA plus tôt cette année. Singer a dirigé le travail au CyLab Security and Privacy Institute de Carnegie Mellon. Il appelle cela « un grand bond en avant ».
Les criminels exploitent l'IA à des fins nuisibles. Mais les entreprises d'IA affirment que les mêmes outils peuvent aider les organisations à renforcer leurs défenses numériques.
Anthropic et OpenAI construisent des systèmes d'IA capables d'examiner en continu le code logiciel pour localiser les faiblesses que les criminels pourraient exploiter. Les personnes doivent toutefois encore approuver les corrections. Un programme d'IA récent développé par des chercheurs de Stanford a obtenu de meilleurs résultats que certains testeurs humains lors de la recherche de problèmes de sécurité dans un réseau.
Même l'IA n'arrêtera pas toutes les violations. C'est pourquoi les organisations doivent se concentrer sur la création de réseaux robustes qui continuent de fonctionner pendant les attaques, déclare Hultquist.
Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y avec notre newsletter.

