Comment les Cybercriminels Utilisent l’IA pour Miner la Confiance dans l’Identité Digitale

**Les nouvelles menaces numériques à l’ère de l’intelligence artificielle**

L’essor fulgurant de l’intelligence artificielle (IA) ne profite pas uniquement à l’innovation et au progrès ; il ouvre aussi la porte à des risques inédits en cybersécurité. Un rapport récent de Check Point Software met en lumière comment les cybercriminels exploitent l’IA générative et les grands modèles de langage (LLM) pour compromettre la confiance dans l’identité digitale. Ces technologies permettent en effet de créer des répliques numériques convaincantes, brouillant la frontière entre réel et faux.

**L’ère des jumeaux numériques malveillants**

Lotem Finkelstein, directeur de la recherche chez Check Point, souligne un changement fondamental : la montée des « jumeaux numériques », des copies AI capables d’imiter non seulement la voix ou l’image, mais aussi la pensée et le comportement humains. Cette évolution menace directement la sécurité en ligne, car elle facilite des attaques d’une sophistication sans précédent.

**Quatre axes majeurs de menace révélés**

1. **Usurpation amplifiée par l’IA et ingénierie sociale** : Les attaquants génèrent des e-mails de phishing hyperréalistes, des imitations vocales et des deepfakes vidéo en temps réel. Par exemple, une attaque récente a utilisé une voix générée par IA pour imiter le ministre de la Défense italien, démontrant que plus aucune identité n’est à l’abri.

2. **Empoisonnement des données et désinformation via les LLM** : Les cybercriminels manipulent les données d’entraînement des IA pour influencer leurs réponses. Le réseau russe de désinformation Pravda en est une illustration, où des chatbots répétaient des récits faux dans un tiers des cas, montrant ainsi l’importance de garantir l’intégrité des données alimentant les IA.

3. **Création de malwares et exploitation des données par IA** : L’IA est utilisée pour concevoir et améliorer des logiciels malveillants, orchestrer des attaques DDoS automatisées et affiner le traitement des données volées. Des services spécialisés valident et nettoient ces données volées pour augmenter leur valeur sur le marché noir.

4. **Détournement et arme des modèles d’IA** : Des comptes LLM volés aux modèles sombres personnalisés comme FraudGPT ou WormGPT, les cybercriminels contournent les dispositifs de sécurité pour commercialiser l’IA comme outil de fraude et de piratage sur le dark web.

**S’adapter pour mieux se protéger**

L’intégration croissante de l’IA dans les attaques oblige les équipes de cybersécurité à adopter un état d’esprit proactif et à intégrer des défenses adaptées à cet environnement évolutif. Le rapport appelle à la mise en place de cadres de sécurité informatique sensibles à l’IA, permettant de détecter et contrer plus efficacement ces nouvelles formes de menaces.

Lotem Finkelstein insiste : « Pour défendre efficacement, il faut utiliser l’IA au même rythme que les attaquants. Notre rapport ne se contente pas d’identifier les risques ; il propose aussi une feuille de route pour sécuriser les environnements IA de manière responsable. »

**En résumé**

L’exploitation malveillante de l’IA par les cybercriminels transforme le paysage de la menace digitale. De la falsification d’identités numériques à la désinformation automatisée, en passant par la création et la propagation de malwares optimisés par IA, les défis sont multiples. Il est crucial pour les organisations et les individus de rester vigilants, d’évoluer dans leurs pratiques de cybersécurité et de comprendre que l’IA est désormais une arme double, exigeant une réponse adaptée.

👉 **Source ici**

A lire ensuite