**Les usages abusifs de l’IA générative : le rapport alarmant d’Anthropic sur Claude**
L’essor de l’intelligence artificielle générative, bien que prometteur, s’accompagne aussi de risques croissants liés à des usages malveillants. Récemment, la société Anthropic a publié un rapport révélant des tendances inquiétantes concernant l’exploitation abusive de son chatbot Claude durant le mois de mars 2025. Ce document met en lumière comment des acteurs malveillants utilisent cette technologie avancée, malgré les mesures de sécurité déjà mises en place.
**Sécurité et cybermenaces**
Le rapport d’Anthropic note qu’un « acteur sophistiqué » s’est servi de Claude pour récupérer des identifiants fuités liés à des caméras de surveillance. Cette méthode facilite l’accès non autorisé à ces dispositifs, accentuant les risques pour la sécurité physique et numérique. De plus, une personne peu expérimentée en techniques informatiques a pu concevoir un logiciel malveillant complexe en s’appuyant sur Claude pour améliorer un kit open-source. Grâce à l’intelligence artificielle, ce simple initié a pu intégrer des fonctionnalités avancées telles que la reconnaissance faciale ou la navigation sur le dark web, ouvrant la voie à des cyberattaques plus accessibles aux néophytes.
**Manipulation des réseaux sociaux**
Une des découvertes les plus inquiétantes concerne une opération d’envergure baptisée « influence-as-a-service ». Des acteurs ont utilisé Claude pour générer du contenu politique sur les réseaux sociaux comme X (ex-Twitter) et Facebook, en orchestrant l’activité de centaines de bots. Ces derniers interagissaient avec des dizaines de milliers de comptes humains, en aimant, commentant et partageant les publications selon des consignes dictées par Claude. Ces campagnes semblent s’inscrire dans des stratégies d’influence potentiellement liées à des États, bien que cela ne soit pas confirmé, et illustrent l’évolution des manipulations numériques vers une exécution semi-automatisée par IA.
**Fraudes à la recrutement et ingénierie sociale**
Anthropic a également identifié un schéma de fraude dans le recrutement touchant l’Europe de l’Est. Là encore, Claude a été utilisé pour polir des messages frauduleux en anglais, les rendant plus crédibles et professionnels, afin de berner les candidats en se faisant passer pour des recruteurs légitimes. Cette technique dite de « nettoyage linguistique » montre comment l’IA peut servir à perfectionner la tromperie et renforcer l’ingénierie sociale.
**Réponses et perspectives pour contrer les abus**
Pour faire face à ces menaces, Anthropic s’appuie sur un programme d’analyse d’intelligence destiné à détecter les abus non repérés par les systèmes classiques. Les comptes responsables ont été bannis, et les cas mis en lumière pour mieux comprendre ce nouveau paysage des risques liés à l’IA générative. Si le rapport met en avant la complexité croissante des attaques facilitées par des outils comme Claude, il souligne aussi la nécessité d’un engagement continu en matière de sécurité et de tests rigoureux avant déploiement.
Cette démarche est d’autant plus cruciale que la régulation fédérale de l’intelligence artificielle reste floue, notamment aux États-Unis. À l’heure actuelle, l’auto-surveillance des entreprises et l’intervention d’organismes tiers sont les seuls remparts pour limiter les abus de ces technologies puissantes.
En synthèse, si les avancées de l’IA générative sont incontestables, leur usage malveillant est un défi majeur que le secteur doit relever collectivement. Le rapport d’Anthropic est un appel à renforcer les mécanismes de contrôle pour garantir que ces outils restent des leviers d’innovation, et non des vecteurs de risques accrus.
👉 Source ici