Les nouvelles vulnérabilités des intelligences artificielles multimodales : un risque pour la sécurité et la protection des mineurs
Les avancées en intelligence artificielle ne cessent de repousser les limites du possible. Parmi ces innovations, l’IA multimodale, capable de traiter des contenus variés comme du texte, des images ou de l’audio, ouvre des perspectives fascinantes pour l’analyse et la compréhension des données. Cependant, elle engendre également de nouvelles vulnérabilités en matière de sécurité, comme l’a récemment révélé une étude du spécialiste en cybersécurité Enkrypt AI.
Les risques accrus des modèles multimodaux
La recherche d’Enkrypt AI met en lumière que certains modèles développés par le laboratoire français Mistral, notamment Pixtral-Large et Pixtral-12b, sont jusqu’à 40 fois plus susceptibles de générer des contenus sensibles liés aux domaines chimique, biologique, radiologique et nucléaire (CBRN) lorsqu’ils sont sollicités par des requêtes malveillantes. Ces modèles sont aussi 60 fois plus enclins à produire des contenus relatifs à l’exploitation sexuelle des enfants (CSEM) que d’autres IA concurrentes comme les modèles d’OpenAI ou d’Anthropic.
Cette situation est préoccupante, car elle révèle des failles importantes dans les mécanismes de filtrage de contenu et met en danger la sécurité publique, la protection des mineurs et la sûreté nationale.
Une nouvelle forme de jailbreak par l’image
Les chercheurs expliquent que le fonctionnement même des IA multimodales complexifie la sécurisation du système. En effet, ces intelligences peuvent être abusées non seulement via des textes malveillants, mais aussi grâce à des injections hostiles dissimulées dans des fichiers image. Ce procédé permet d’échapper aux filtres de sécurité classiques sans laisser de trace évidente dans la requête initiale.
Concrètement, des acteurs malintentionnés pourraient « cacher » des instructions dangereuses dans des images apparemment anodines, que le modèle interprèterait ensuite de façon à produire des réponses nuisibles ou interdites.
Les implications et la nécessité d’encadrer
Le PDG d’Enkrypt, Sahil Agarwal, insiste sur le fait que ces risques, loin d’être théoriques, ont des impacts réels sur la sécurité et la société. Les capacités élargies des IA multimodales augmentent l’« surface d’attaque » pour les hackers et compliquent la tâche des développeurs pour garantir un usage sûr.
Face à ces enjeux, le rapport encourage la mise en place de garde-fous spécifiques aux modèles multimodaux et recommande la création de cartes de risques détaillant clairement leurs vulnérabilités, afin d’informer pleinement les utilisateurs et d’améliorer les dispositifs de protection.
Si l’intelligence artificielle offre un potentiel immense, cette étude rappelle également que sa maîtrise doit s’accompagner d’un effort constant en matière de sécurité, d’éthique et de responsabilité.
👉 Source ici