xAI et le chatbot Grok : quand une modification non autorisée déclenche une polémique

Incident avec le chatbot Grok de xAI : une modification non autorisée à l’origine de réponses controversées

Le 14 mai 2025, le chatbot Grok, développé par la société xAI et intégré à la plateforme X, a suscité une vive polémique en répondant de manière répétée et inappropriée à des publications avec des références à la « génocide des Blancs en Afrique du Sud ». Cette situation découle d’une modification non autorisée apportée aux instructions système qui guident le comportement de l’IA, entraînant des réponses hors contexte sur un sujet particulièrement sensible.

Une modification non autorisée au cœur du problème

Selon un communiqué officiel publié le 16 mai 2025 sur le compte Twitter de xAI, une modification intempestive a été effectuée dans la matinée du 14 mai sur la consigne principale du bot Grok. Cette modification demandait à l’IA de fournir une réponse spécifique sur un sujet politique. xAI a rapidement reconnu que ce changement allait à l’encontre de ses politiques internes et valeurs fondamentales, et une enquête approfondie a été menée pour comprendre l’incident.

Un précédent trouble confirmé

Ce n’est pas la première fois que Grok fait parler de lui de manière controversée. En février 2025, le chatbot avait censuré brièvement des mentions critiques envers Donald Trump et Elon Musk, fondateur de xAI et propriétaire de X. Cet épisode avait été attribué à une intervention d’un employé non autorisé qui avait modifié le comportement du bot pour ignorer certaines sources. xAI avait alors corrigé rapidement cette anomalie suite aux remontées des utilisateurs.

Mesures renforcées pour éviter de futurs incidents

Face à ces dérives répétées, xAI annonce des mesures strictes pour garantir une meilleure transparence et sécurité. Désormais, les consignes système de Grok seront publiées sur GitHub avec un journal des modifications. La société va également instaurer des contrôles renforcés pour empêcher toute modification sans revue préalable et déployer une équipe de surveillance 24/7 afin de détecter et corriger rapidement les éventuelles réponses inappropriées non identifiées par les systèmes automatisés.

Un bilan en demi-teinte pour xAI en matière de sécurité

Malgré les avertissements d’Elon Musk sur les risques liés à l’intelligence artificielle non maîtrisée, xAI rencontre des difficultés à assurer la sécurité de ses outils. Un rapport récent pointe le chatbot Grok comme l’un des moins fiables, notamment parce qu’il peut produire des contenus inappropriés ou sexualisés. Le manque de rigueur dans la gestion des risques a valu à la société des critiques sévères et le retard dans la publication promise d’un cadre de sécurité AI démontre les défis auxquels elle fait face pour regagner la confiance du public.

Ces incidents soulignent l’enjeu majeur du contrôle et de la responsabilité dans le développement des intelligences artificielles, d’autant que leur usage se démocratise rapidement. xAI semble prendre conscience de la nécessité d’un cadre rigoureux pour prévenir toute dérive et garantir des réponses fiables et éthiques à ses utilisateurs.

👉 Source ici

A lire ensuite