IA Act européen : tensions avec les États-Unis autour des codes de bonne conduite

**La controverse autour du règlement européen sur l’intelligence artificielle : entre encadrement rigoureux et pression américaine**

Le règlement européen sur l’intelligence artificielle, souvent désigné sous le nom d’IA Act, constitue une avancée majeure en matière de régulation des technologies d’IA. Pourtant, ce cadre ambitieux suscite des tensions, notamment avec les États-Unis qui rejettent certains aspects jugés trop restrictifs pour les entreprises du secteur.

**Un règlement aux objectifs ambitieux**

Adopté pour encadrer l’utilisation de l’IA en Europe, l’IA Act prévoit notamment l’élaboration de codes de bonnes pratiques destinés aux modèles d’IA à usage général, surtout ceux comportant des risques systémiques. Ces codes, bien que volontaires, auront pour vocation d’aider les fournisseurs à se conformer aux exigences légales en matière de transparence, de respect des droits d’auteur et de gestion des risques. Leur finalisation est attendue pour la fin avril, avec une entrée en vigueur prévue un an après celle du règlement principal, soit en août prochain.

**Pression américaine contre une régulation jugée contraignante**

Malgré ce consensus européen, l’administration américaine menée par Donald Trump manifeste de fortes réserves. Elle fait pression sur les régulateurs européens afin qu’ils abandonnent ou assouplissent ces codes de bonnes pratiques, considérés comme des entraves à l’innovation et sources de complexité excessive. Selon des experts, les obligations supplémentaires — telles que les tests externes des modèles ou la divulgation complète des données d’entraînement — déployées par ces codes vont au-delà des exigences juridiques et seraient difficiles à appliquer à grande échelle.

**Un enjeu crucial pour les entreprises**

Pour les acteurs économiques, ces règles ne sont pas anodines. Ne pas respecter le cadre pourrait entraîner des amendes significatives pouvant atteindre jusqu’à 7 % du chiffre d’affaires mondial, sans compter un renforcement du contrôle réglementaire. Il est donc indispensable pour chaque entreprise opérant sur le marché européen d’adopter ses propres dispositifs de gestion des risques liés à l’IA, incluant par exemple des audits d’impact sur la vie privée et des contrôles rigoureux des modèles utilisés.

**Les risques d’une déréglementation américaine**

La stratégie américaine actuelle va à l’encontre de cette approche rigoureuse. Depuis le décret 14179 publié en janvier, visant à favoriser un leadership américain en matière d’intelligence artificielle, le pays a réduit ses exigences en matière de sécurité et d’équité de l’IA. Cette politique prône une moindre régulation, au risque de créer un paysage où la surveillance et la responsabilité pourraient être insuffisamment assurées.

**Conclusion**

Le débat autour de l’IA Act illustre la complexité de trouver un équilibre entre encouragement à l’innovation et protection des citoyens et de leurs données. Tandis que l’Europe cherche à poser des garde-fous clairs, la pression américaine pourrait influencer la course vers une régulation plus souple, voire diversifiée selon les régions. Pour les entreprises, il reste impératif de se préparer à respecter des normes strictes, internationales ou locales, afin d’éviter risques financiers et réputationnels.

👉 **Source ici**

A lire ensuite