Le phénomène Ghibli d’OpenAI : émerveillement artistique et enjeux de confidentialité

Le phénomène Ghibli d’OpenAI : entre émerveillement artistique et enjeux de confidentialité

Récemment, un engouement mondial a vu des millions d’internautes transformer leurs photos en œuvres d’art au style unique du Studio Ghibli grâce à l’intelligence artificielle d’OpenAI. Cette tendance, qui s’est propagée à une vitesse fulgurante sur les réseaux sociaux, permet à chacun de plonger dans l’univers enchanteur de films comme Mon voisin Totoro ou Le Voyage de Chihiro, en donnant vie à ses photos sous une forme dessinée et poétique.

La genèse de la tendance Ghibli

Cette fonction est née fin mars avec la mise à jour du modèle GPT-4o, qui a introduit la génération d’images natives dans ChatGPT. Contrairement à l’ancienne méthode basée sur DALL·E, cette nouvelle fonctionnalité offre une meilleure intégration des images en entrée, une qualité graphique accrue et une plus grande fidélité aux consignes données.

Grand merci à Grant Slatton, ingénieur logiciel, qui a popularisé ce phénomène en partageant un montage familial converti en art Ghibli, visionné par des dizaines de millions de personnes. Cette dynamique a rapidement conquis particuliers, marques, célébrités, et même des institutions, comme le gouvernement indien, amplifiant l’ampleur de l’engouement.

Les enjeux de confidentialité et de sécurité des données

Si cette création artistique est séduisante, elle soulève d’importantes questions sur la protection des données personnelles. En effet, OpenAI collecte le contenu utilisateur – textes, images, fichiers – pour entraîner ses modèles d’IA. Bien que l’entreprise offre la possibilité de refuser cette collecte, elle ne met pas suffisamment en avant cette option au moment de l’inscription, ce qui conduit un grand nombre d’utilisateurs à partager leurs images sans consentement éclairé.

Les données ainsi soumises sont conservées de manière prolongée, même après suppression manuelle, pouvant servir à améliorer les modèles d’IA. Comme l’explique Ripudaman Sanger, il est quasiment impossible d’effacer complètement l’impact d’une donnée une fois intégrée dans un système d’apprentissage automatique.

Cette situation pose un risque non négligeable : en cas de fuite ou d’exploitation malveillante, ces images pourraient être utilisées pour des fraudes d’identité ou des deepfakes nuisibles, entraînant de graves conséquences pour les personnes concernées.

Une permanence des données qui inquiète

Contrairement à d’autres informations sensibles, les traits du visage sont une donnée biométrique difficilement modifiable. Gagan Aggarwal souligne que ces caractéristiques restent à jamais des empreintes digitales numériques qui compromettent durablement la vie privée. Même un incident survenant plusieurs années après la collecte pourrait exposer les victimes à des risques majeurs.

Avec l’évolution rapide des technologies, notamment la récente annonce de Google sur la génération vidéo hyperréaliste à partir d’images, ce type de données pourrait être exploité dans des contextes encore plus complexes, rendant la vigilance des utilisateurs plus que jamais nécessaire.

Conseils pour une utilisation éclairée

Le message à retenir n’est pas de craindre la technologie, mais d’en comprendre les implications. Il est essentiel d’être conscient des risques lorsque l’on partage des données avec des systèmes basés sur le cloud et de toujours vérifier les paramètres de confidentialité proposés.

Comme le rappelle Pratim Mukherjee, la transparence, le contrôle et la sécurité doivent impérativement accompagner l’expérience utilisateur. Dans ce contexte, adopter une démarche responsable et informée permet de profiter des innovations sans compromettre sa vie privée.

En somme, si l’intelligence artificielle reste une ressource prometteuse et fascinante, elle doit être maniée avec prudence, à l’image du dicton : « Le feu est un bon serviteur mais un mauvais maître. »

👉 Source ici

A lire ensuite