Comment distinguer une photo vraie d’une photo manipulée à l’ère de l’IA ?

Comment distinguer une photo vraie d’une photo manipulée à l’ère de l’IA ?

À l’heure où les outils de retouche photo et l’intelligence artificielle générative se démocratisent, il devient de plus en plus difficile de certifier l’authenticité d’une image. Désormais, n’importe qui avec une connexion internet peut créer des images photoréalistes, vraies ou fictives, et les présenter comme réelles, rendant notre perception de la vérité particulièrement vulnérable.

Le défi posé par les images manipulées

La manipulation photographique n’est plus l’apanage des experts ni des gouvernements. Aujourd’hui, les smartphones et applications sociales appliquent automatiquement des filtres pour améliorer les photos, parfois à tel point qu’on peut se demander si un simple selfie peut encore être considéré comme une image « réelle ».

Ce phénomène contribue à une perte de confiance collective dans les médias et les institutions, alimentant la méfiance, les fausses informations (« fake news ») et les vidéos truquées (« deepfakes »). Ces images manipulées peuvent influencer des élections, creuser les divisions sociétales et même provoquer des violences. La question de l’éthique autour de ces modifications est donc plus que jamais centrale.

Des questions éthiques complexes

Le cadrage moral des retouches ne cesse de se complexifier. Jusqu’où est-il acceptable de modifier une image ? Par exemple, embellir légèrement un portrait, retirer une personne d’un cliché ou altérer un fait à travers un montage, notamment en contexte politique ou social, soulève d’importants débats. Que penser d’une photo d’un dirigeant retouchée ou d’images de conflits montrant des cadavres générés par IA pour atténuer l’horreur ?

Proposer un système de transparence : la clé de la confiance

Face à cette situation, une solution pragmatique consiste à instaurer un cadre clair et transparent autour des modifications d’images. Cela passerait par deux actions simples :

  • Indiquer clairement qu’une photo a été retouchée, à l’instar des crédits photographiques.
  • Préciser la nature des modifications réalisées selon des catégories standards, comme un système de classification.

La classification CEBOG des retouches

Une proposition intéressante découpe les retouches en cinq catégories distinctes :

  • C – Corrigé : Ajustements techniques qui améliorent la qualité sans changer le fond, comme la balance des couleurs ou la correction d’objectif.
  • E – Amélioré : Modifications sur les tons et couleurs, incluant des retouches cosmétiques mineures, sans altérer les formes physiques.
  • B – Corps modifié : Altérations des traits corporels, par exemple affiner ou changer la couleur des cheveux, qui modifient réellement l’apparence.
  • O – Objet manipulé : Déplacement ou ajout/retrait d’éléments dans l’image, comme effacer une personne ou rajouter un objet.
  • G – Généré : Images entièrement fabriquées, souvent via intelligence artificielle, représentant des scènes qui n’ont jamais existé.

Ce système vise à être transparent et impartial, en déclenchant des indications dès qu’une manipulation est opérée, quelle que soit sa finalité.

Vers une adoption technologique et médiatique

Pour que ce système fonctionne efficacement, les logiciels de retouche pourraient automatiser la reconnaissance du type de modification et l’indiquer dans les métadonnées de l’image. Ensuite, les éditeurs et utilisateurs seraient encouragés à afficher ces labels pour renforcer la crédibilité et l’éthique des images publiées.

Cette démarche nécessite une collaboration entre développeurs, médias et décideurs pour promouvoir une transparence partagée et restaurer la confiance dans notre environnement visuel quotidien.

En résumé, face à la montée des images truquées, l’instauration d’un cadre clair et éthique avec des labels de manipulation est une étape cruciale pour préserver notre capacité à discerner le vrai du faux.

👉 Source ici

A lire ensuite