**Pourquoi le public fait davantage confiance aux conseils juridiques de ChatGPT qu’à ceux des avocats**
De plus en plus intégrés à notre quotidien, les outils d’intelligence artificielle comme ChatGPT, capables de générer des conseils juridiques, suscitent un intérêt croissant. Une récente étude révèle cependant une tendance surprenante : les personnes non expertes en droit semblent plus enclines à faire confiance aux conseils fournis par ChatGPT qu’à ceux émanant de véritables avocats, surtout lorsqu’elles ne savent pas qui est l’auteur de ces conseils.
**L’engouement pour les conseils juridiques générés par l’IA**
Les modèles de langage comme ChatGPT promettent des réponses rapides et précises dans de nombreux domaines, y compris le droit. Ils peuvent aider à comprendre des questions juridiques simples, identifier des options ou orienter vers des sources d’information. Pourtant, ces outils produisent parfois ce que l’on appelle des « hallucinations » : des informations erronées ou incohérentes présentées avec assurance. Cela pose un risque, car les utilisateurs ont du mal à distinguer un bon conseil d’un mauvais, surtout lorsque l’information semble crédible.
**Des résultats d’études révélateurs**
Dans trois expériences menées auprès de 288 participants, les chercheurs ont comparé la confiance accordée à des conseils juridiques provenant soit d’un avocat soit de ChatGPT. Lorsque les participants ignoraient la source, ils se fiaient davantage aux conseils issus de l’IA. Même quand l’origine du conseil était révélée, l’IA était suivie presque autant que les avocats. Une explication avancée est que ChatGPT utilise un langage plus complexe, ce qui peut sembler plus convaincant, alors que les avocats ont tendance à être plus clairs mais plus longs.
Les participants ont également montré une capacité limitée à différencier les conseils humains de ceux générés par l’IA, avec un niveau de discernement à peine supérieur au hasard, suggérant que l’interface de l’IA est souvent très convaincante.
**L’importance de la régulation et de l’éducation à l’IA**
Alors que les systèmes d’intelligence artificielle s’immiscent dans des domaines sensibles comme le juridique, la médecine ou le commerce, le risque d’erreurs aux conséquences graves augmente. L’Union européenne travaille déjà sur une réglementation, notamment à travers l’AI Act, qui impose que les textes produits par des IA soient identifiables comme tels.
Mais la réglementation ne suffit pas. L’étude souligne aussi la nécessité de renforcer la culture numérique et la littératie autour de l’IA pour permettre au grand public de mieux comprendre les limites et les risques.
Il est primordial d’apprendre à interroger la source des conseils, recouper les informations, et faire preuve de jugement critique. Cela implique aussi d’intégrer systématiquement les experts humains pour valider les informations importantes, notamment dans le cas de conseils juridiques ayant des implications concrètes.
**Conclusion : utiliser l’IA de manière responsable**
L’intelligence artificielle peut être un allié précieux pour répondre à des questions initiales ou pour orienter les recherches juridiques. Toutefois, elle ne doit pas se substituer à un avis d’expert qualifié, surtout avant des décisions cruciales. L’équilibre entre régulation adaptée et éducation au numérique est la clé pour profiter des avantages de l’IA tout en minimisant ses risques.
👉 **Source ici**