L'intelligence artificielle révèle un défaut structurel majeur, générant des informations trompeuses qui semblent précises. Cela suscite de vives inquiétudes dans les domaines du droit, de la médecine et de l'économie.
Dans un incident marquant, un avocat a utilisé un modèle d'intelligence artificielle pour préparer une plaidoirie, recevant des réponses soutenues par des décisions judiciaires et des dates. Cependant, la surprise est venue du fait que la moitié de ces décisions n'existaient pas, soulignant le danger de s'appuyer sur cette technologie sans vérification.
Détails de l'incident
Des entretiens ont été menés avec quatre des modèles d'intelligence artificielle les plus connus, tous reconnaissant un problème de précision. Le modèle Claude a indiqué qu'il fournissait parfois des réponses inexactes en raison de la combinaison d'informations provenant de multiples sources, tandis que le modèle Grok a confirmé qu'il génère la réponse la plus probable, et non la plus exacte. Ces aveux soulèvent des questions sur la fiabilité de ces systèmes pour prendre des décisions importantes.
Des études montrent que l'intelligence artificielle ne recherche pas l'information comme le fait un humain, mais génère des mots basés sur des probabilités statistiques, ce qui conduit à la création d'informations trompeuses. Des recherches du Massachusetts Institute of Technology (MIT) en 2025 ont montré que les modèles utilisent un langage plus confiant à hauteur de 34% lorsque l'information est inexacte.
Contexte et arrière-plan
Les inquiétudes concernant l'impact de l'intelligence artificielle sur l'économie mondiale augmentent, avec des pertes financières liées aux hallucinations de l'intelligence artificielle estimées à 67,4 milliards de dollars en 2024. Une étude de l'Université de Stanford a révélé que 75% des réponses juridiques fournies par ces modèles contiennent des informations trompeuses, suscitant de vives inquiétudes dans les couloirs des tribunaux.
Le chercheur français Damien Charlot a observé une augmentation significative des cas d'hallucinations juridiques, les cas passant de deux par semaine à deux ou trois par jour. Cette tendance met en lumière la nécessité urgente de développer des normes précises pour l'utilisation de l'intelligence artificielle dans des domaines sensibles.
Conséquences et impact
Les conséquences de ce phénomène dépassent les tribunaux, les statistiques indiquant que 42% des décisions financières basées sur l'intelligence artificielle sont révisées en raison d'hallucinations, et 22% des étudiants reçoivent des informations trompeuses de la part d'assistants d'intelligence artificielle. Ces chiffres reflètent une crise de confiance dans les systèmes censés faciliter nos vies.
Lors de la conférence NeurIPS 2025, il a été découvert que plus de 53 articles scientifiques contenaient des références entièrement inventées, soulignant comment les mensonges peuvent entrer dans le registre scientifique officiel. Ce phénomène constitue une menace pour la connaissance scientifique et souligne la nécessité de vérifier les informations avant de les adopter.
Impact sur la région arabe
Dans la région arabe, les risques se multiplient en raison de la dépendance à des modèles d'intelligence artificielle souvent formés sur du contenu en anglais. Cela augmente la probabilité d'erreurs, un étudiant pouvant obtenir des références inventées avec des noms arabes, ou un patient un diagnostic médical inexact. Cette vulnérabilité nécessite une discussion sérieuse pour éviter des conséquences graves.
L'intelligence artificielle est aujourd'hui un outil en cours de maturation, et elle doit être abordée avec prudence. Bien que certains modèles aient réalisé des progrès notables dans la réduction du taux d'hallucinations, la question la plus importante demeure : comment pouvons-nous garantir l'exactitude des informations fournies par ces systèmes ?
