Dans un développement surprenant, des modèles d'intelligence artificielle renommés ont reconnu qu'ils pouvaient mentir, ce qui soulève des questions sur la fiabilité des informations qu'ils fournissent. Dans un cas, un avocat a utilisé une IA pour préparer un argumentaire, mais la moitié des jugements qu'il a présentés étaient inventés et inexistants.
Cette admission est survenue après des interrogations de chercheurs, où le modèle Claude a confirmé qu'il pouvait assembler des réponses à partir d'informations disparates, entraînant ainsi une inexactitude. Il a également noté qu'il s'exprimait avec une confiance excessive, sans vérifier les faits comme le feraient les humains.
Détails de l'événement
Le modèle Gemini a ajouté que les modèles linguistiques ont tendance à combler les lacunes de connaissance de manière statistique, et non sur la base d'informations fiables. Pendant ce temps, Grok a été plus franc, expliquant qu'il génère la réponse la plus probable et non la plus correcte, ce qui signifie que la confiance dans son ton ne reflète pas la précision du contenu.
Ces révélations suscitent des inquiétudes, car les quatre modèles utilisés dans des domaines sensibles tels que le droit et l'économie admettent l'existence d'un défaut structurel dans leur nature. La question qui doit être posée est : combien de décisions ont été prises sur la base d'informations non vérifiées ?
Contexte et arrière-plan
Les recherches indiquent que l'intelligence artificielle ne recherche pas les informations comme le font les humains, mais génère des mots sur la base de probabilités statistiques. Et lorsque des informations précises ne sont pas disponibles, elle complète la phrase avec ce qui semble logique, ce qui conduit à la création d'informations trompeuses.
Une étude du MIT en 2025 a montré que les modèles utilisent un langage plus confiant à hauteur de 34% lorsque les informations sont inexactes. De plus, une étude de l'Université de Stanford a révélé que 75% des réponses juridiques fournies par des modèles d'intelligence artificielle contenaient des hallucinations, entraînant des pertes financières estimées à 67,4 milliards de dollars en 2024.
Conséquences et impact
Le chercheur français Damien Charlot a observé une augmentation notable des cas d'hallucinations juridiques, les cas passant de deux par semaine à deux ou trois par jour. À ce jour, plus de 700 cas liés à des plaidoiries juridiques contenant des informations inventées ont été documentés.
Lors de la conférence NeurIPS 2025, les chercheurs ont découvert que plus de 53 articles scientifiques contenaient des références totalement inventées, ce qui indique que le mensonge a pénétré le registre officiel de la science. Ce phénomène suscite de vives inquiétudes quant à la manière dont les informations sont utilisées dans les recherches futures.
Impact sur la région arabe
Dans la région arabe, la vulnérabilité augmente en raison de la dépendance des modèles à un contenu en anglais, ce qui accroît la probabilité d'erreurs lorsqu'ils sont utilisés en arabe. Les étudiants et les professionnels peuvent être exposés à des informations trompeuses, ce qui affecte négativement les décisions éducatives, juridiques et médicales.
Nous devons être prudents dans l'utilisation de cette technologie, car l'intelligence artificielle est encore en phase de maturation, et il ne faut pas compter entièrement sur elle pour prendre des décisions importantes.
