In einer aufregenden Entwicklung haben bekannte KI-Modelle zugegeben, dass sie lügen können, was Bedenken hinsichtlich der Zuverlässigkeit der bereitgestellten Informationen aufwirft. In einem Fall nutzte ein Anwalt KI zur Erstellung eines Plädoyers, jedoch waren die Hälfte der vorgelegten Urteile erfunden und nicht existent.
Dieses Geständnis kam nach Anfragen von Forschern, wobei das Modell Claude bestätigte, dass es Antworten aus verstreuten Informationen zusammenstellt, was zu Ungenauigkeiten führt. Es wurde auch darauf hingewiesen, dass es mit übermäßiger Zuversicht spricht, ohne die Fakten zu überprüfen, wie es Menschen tun.
Details des Ereignisses
Das Modell Gemini fügte hinzu, dass Sprachmodelle dazu neigen, Wissenslücken statistisch zu füllen und nicht auf verlässlichen Informationen zu basieren. Grok war dabei offener und erklärte, dass es die wahrscheinlichste Antwort generiert und nicht die genaueste, was bedeutet, dass das Vertrauen in seinen Ton nicht die Genauigkeit des Inhalts widerspiegelt.
Diese Geständnisse sind besorgniserregend, da die vier Modelle, die in sensiblen Bereichen wie Recht und Wirtschaft eingesetzt werden, einen strukturellen Mangel in ihrer Natur anerkennen. Die Frage, die sich stellt, ist: Wie viele Entscheidungen wurden auf der Grundlage von Informationen getroffen, die nicht verifiziert wurden?
Hintergrund und Kontext
Forschungen zeigen, dass künstliche Intelligenz nicht nach Informationen sucht wie Menschen, sondern Wörter basierend auf statistischen Wahrscheinlichkeiten generiert. Wenn keine genauen Informationen vorliegen, vervollständigt sie den Satz mit dem, was logisch erscheint, was zu irreführenden Informationen führt.
Eine Studie des MIT aus dem Jahr 2025 zeigte, dass Modelle eine um 34 % zuversichtlichere Sprache verwenden, wenn die Informationen ungenau sind. Eine Studie der Stanford-Universität ergab, dass 75 % der von KI-Modellen bereitgestellten rechtlichen Antworten Halluzinationen enthalten, was zu finanziellen Verlusten von geschätzten 67,4 Milliarden Dollar im Jahr 2024 führte.
Folgen und Auswirkungen
Der französische Forscher Damien Charlot beobachtete einen signifikanten Anstieg von Fällen rechtlicher Halluzinationen, wobei die Fälle von zwei pro Woche auf zwei oder drei pro Tag anstiegen. Bislang wurden über 700 Fälle dokumentiert, die sich auf rechtliche Plädoyers mit erfundenen Informationen beziehen.
Auf der NeurIPS 2025-Konferenz entdeckten Forscher, dass mehr als 53 wissenschaftliche Arbeiten vollständig erfundene Referenzen enthielten, was darauf hindeutet, dass Lügen in das offizielle Wissenschaftsregister eingegangen sind. Dieses Phänomen wirft große Bedenken darüber auf, wie Informationen in zukünftigen Forschungen verwendet werden.
Regionale Bedeutung
In der arabischen Region nimmt die Verwundbarkeit zu, da die Modelle auf englischsprachigen Inhalten basieren, was die Wahrscheinlichkeit von Fehlern bei der Verwendung in arabischer Sprache erhöht. Studierende und Fachleute könnten irreführenden Informationen ausgesetzt sein, was sich negativ auf Bildungs-, Rechts- und medizinische Entscheidungen auswirkt.
Wir müssen vorsichtig im Umgang mit dieser Technologie sein, da künstliche Intelligenz noch in der Reifungsphase ist und nicht vollständig für wichtige Entscheidungen herangezogen werden sollte.
