Die Figur Jessica Foster, die sich als US-Soldatin präsentiert, hat in der digitalen Welt große Kontroversen ausgelöst, nachdem sie in nur vier Monaten über eine Million Follower auf Instagram gewonnen hat. Foster trat in einer Reihe von Bildern auf, in denen sie die Uniform der US-Armee trägt und neben Kampfflugzeugen steht, darunter der berühmte "F-22 Raptor", was sie zu einer einzigartigen Figur in den Gedanken ihrer Anhänger machte. Untersuchungen haben jedoch später ergeben, dass Foster nur ein Produkt von Künstlicher Intelligenz ist, da es keine Aufzeichnungen gibt, die belegen, dass sie im Militärdienst war, was Fragen zur Glaubwürdigkeit der Inhalte auf Social-Media-Kanälen aufwirft.
Dieses Phänomen spiegelt ein breiteres Problem wider, bei dem fiktive und nicht reale Charaktere eingesetzt werden, um menschliche Emotionen auszunutzen und Aufmerksamkeit über soziale Plattformen zu erregen. Rechte Konten tragen zur Verbreitung dieser Figuren bei, um bestimmte politische Ziele zu verfolgen, Follower zu gewinnen, das Engagement zu erhöhen und materielle Gewinne zu erzielen. Viele Fälle betreffen militärische oder politische Figuren, die eng mit Entscheidungsträgern verbunden sind. Im Fall von Jessica Foster hat ihr Auftreten in sensiblen Kontexten, wie Militärschlägen gegen den Iran, zur Kontroverse beigetragen.
Obwohl es keine Kennzeichnungen für solche Figuren gibt, glauben viele Kommentatoren, dass diese Darstellungen reale Personen sind, was ihre Anhängerschaft verstärkt. Jessica Foster hat regelmäßig auf aktuelle Ereignisse reagiert, sie tauchte sogar in einem Bild auf einem Militärschiff in der Straße von Hormuz auf, was die Aufmerksamkeit auf ihr Profil verstärkt hat.
Die US-Armee hat jegliche Existenz einer solchen Soldatin bestritten, und die Besorgnis wächst, dass die Nutzung von Künstlicher Intelligenz zur Schaffung fiktiver Charaktere zu Informationskriegen führen könnte, bei denen irreführende Konten verwendet werden, um politische Propaganda zu verbreiten. In diesem Zusammenhang sieht Sam Gregory, der Geschäftsführer von "Witness", dass diese gefälschten Charaktere zur Verzerrung von Wahrheiten und zur Verdrängung der öffentlichen Diskussion beitragen können.
Die Krise zeigt sich in verschiedenen Aspekten, wobei Joan Donovan von der Boston University darauf hinweist, dass diese Konten aufgrund der einfachen Erstellung und Diagnostizierbarkeit durch KI-Technologien in die Höhe schnellen. Forscher warnen, dass mangelnde Transparenz in Bezug auf diese Figuren das Vertrauen in die im digitalen Raum verbreiteten Informationen untergraben könnte, was öffentliche Diskussionen, die auf Fakten und korrekten Informationen basieren, behindert.
In einem ähnlichen internationalen Kontext haben wir zahlreiche Fälle erlebt, in denen Technologie genutzt wurde, um gefälschte Inhalte für propaganda Zwecke zu erzeugen. Dies führt uns zu der Erkenntnis, dass die arabische Region nicht von diesen Phänomenen isoliert ist. Es gab eine Verbreitung von gefälschten und irreführenden Konten in der Region, die genutzt werden, um bestimmte Diskurse zu fördern, die den Frieden und die Sicherheit beeinträchtigen könnten.
Die aktuelle Situation erfordert eine genaue Überwachung und ein Verständnis der neuen Methoden zur Ausnutzung des digitalen Raums sowie die Notwendigkeit, nachhaltige Strategien zur Bekämpfung von Fehlinformationen zu entwickeln. Das Vertrauen auf Künstliche Intelligenz ohne angemessene Kontrollen kann ein gefährliches Umfeld für die Gesellschaft schaffen, was ein kollektives Bewusstsein erfordert, um die zahlreichen umgebenden Risiken anzugehen.
