Thursday, May 01, 2025

Mehrwert für Manager

Ticker

Propaganda, Desinformation und Plagiarismus: AI wird zunehmend zur Gefahr für demokratische Gesellschaften.

Bild: iStock


»Slop«, zu Deutsch »Schmutzwasser«, so nennen Kritiker*innen den sekündlich wachsenden Output an AI-generierten Texten und Bildern, der uns auf Social Media und im Internet umspült. Dass manche Antworten der AI-Suchassistenten von Googles Gemini, ChatGPT, Copilot & Co. euphemistisch ausgedrückt »Halluzinationen« und damit nicht korrekt sind, ist altbekannt; in welchem Ausmaß die in der Studie getesteten AIs im Brustton der Überzeugung schlicht Unsinn ausspucken, ist dennoch erschütternd.

Eine aktuelle Studie des Tow Center for Digital Journalism ergab, dass die AI in 60 Prozent der Fälle falsche Ergebnisse liefert und besonders schlecht darin sei, korrekte Quellenangaben für die gelieferten Antworten zu geben. Demgegenüber steht das Vertrauen einer leichtgläubigen Nutzerschaft: Ein Viertel aller US-amerikanischen NutzerInnen verwendet die AI-Modelle als Alternative zu klassischen Suchmaschinen. Die russischen Meister der systematischen Desinformation konzentrieren sich deshalb jüngsten Erkenntnissen des US-Factcheckers NewsGuard zufolge vermehrt auf diese: Ein staatlich finanziertes Moskauer Netzwerk hat sich darauf spezialisiert, die globalen AI-Modelle durch Publikation gezielter Fehlinformation und Propaganda direkt zu beeinflussen.  Eine aktuelle Studie kam zum Ergebnis, dass in einem Drittel der Fälle die Antworten der zehn führenden AI-Chatbots zu relevanten Themen, etwa zum Krieg in der Ukraine, direkt auf so gestreuten russischen Fehlinformationen basierten.

Dazu kommt, dass »AI-Slop« längst auch die Arbeit klassischer Suchmaschinen drastisch behindert – und das sowohl auf Text- wie auch auf Bildebene. Das geht von klassischen Deepfakes prominenter Menschen bis hin zu beliebigem anderen Referenzbildmaterial, das etwa in der Googles Bildersuche zunehmend von AI-generierten Bildern verdrängt wird.

Propaganda-Tool
Die dunkle Seite der AI-Bildproduktion geht aber über gefälschte Bilder von Promis und Plagiarismus von KünstlerInnen hinaus. Längst hat sich ein florierendes Geschäft mit AI-Pornografie etabliert, das auch in Sachen sexualisierte Darstellung von Kindern und Jugendlichen mehr als problematisch ist. Anfang Februar hat die britische Regierung in einem Pioniergesetz den Besitz, die Erschaffung oder Verbreitung von AI-Tools, die zur Generierung derartiger illegaler Materialien gedacht sind, mit bis zu fünf Jahren Gefängnisstrafe sanktioniert.

Auch autoritäre politische Strömungen und Extremisten nutzen AI-Bilder überdurchschnittlich oft für Propagandazwecke: Bilder von Flüchtlingshorden, die Europäer bedrohen, oder umgekehrt von blonden, klassisch »arisch« anmutenden Modellfamilien werden seit längerem etwa von Gruppierungen wie den »Identitären« oder der deutschen AfD verwendet. Auch Donald Trump hat wiederholt AI-generierte Bilder und Filme seinen Millionen Followern auf Truth Social gezeigt, erst vor kurzem sorgte ein Clip einer Vision des Gaza-Streifens als futuristische Riviera für weltweite Empörung.

»Slopaganda«, so nennen die Politikwissenschafter Michal Klincewicz, Mark Alfano und Amir Fard das Phänomen in einer neuen Studie. Eine neue Ästhetik des Faschismus sei hier im Entstehen, so die Warnung. Ob die Heilsversprechen der AI-Apologeten jemals wahr werden, ist ungewiss. Die negativen Auswirkungen der Technologie sind hingegen längst allgegenwärtig.