Wenn Bilder lügen
Kaninchen, Bären oder Katzen hüpfend auf einem Trampolin: Solche von künstlicher Intelligenz generierten Videos und Bilder kursieren immer öfter in WhatsApp-Gruppen oder auf Social-Media. Im Rahmen der Ausstellung «True Picture», die junge Fotojournalist:innen fördert, haben angehende Polygraf:innen mit Senior:innen über das Erkennen von Fake-Bildern diskutiert.
Schon nach wenigen Minuten ist der Austausch lebhaft, die ältere Generation stellt viele Fragen zu den ausgewählten KI-Bildern. Auf einem Bild steht ein Swiss-Flugzeug im Schnee und es ist schwierig herauszufinden, ob es echt ist oder nicht. Eigentlich könne man nur als Profi draufkommen, erklären zwei Schülerinnen. Die kleinen Lichter am Flügel dürften bei einem Flugzeug im Stand nicht leuchten. «Wie soll man denn sowas wissen?», fragt Daniel (76) und schüttelt den Kopf. Beim nächsten Beispiel wird es deutlich einfacher: auf einem Trampolin hüpfen Kaninchen umher und es sieht irgendwie verschwommen aus. «Aber warum publiziert man sowas?», fragt sich eine ältere Frau.
«Es geht um Aufmerksamkeit», weiss Pascal Nufer, Dozent an der ZHAW, Mitglied des WNTI-Beirats und ehemaliger SRF-Korrespondent in China. Lustige KI-Videos oder Bilder sollen Nutzende möglichst lange auf Social-Media halten. Im Endeffekt geht es ums Geld, also um Werbung, die man schalten kann. Und wie SRF News berichtete, haben Google und Meta wenig Interesse daran, wirklich etwas dagegen zu unternehmen. Denn auch die Big Tech-Konzerne verdienen an den Falschinformationen mit. Durch Instagram, Tiktok, Facebook, WhatsApp und Co. kann heute jede und jeder ungefiltert (Falsch-)Informationen verbreiten. Journalistische Redaktionen, die entscheiden, was in einer Zeitung oder im Fernsehen gemeldet wird, fallen dadurch weg. «Wir alle müssen deshalb heute Verantwortung übernehmen und diese Triage von falschen und echten Bildern selbst übernehmen», sagt Pascal Nufer.
Richtig gefährlich wird es dann, wenn es um politische Inhalte geht. Eine Frau erzählt, dass sie ein Video zu den ICE-Razzien in den USA bereits vielfach geteilt habe, bis jemand meinte, das sei KI. Das sei ihr danach sehr unangenehm gewesen. Die Episode zeigt, dass ältere Menschen durchaus mit KI-generierten Inhalten konfrontiert sind, auch wenn sie keine klassischen Social-Media-Konten haben. Auch auf WhatsApp werden rege KI-Videos und Bilder ausgetauscht. Am besten weise man darauf hin, wenn man ein Video erhält, das einem nicht echt erscheine, sagt Nufer. «Wichtig ist auch immer der politische Kontext. Macht es Sinn, wie etwas abgebildet ist?»
Die zehn Schüler:innen von Berufsschulelehrerin Barbara Köppel haben sich nicht das erste Mal mit Fake News auseinandergesetzt. Sie widmeten sich dem Thema an der Schule für Gestaltung am GBS St. Gallen bereits in verschiedenen Workshops. Trotzdem konnten am Anlass nicht nur die Senior:innen vom Wissen der Jüngeren profitieren. Bei Kaffee und Kuchen entstand ein munteres Gespräch zwischen den Altersgruppen. «So etwas müsste man mehr machen. Es bestehen auf beiden Seiten Vorurteile, zum Beispiel, dass wir Alten nicht drauskämen oder dass die Jungen immer nur auf Social Media sind», sagt Elsbeth (72) nach dem Anlass. Und Samira (18) ergänzt: «Wir haben gemerkt, dass sich die Älteren auch schon viele Gedanken dazu gemacht haben. Sie sind nicht einfach total uninformiert über Fakes».
«Wir müssen lernen, in den Bildern auf Details zu achten.»
Daniel (76)
Die Organisatoren Pascal Nufer und Manuel Bauer sind zufrieden. «Wir wollten so den Wert journalistischer Arbeit zeigen», meint Nufer. Das sei gelungen. «Wir hoffen, dass wir nächstes Jahr drei bis vier solche Anlässe durchführen können».