Experten diskutierten bei einer Podiumsdiskussion des BJV über immer komplexere Bild- und Sprachmanipulationen
Dass sich Bilder manipulieren lassen, wissen nicht nur diejenigen, die Photoshop nutzen. Seit der Erfindung der Fotografie werden Köpfe ausgetauscht oder unliebsame Personen aus Bildern entfernt. Julian Wörmann, Experte für Maschinelles Lernen vom „fortiss Forschungsinstitut für softwareintensive Systeme und Services“, veranschaulichte das in seinem Impulsvortrag anhand von Fotos von Abraham Lincoln und Josef Stalin.
Was Journalisten wissen sollten
Der Bezirksverband München-Oberbayern und die Fachgruppe Online des BJV hatten mit dem Internationalen PresseClub München sowie der Technisch-Literarischen Gesellschaft (TELI) in Zusammenarbeit mit „fortiss“ zur Podiumsdiskussion „Von Fake News zu Deep Fake: totale Bild- und Sprachmanipulation – was Journalisten wissen sollten“ geladen. Mit Wörmann saßen im Anschluss auf dem Podium: sein fortiss-Kollege Hao Shen, Wissenschaftsjournalist und TELI-Vorstandsmitglied Wolfgang C. Goede, Sonja Kretzschmar, Professorin für Innovation im Journalismus an der Universität der Bundeswehr in München, und Johanna Wild, Onlinejournalistin und Begründerin der Fact-Checking-Agentur „Wafana“. Der Technologie-Journalist und TELI-Vorsitzende Arno Kral moderierte.
Mit Künstlicher Intelligenz, erklärte Wörmann, stünden für Manipulationen nun viel effektivere Methoden bereit – und sie würden ständig besser. Denn Programme nutzten zwei künstliche neuronale Netze, die sich gegenseitig trainieren (Generative Adversarial Networks: GAN). Eines erzeuge etwa das Bild eines Menschen, das zweite unterscheide zwischen realem und „gefaktem“ Bild. Das erste Netzwerk lerne anhand einer riesigen Menge Daten so täuschend echte Mimik und Mundbewegungen etwa eines Menschen zu erzeugen, dass das zweite Netzwerk nicht mehr unterscheiden könne.
Die Technologie, die Deep Fakes möglich macht, soll eigentlich Positives bewirken, etwa die Bildqualität bei Videokonferenzen verbessern oder Stimmgeschädigten eine realistische Stimme geben. Neu sei nun aber die Perfidie, mit der etwa Politikern falsche Äußerungen in den Mund gelegt oder Gesichter von Prominenten in Pornovideos montiert werden könnten, führte Moderator Kral aus und fragte, welche Kompetenzen Journalisten benötigten, um die Spreu vom Weizen zu trennen.
Die Professorin Sonja Kretzschmar sieht Journalisten in der Verantwortung, stärker zu hinterfragen, welche politischen Interessen hinter Veröffentlichungen von Deep Fakes stecken könnten. Sie plädierte für eine Verzahnung mit Technik und Wissenschaft, die selbst nicht nur für die technischen Neuentwicklungen zuständig seien, sondern auch dafür zu vermitteln, welche positiven und negativen Anwendungsmöglichkeiten sich aus den zum Teil kostenlos verfügbaren Programmen ergäben. Konzerne wie Facebook, die die Macht über riesige Datenmengen besäßen, seien im Zugzwang, ethische Regeln für den Umgang damit aufzustellen.
Faktencheckerin Johanna Wild führt ihre Schulungen für Journalisten und Lehrende mit öffentlich zugänglichen Überprüfungs-Tools durch. Sie sieht Potenzial in Anwendungen, die Fotos und Videos mit „Wasserzeichen“ als verifiziert kennzeichnen können und weist darauf hin, Material immer auch in einen inhaltlichen Kontext einzuordnen, um die Echtheit zu prüfen.
Auch mündiger Bürger in der Pflicht
Wissenschaftsjournalist Wolfgang Goede nimmt die „mündigen Bürger“ in die Pflicht, Nachrichten, Bild- und Tonmaterial vor der Weitergabe auch selbst zu prüfen, sonst seien sie Teil des betrügerischen Kreislaufs. Hierzu brauche es freilich mehr Medienkompetenz bei allen Beteiligten.
Eine einzige Technologie, die Deep Fakes erkennen oder gar abwehren könne, sei nicht in Sicht, sagte Hao Shen. Er war sich mit den Podiumsteilnehmern einig, dass eine intensivere interdisziplinäre Zusammenarbeit aller Kommunikationsakteure notwendig sei.
Von Anette Kolb
Dieser Beitrag erschien zuerst im BJVreport 4/2019 des Bayerischen Journalisten-Verbands.