Prof. Mario Haim (Foto: Marcus Klose, drehscheibe)
Das große Thema des Forums, die Verwendung von KI in Lokalredaktionen, beschäftigt auch die Wissenschaft. Im vorletzten Vortrag am Freitag stellte Mario Haim (Professor für Kommunikationswissenschaft und Medienforschung an der Ludwig-Maximilians-Universität München) erste Ergebnisse aus seiner aktuellen Forschung vor.
Eine so neue Entwicklung wie KI im Lokaljournalismus zu untersuchen, ist auch in der Journalismusforschung ein Novum. Früher habe sich die Forschung „posthoc“ damit beschäftigt, wie Neuerungen in der Branche aufgenommen wurden, erklärte Haim. „Heute setzen wir früher im Prozess an.“ Haim ist Leiter eines Forschungsprojekt, das KI-Anwendungen in Lokalredaktionen begleitet.
Verantwortungsvolle KI
„KI im Lokaljournalismus ist ein sozio-technologisches Phänomen“, betonte Haim, also ein Zusammenspiel von Sozialem (Redaktion) und Technik (KI). Die zentrale Voraussetzung für die Erforschung solcher Phänomene sei Transparenz, doch genau darin liege in diesem Fall das Problem: KI als einflussreiche (teil-)automatisierte Maschine sei nicht transparent. Die Forscherinnen und Forscher haben sich deshalb zum Ziel gesetzt, anwendungsbezogene Prinzipien für eine verantwortungsvolle (responsible) KI zu definieren. Also eine KI, die ethischen Standards und professionellen Werten entspricht. Daraus leitet sich auch der Name des Projekts ab: „Towards responsible AI for local journalism”.
„Die Leute aus den Redaktionen sind auf dem Spielfeld, und wir holen Experten an den Spielfeldrand, die sie unterstützen“, schilderte Haim das Konzept. Zu dem interdisziplinären Team gehören Forscher aus den Bereichen Journalismusforschung, Kommunikationswissenschaft, Recht, Ethik, Informatik Computerlinguistik und Innovationsmanagment.
Evaluieren, definieren, brainstormen, testen
Am Anfang des Prozesses steht eine gemeinsame Bestandsaufnahme: Wo könnte KI in der Redaktion eine Rolle spielen? Welche Herausforderungen und Chancen gibt es? Im nächsten Schritt werden in Workshops die verschiedenen Aspekte gewichtet, um die brennendsten Probleme zu benennen und Qualitätsstandards festzulegen. In der Mediationsphase werden dann zusammen mit den Expertinnen und Experten Lösungen erarbeitet, die diese anschließend in einen Prototyp umsetzen und diesen wiederum mit der Redaktion testen. Alle Schritte werden je nach Bedarf mehrmals wiederholt.
Haim nennt ein Beispiel aus dem Projekt: Fact-Checking im Tagesgeschäft. Dabei ging es der Redaktion zum einen darum, KI-generierte Texte oder Bilder besser zu erkennen, zum anderen aber auch, Informationen mit Hilfe von KI zu verifizieren. Am Ende des Prozesses stand die Idee einer semi-automatisierten Datenbank, in die Texte, Bilder oder Posts eingefügt werden können. Die KI prüft dann zum Beispiel, ob das Bild schon an anderer Stelle aufgetaucht ist, ob es Hinweise auf KI-Manipulation gibt oder was über die Person in sozialen Medien zu finden ist. Die Datenbank soll auch manuell ergänzt werden können. Das heißt: Die KI assistiert nur, die endgültige Bewertung und Entscheidung trifft der Mensch.
Als Redaktion mitmachen
Das Projekt läuft bis noch 2025. Bisher könne man sagen: „Es gibt ein starkes Interesse an der Zusammenarbeit zwischen Wissenschaft und Industrie und eine große Experimentierfreude“. Im Redaktionsalltag gebe es aber oft wenig Zeit für Innovationsprozesse, klare Anforderungen kämen etwa aus der Notwendigkeit, wirtschaftlich zu agieren. Auch gebe es Vorbehalte, etwa beim Thema Datenschutz oder bei der Integration in bestehende Systeme. Der Fokus liege vor allem auf unterstützenden Maßnahmen wie Verschlagwortung oder Überschriftenoptimierung.
Wenn der Prototyp erfolgreich getestet ist, würden die Redaktionen das Tool am liebsten sofort einsetzen. „Das ist leider noch nicht möglich“, erklärt Haim. „Wir sind noch in der Forschung.“ Aber wer Lust hat, sich als Redaktion an dem Projekt zu beteiligen, kann sich beim Forschungsteam melden.