HMS - BLOG

JOURNALISM INNOVATORS PROGRAM

Wie Künstliche Intelligenz mehr Ethische Intelligenz in Redaktionen bringen kann

von PROF. DR. ALEXANDRA BORCHARDT am 18.12.2020

202009 Alexandra Borchardt 2

Wie Künstliche Intelligenz funktioniert, das kennt man ja. „Kunden, die xy gekauft haben, mochten auch yz.“ Zumindest ist das die Art von KI, auf die man als Nutzer*in von Amazon, Spotify und allerlei digital ausgespielter Werbung trainiert ist. Heraus kommt immer mehr vom Ähnlichen, so dass man sich irgendwann fragt, welche Art Welt an einem wohl vorbeiziehen mag, während man so vermeintlich gut versorgt durch seine Konsument*innen-Blase schwebt. In Erinnerung bleibt die Anekdote, die eine Medien-Forscherin erzählte. Wie die Managerin eines Plattform-Unternehmens aus dem Silicon Valley sie verständnislos angeschaut habe, als sie von einem Chefredakteur*innen-Workshop sprach. Wozu man diese Rolle denn künftig noch brauche, das übernehme doch alles die Software?

Vor einem Journalismus, der so verstanden werden würde, kann es einem nur grausen. Aber nach anfänglichen Berührungsängsten („nichts geht über uns und unser Bauchgefühl“) hat sich die Debatte unter Medienschaffenden und -Wissenschaftlern, die sich ernsthaft mit den Potentialen von KI für die Branche beschäftigen, in eine gänzlich andere Richtung entwickelt. Mittlerweile geht es darum, wie man den Journalismus mithilfe von Software nicht nur stärken, sondern insbesondere ethischer machen kann. So wie die Emotionale Intelligenz (EI) den Begriff der Intelligenz erweitert hat, sollte also eine Ethische Intelligenz die KI ergänzen, man könnte sie EthI nennen.

Der erste Schritt dahin ist, es zu wollen. Der Bayerische Rundfunk ist dabei kürzlich vorgeprescht: Er hat sich Richtlinien für eine ethische KI verordnet, zehn Prinzipien, auf deren Grundlage entsprechende Software im eigenen Haus entwickelt und angewandt werden soll. Es lohnt sich, die Grundsätze zu lesen, denn sie lassen sich auch auf den Journalismus insgesamt anwenden. Es geht um den verantwortungsvollen Einsatz von Ressourcen, bestmögliche Transparenz und Debatte, Kooperationen und begleitende Evaluation. Anders als bei den von Facebook und Co. verordneten Black Boxes, die nur sehr wenig preisgeben über die Algorithmen, nach denen sie funktionieren, möchte der BR wissen, mit welchen stereotypischen Annahmen Software möglicherweise gespickt ist. Und die Kolleg*innen wollen die Spielregeln selbst bestimmen, im Verbund mit anderen. Ziel ist ein Journalismus, der endlich die Standards erfüllt, die sich Redaktionen oft selbst gesetzt haben, an denen sie aber ebenso oft gescheitert sind. Es geht um Vielfalt und Repräsentation. Der Mehrwert für die Nutzer*innen muss im Mittelpunkt stehen.

Diese Grundprinzipien sind – ganz im Geist der Kollaboration – nicht in einem Chefbüro entstanden. Uli Köppen, Teamleiterin beim BR, arbeitet im Journalism and AI Project der London School of Economics mit, einer internationalen Kooperation von klugen Köpfen aus dem Journalismus, die sich medienübergreifend mit den Potenzialen und Risiken von KI für die Branche auseinandersetzen. Man lernt dort gemeinsam und voneinander, probiert aus, trägt zusammen, verwirft Nutzloses und feiert Erfolge. Das hat den Vorteil, dass nicht jede Organisation die gleichen Fehler machen und Erfolgsgeschichten entwickeln muss. Den bitteren Konkurrenzkampf, den sich Medienhäuser und einzelne Titel jahrzehntelang geliefert haben und noch liefern, haben die Weitblickenden unter den Journalist*innen und Medienmanager*innen hinter sich gelassen. Sie wissen: Die größte Konkurrenz sitzt überall dort, wo man sich bewusst und unbewusst längst angeschickt hat, Qualitätsjournalismus feindlich zu übernehmen.

Beim „Journalism and AI Festival“ mit seinen 15 Panels wurde kürzlich deutlich, welche vielfältigen Möglichkeiten in der KI für den Journalismus stecken, aber auch, dass die Entwicklung noch ziemlich am Anfang steht (alle Panels lassen sich hier
nachhören). Auch das ist gut. Noch lässt sich vieles gestalten. Redaktionen, die sich jetzt nicht mit dem Thema beschäftigen, sollten später nicht sagen, ein Trend habe sie überrollt.

Natürlich birgt die KI auch Gefahren. Verleger*innen unter Kostendruck könnten deren Potenziale nicht für den Journalismus sondern allein als Sparprogramm nutzen. Das Abschöpfen und Interpretieren von Daten könnte aus dem Ruder laufen, exzessive Personalisierung dazu führen, dass Journalismus trennt, statt Gemeinschaft zu stiften. Sehr real ist die Gefahr eines neuen Überangebots. Vor lauter Freude an dem, was technisch möglich ist, mag so manche Redaktion über das Ziel hinausschießen und Nutzer*innen mit allem bombardieren, was sie schon gestern nicht wollten. Dabei muss Journalismus vor allem das: Orientierung bieten. Wäre doch erstaunlich, wenn KI dabei nicht helfen könnte. Allerdings nach Regeln, die von Journalist*innen gestaltet werden.