Wenn Roboter dichten und berichten

03.12.2019
4/2019

Dank Künstlicher Intelligenz verwandeln Computer nüchterne Daten in lesbare Texte. Dabei steht die Technologie ganz am Anfang.

Immer in der Nacht kämpfte Viasuisse, eine Anbieterin für Verkehrsinformationen, mit Qualitätsproblemen. Regelmässig produzierte ein externer Partner, welcher den Nachtdienst abdeckte, nachlässig verfasste Verkehrsmeldungen. Deshalb entschied sich Geschäftsführer Marc Brönnimann vor zwei Jahren für eine neue Lösung: «Wir haben erkannt, dass robotergenerierte Texte gut daherkommen, deshalb haben wir versucht, damit konstant korrekte Produkte zu liefern.»

Nachts schreibt der Roboter über Falschfahrer und Staus

Anders als Viasuisse sind die Schweizer Medienhäuser bezüglich Roboterjournalismus noch im Experimentierstadium. Sie wollen herausfinden, wie sich mit Hilfe von Algorithmen Texte automatisch schreiben lassen. Tamedia und die Nachrichtenagentur Keystone SDA üben das anhand von eidgenössischen Abstimmungen.

Roboter bedienen Nischen

«Abstimmungen eignen sich gut, weil es viele strukturierte Daten gibt», sagt Titus Plattner, der bei Tamedia die Versuche leitet. Nach den Wahlen im Oktober war das System zuletzt im Einsatz und verfasste für jede der über 2000 Schweizer Gemeinden einen individuellen Wahlbericht. «Die Leserinnen und Leser nutzen die Berichte gerne, weil sie direkt ihren Wohnort betreffen», sagt Plattner.

Gegenwärtig schreiben Roboter nur in Nischenbereichen. Sie berichten über Quartalszahlen kleinerer Unternehmen, über Fussballspiele in Amateurligen oder eben Abstimmungsergebnisse zugeschnitten auf Gemeinden. «Innert Sekunden lassen sich tausende Texte realisieren, was für Menschen unmöglich wäre», sagt Stefan Trachsel, der ein entsprechendes Projekt bei Keystone SDA bis Oktober geleitet hatte.

Dass Automatisierung in diesen Nischen Jobs von Journalisten unmittelbar gefährdet, zeichnet sich nicht ab.

Eher das Gegenteil ist der Fall: Die automatisierten Abstimmungsberichte verursachen sogar zusätzlichen Aufwand. Schon Wochen vor einem Urnengang beraten die beteiligten Mitarbeiter, wie ein Bericht am Schluss aussehen sollte. «Eigentlich fischt man im Trüben, denn der Ausgang einer Abstimmung ist ja vorher unbekannt», sagt Trachsel.

Algorithmus verschweisst Daten zu Text

«Ein grosser Teil der Arbeit ist die Konzeption der Datenbank», sagt Plattner von Tamedia. Um die Berichte attraktiver zu machen, reichern er und seine Kollegen die Abstimmungsdaten mit früheren Ergebnissen und Informationen zu den einzelnen Gemeinden an. In einem weiteren Schritt formulieren sie Textbausteine und dazugehörige Regeln für den späteren Bericht. Plattner nennt ein Beispiel zu den vergangenen Wahlen: «Ab wann spricht man davon, dass eine ‹grüne Welle› eine Gemeinde überrollt? Ab wann ist es ein ‹grüner Tsunami›? Das mussten wir uns bei den Vorbereitungen überlegen.»

Die Regeln und Formulierungen ergeben am Schluss einen Entscheidungsbaum, den das Team in einem Programm festlegt. Allein für den Titel der Wahlberichte gibt es 28 verschiedene Optionen. Am Tag der Publikation generiert der Computer dann anhand des Entscheidungsbaumes und der Daten automatisch die fertigen Berichte.

Vorerst bedeuten diese generierten Berichte ein zusätzliches Angebot neben den üblichen redaktionellen Inhalten. «Einfache automatisch erstellte Nachrichtentexte werden sicher zum Standard», sagt die Medienforscherin Edda Humprecht von der Universität Zürich im Interview (siehe weiter unten im Text). Irgendwann würden auch längere Texte möglich.

Bausteine machen Texte monoton

Noch sind längere automatisierte Texte aber mit grossem Aufwand verknüpft. Je länger sie sein sollen, desto mehr Vorarbeit der Redaktionen ist nötig, um Textbausteine und Entscheidungsbäume anzufertigen. «In einem guten System stecken hunderte Stunden von Arbeit», sagt Mark Cieliebak, Professor für Informatik an der ZHAW. Die regelbasierten Systeme, wie sie in der Praxis bereits eingesetzt werden, brauchen zudem eine ausreichend grosse und qualitativ gute Datengrundlage. «Sobald es aber um komplexe Themen und politische Debatten geht, scheitert das regelbasierte Verfahren.»

Nicht nur inhaltlich, auch stilistisch sind dem Computer Grenzen gesetzt. Da den automatisierten Berichten Textbausteine zugrunde liegen, fehlt sprachliche Abwechslung. Auf Anhieb springt das nicht ins Auge, doch wer regelmässig Texte des gleichen Systems liest, erkennt sich wiederholende Muster.

«Wir befinden uns in der automatischen Texterstellung bei ein, zwei Prozent, von dem was möglich ist», sagt Cieliebak. In der Forschung gibt es bereits fortgeschrittene Verfahren, bei denen der Computer einen Text Buchstabe für Buchstabe selbst schreibt. «Das liest sich wie ein menschengeschriebener Text, beinhaltet aber noch keinen sinnvollen Inhalt.»

Preisgekröntes Gedicht der Künstlichen Intelligenz

Dennoch findet diese natürliche Textgenerierung langsam ihren Weg in den Alltag. 2018 speiste eine österreichische Digitalagentur ein neuronales Netzwerk mit tausenden Gedichten. So schrieb die künstliche Intelligenz das Gedicht «Sonnenblicke auf der Flucht», welches sogar einen renommierten Wettbewerb gewann. Die Urheber wollten damit beweisen, dass künstliche Intelligenz mit der richtigen Inspiration auch kreativ sein kann.

Sonnenblicke auf der Flucht.

Auf der Flucht gezimmert in einer Sommernacht. Schleier auf dem Mahle. Säumung Nahrung, dieses Leben.

Die Stille der Bettler umfängt mich in einer schmausenden Welt. Der junge Vogel ist ein Geschoß, vom Sturmwild getragen, im Leben betrogen.

Seelenvolle Tänze und heiligen Lippen der Schande. Flammen auf dem Flug, Licht in den Kehlen. Das Böse bestet sich auf der Wiese, die Götter rennen. Glocken hallen, Donner schwingen.

Die Liebe bringt mir das Geschäft, dein leichtes Herz verlangend. Goldene Glieder, wildes Blut, geheime Tiefe, dein himmlischer Reiz und lebendiger Quell beflügelt mich. Du erklirrende, enheilende Gestalt. Züchtiger Glaube erbleicht die Seele.

Damit die natürliche Textgenerierung durch Algorithmen auch im Journalismus angewendet werden könnte, müsste eine riesige Menge an strukturierten Daten verfügbar sein. Tagesaktuelle Ereignisse müssten laufend systematisch erfasst werden. Davon sei man aber noch weit entfernt, sagt Cieliebak. Der Informatikprofessor kann sich aber vorstellen, dass in Zukunft ein Journalist die nötigen Fakten für den Computer liefert, der dann daraus einen Text erstellt.

Diese Zukunft wartet Tamedia nicht ab. Sie will den experimentellen Einsatz von Roboterjournalismus abschliessen und die Technologie für weitere Bereiche einsetzen. Auch Viasuisse will den Einsatz ihres Textroboters intensivieren und plant, die automatisierten Verkehrsmeldungen auch am Tag anzubieten.


*Omar Zeroual studiert Journalismus im Bachelorstudiengang Kommunikation am Institut für Angewandte Medienwissenschaft IAM. Diese Beiträge entstanden in der Werkstatt «Multimediales Storytelling» im fünften Semester. In dieser Werkstatt erarbeiten die Studierenden Beiträge für die Praxis, unter Bedingungen und in Abläufen, wie sie im Journalismus üblich sind.

 


«Journalismus 
ohne Menschen funktioniert nicht»

Woran liegt es, dass immer mehr Medienhäuser mit Textautomatisierung experimentieren?

Automatisierung ist in allen Industrien eine wichtige Entwicklung, da ist der Journalismus keine Ausnahme. Ein weiterer Grund sind die Sparmassnahmen der Medienhäuser. Wenn man Software einsetzt, um Texte zu generieren, kann man damit Stellen einsparen. Die Medienunternehmen stellen das zwar nicht so dar, aber es ist definitiv ein wichtiger Treiber.

Dank Automatisierung bleibt aber mehr Zeit für Recherchen, argumentieren die Medien...

Das ist ein Scheinargument. Die Stellen werden so oder so gestrichen. Man muss beachten, dass die Technologie noch in den Kinderschuhen steckt. Sobald damit auch grössere Texte möglich sind, lässt sich mehr einsparen.

Diese Technologie erlaubt es, über die kleinsten lokalen Fussballspiele zu berichten. Ist das nicht bahnbrechend?

In diesen Texten werden einfach die Ergebnisse berichtet. Grossen Informationsgewinn bieten diese Texte nicht. Es ist eine zusätzliche Service-Leistung der Medienhäuser mit Informationen, die sich auch anderweitig finden lassen. Deswegen erregen solche Texte beim Medienpublikum kein Aufsehen.

Edda Humprecht ist Oberassistentin am Institut für Kommunikationswissenschaft und Medienforschung (IKMZ) der Universität Zürich. Sie forscht zu politischer Online-Kommunikation mit Fokus auf Desinformation in Sozialen Medien. In einer Studie hat sie untersucht, wie es in der Schweiz um die Glaubwürdigkeit von algorithmisch generiertem Journalismus steht.

Das Publikum nimmt das gar nicht wahr?

In der Schweiz ist den meisten Leuten gar nicht bewusst, dass es so etwas wie Roboterjournalismus bzw. algorithmischen Journalismus gibt. Ein Grund hierfür ist, dass Medienunternehmen den Einsatz solcher Programme nur zurückhaltend kommunizieren, weil sie unsicher sind, wie das bei ihrem Publikum ankommt.

In einer Studie haben Sie untersucht, wie Roboterjournalismus wahrgenommen wird. Zu welchen Schlüssen kamen Sie?

Wir haben herausgefunden, dass Menschen generell als glaubwürdiger wahrgenommen werden. Allerdings gibt es Unterschiede: Bei polarisierenden Themen wird der computergenerierte Text als glaubwürdiger wahrgenommen. Bisherige Forschung legt nahe, dass dahinter die illusorische Annahme steckt, Computer seien neutraler als Menschen. Unterschiede gab es hingegen zwischen den untersuchten Leserzielgruppen.

Welche?

Die konservative Leserschaft – etwa jene der NZZ – war gegenüber des Roboterautors kritischer eingestellt. Das liegt daran, dass diese Personen generell weniger technikaffin und skeptischer gegenüber neuen Entwicklungen sind. Dagegen hielten Leserinnen und Leser von Gratismedien den generierten Text für glaubwürdiger.

Der deutsche Journalistenverband forderte 2018 die klare Kennzeichnung von generierten Artikeln. Welche Haltung beobachten Sie in der Schweiz?

Grundsätzlich soll jedes Medienhaus kennzeichnen, woher ein Text stammt. Das schliesst Roboter- bzw. algorithmischen Journalismus mit ein. In der Schweiz geben es die meisten Medien bekannt. Für Tamedia ist Kennzeichnung ihres Textroboters «Tobi» sogar ein Mittel, um sich als modernes Unternehmen zu positionieren. Letztendlich ist aber das Wissen der Nutzerinnen und Nutzer zu diesem Thema noch zu gering, sodass es schwerfällt, zwischen Autorenkürzel, «SDA» oder Tobi zu unterscheiden. Die Quellentransparenz ist in jedem Fall wichtig.

Was müssen sich Medien überlegen, wenn sie algorithmischen Journalismus einsetzen wollen?

Die Medienunternehmen sind gut beraten, wenn sie reflektieren, was das eigene Publikum erwartet. Es ist extrem wichtig, das eigene Publikum zu kennen und zu wissen, wie es neuen Technologien gegenübersteht. Zudem gibt es einen Konflikt zwischen der Profitorientierung des Managements und der Gemeinwohlorientierung des Journalismus.

Wie bringt man diese Sichtweisen zusammen?

Eine Unternehmensführung muss die Anwendung langfristig und strategisch entwickeln. Die Profite sollten nicht im Vordergrund stehen. Das Schlimmste, das den Medienorganisationen passieren kann, ist ein Vertrauensverlust, der die Abwanderung von Teilen des Publikums nach sich zieht. Auch die eigenen Mitarbeitenden sollten frühzeitig miteinbezogen werden.

Die Textalgorithmen werden oft von nicht-journalistischen Anbietern betrieben. Ist das ein Problem?

Das ist nicht problematisch. Medienhäuser beziehen auch andere Infrastruktur von externen Dienstleistern. Grundsätzlich sind die Medien aber gut beraten, wenn sie ihren Mitarbeitenden Weiterbildungen in entsprechenden Kompetenzen ermöglichen, damit die Technologie innerhalb der Organisation nachvollzogen oder sogar entwickelt werden kann. Je mehr innerhalb der Organisation gemacht kann, desto besser.

Wie wird diese Technologie das Berufsbild der Journalistinnen und Journalisten verändern?

Technische Fähigkeiten werden wichtiger. Diesen Wandel erkennt man jetzt schon: Viele Journalisten bilden sich etwa im Datenjournalismus oder zu Visualisierungen weiter. Wenn man nicht über entsprechende Kenntnisse verfügt, ist es schwer nachzuvollziehen, wie selbstlernende Systeme, etwa Algorithmen, arbeiten. Deshalb ist ein tieferes Verständnis nötig.

Am besten bringen Bewerberinnen und Bewerber im Journalismus in Zukunft einen Informatikabschluss mit?

Das würde ich nicht sagen. Man muss nicht gleich selber ein solches System entwickeln können, aber ein Grundverständnis ist wichtig – es ist kein Hexenwerk, solche Algorithmen zu programmieren. Teil der journalistischen Ausbildung muss es sicher werden.

Es kommt also nicht zum Verdrängungskampf...

Überhaupt nicht. Es wird in den Redaktionen eine Rolle mehr geben, die über entsprechende Kenntnisse verfügt. Diese Form der Zusammenarbeit zwischen Mitarbeitenden mit unterschiedlichen Kenntnissen, z.B. Redaktoren, Kamerateams, oder Tontechnikern ist bereits Alltag in vielen Redaktionen.

Wie könnte sich der algorithmische Journalismus in Zukunft entwickeln?

Einfache Nachrichtentexte werden sicher zum Standard. Irgendwann kommen längere Texte, etwa Zusammenfassungen von bestehenden Texten. Selbst dann braucht es Journalisten, die redigieren, anpassen und diese Systeme programmieren. Journalismus ohne Menschen funktioniert nicht.

 

Interview Omar Zeroual

0 Kommentare

Sei der Erste der kommentiert!

Kommentar ist erforderlich!
Name ist erforderlich!
Gültige E-Mail ist erforderlich!
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.