Schriftgröße
LinkedIn Instagram

Personalisierte Audio-Nachrichten-Updates für ntv

Warum der Nachrichtensender N-TV Artikel zu Audio-Beiträgen umwandelt und was die Debatte um KI im Journalismus bei RTL bewirkt. 

Tatjana Anisimov von RTL Deutschland gibt Einblicke in das Projekt personalisierter Audio-Nachrichten-Updates, das wir im Rahmen des Programms Audio Innovation unterstützen konnten. 

(Hörprobe nach dem Klick auf das Bild)

 

An welchem Projekt habt ihr im Rahmen der Förderung durch das Programm Audio Innovation gearbeitet? 

Innerhalb des Förderprogramms haben wir an personalisierten Audio-News-Briefings gearbeitet. Die Funktion hat inzwischen den Namen „Audio-Nachrichten-Updates“. Dahinter verbirgt sich ein Audio-Feature, das unsere Nachrichten wie eine Art Mini-Podcast für unsere Nutzer und Nutzerinnen verfügbar macht. Die Innovation an dem Projekt ist, dass die Updates, die mehrfach täglich aktualisiert werden, von künstlichen Stimmen vorgelesen werden. Die Funktion wird zunächst auf unserer Android-App veröffentlicht und zum Launch können unsere Nutzer und Nutzerinnen zwischen drei Themen-Schwerpunkten wählen: Top-Meldungen, Wirtschafts- und Sport-News.

Woher kam die Idee? Gibt es Zusammenhänge mit anderen Projekten bei euch im Haus?

Die Idee ist entstanden, als wir anfingen, uns mit synthetischen Stimmen auseinanderzusetzen. In der Technologie sahen wir von Anfang an viel Potenzial, um für unsere Prozesse und Nutzer und Nutzerinnen einen Mehrwert zu schaffen. Nachdem wir im letzten Jahr unsere Vorlesefunktion gelauncht haben, erreichte uns viel positives Feedback und Zuspruch, unser Audio-Angebot weiter auszubauen. Wir haben die Idee der Audio-Nachrichten-Updates als eine vielversprechende Weiterentwicklung betrachtet und dann in einem internen Design Thinking Workshop mit einem interdisziplinären Team aus Product- und Redaktions-Kollegen und Kolleginnen ausgearbeitet.

Warum Audio-Nachrichten? Gibt es da Wünsche von Nutzern und Nutzerinnen? Oder Erfahrungswerte von euch?

Besonders deutlich wurde die Nachfrage unserer Nutzer und Nutzerinnen nach Audio-Angeboten wie eben beschrieben nachdem wir im Frühjahr 2022 unsere Vorlesefunktion gelauncht haben. Bis heute erhalten wir viele positive Rückmeldungen zu dem Feature. Wir sehen, dass die Möglichkeit, unsere Nachrichten anhören zu können, vielen Nutzer und Nutzerinnen einen Mehrwert bietet, die bspw. Seheinschränkungen haben und unser Angebot gegenüber gängigen Browser-Readern bevorzugen. Das gute Feedback ermutigt und motiviert uns, das Angebot zu erweitern.

Was ist euer Ziel mit dem Projekt der personalisierten Audio-News-Briefings?

Mit den personalisierten Audio-News-Updates verfolgen wir das Ziel, ein Angebot zu schaffen, das unsere Nutzer und Nutzerinnen befähigt, auch dann aktuelle Nachrichten zu verfolgen, wenn sie nicht auf einen Bildschirm schauen oder ihre Hände benutzen können. Dadurch, dass die Nachrichten-Updates von künstlichen Stimmen gesprochen werden, können wir diese Form der Nachrichten schneller und über eine größere Anzahl an Inhalten bereitstellen, als es für uns mit Sprechern und Sprecherinnen möglich wäre.

Wie seid ihr das Projekt angegangen? Welche Disziplinen waren beteiligt?

Als Projektframework haben wir mit Elementen des Design Thinking gearbeitet und unsere Projektphasen danach strukturiert. Wir haben ein Team mit Kollegen und Kolleginnen aus verschiedenen Fachbereichen gebildet: UX-Research, Design, Redaktion, Android-Entwicklung, Backend-Entwicklung, Analytics.

Zunächst haben wir intensiv mit Nutzern und Nutzerinnen über ihr Verhalten, ihre Erwartungen und Bedürfnisse an Audio-Angebote im Nachrichtenbereich gesprochen. Die gewonnenen Erkenntnisse haben wir anschließend in erste Prototypen überführt – die unterschiedlicher nicht hätten sein können. Da waren Ideen dabei von komplett eigenständigen Audio-Apps, über vorlesbaren Zeitstrahlen bis hin zu Prototypen, die unserer finalen Funktion schon ziemlich ähnlich waren. Die Prototypen wurden von Nutzern und Nutzerinnen und Stakeholdern anschließend getestet und aus dem Feedback haben wir dann immer wieder neue Entwürfe und Clickdummies gestaltet und iteriert, bis wir ein Feinkonzept hatten, das sich auch mit unseren Ressourcen technisch hat umsetzen lassen. Und dieses wurde dann über die letzten Wochen entwickelt und umgesetzt.

Welche Herausforderungen oder Umplanungen gab es im Projektverlauf?

Parallel zu der Entwicklung des Feinkonzeptes des Features, haben wir permanent an der Verbesserung unserer Vorlesefunktion und der Aussprache-Qualität unserer künstlichen Stimmen gearbeitet. Das war wichtig, weil sie auch das Fundament für die Audio-Nachrichten-Updates sein sollen.

Wer sich erinnert: Für die Vorlesefunktion haben wir eigene Moderatoren und Moderatorinnen mit dem Speech-Service von Microsoft synthetisiert, die unsere Nachrichten vorgelesen haben. Da wir uns im Nachrichtengeschäft bewegen, geht mit neuen Nachrichtenlagen auch immer wieder neues Vokabular einher. Dieses Vokabular, wie z.B. beim Ukraine-Krieg oder dem Tod der Queen, kennen unsere künstlichen Stimmen häufig nicht und müssen es genau wie echte Sprecher und Sprecherinnen erst einmal selbst hören und auszusprechen lernen. Neue Begriffe und Fremdwörter, Städtenamen, ausländische Institute oder Politiker und Politikerinnen haben sie häufig falsch und „zu Deutsch“ ausgesprochen. Das hat nicht unserem Qualitätsanspruch entsprochen.

Um den Hörgenuss zu gewährleisten, haben wir deswegen einen Prozess eingeführt und die vertonten Artikel vor der Veröffentlichung in einem Quality Check angehört, geprüft und ausgebessert. Auf Dauer ist das allerdings ein kostspieliger und zeitintensiver Prozess – schließlich sollte der Case zu Effizienzgewinn führen. Schlussendlich haben wir uns entschieden, für den Launch der Funktion mit künstlichen Stimmen von Amazon zu starten, die bei einem internen Nutzer- und Nutzerinnen-Test am geeignetsten bewertet wurden, um unsere Nachrichteninhalte vorzulesen. So schnell wie sich die Welt der synthetischen Stimmen und Anbieter derzeit dreht, wird das sicher nicht unsere einzige oder finale Stimme bleiben. Wir haben nach wie vor ein großes Interesse, eine ntv-eigene Stimme anzubieten.

Was hat der Teletext mit eurem Projekt zu tun?

Wir hätten es selbst nicht gedacht, aber ohne den guten alten Teletext hätte unser Feature, so wie es jetzt ist, nicht live gehen können. Eine weitere große Herausforderung war nämlich die Entwicklung des Konzeptes und die Frage danach, welche Inhalte wie ausgespielt werden. Obwohl wir bei ntv über ausreichend Inhalte verfügen, um personalisierte Audio-Nachrichten anzubieten, ergab unsere Forschung, dass Nutzer und Nutzerinnen bei Audio-Briefings und Updates eher kürzere Stücke erwarten, ähnlich wie bei Radiomeldungen.

Von unserer Redaktion werden die Nachrichten für unsere digitalen Produkte jedoch nicht explizit in dieser Länge erstellt und Teaser allein erfüllten nicht die Anforderungen der Redaktion, da sie oft nur einen Vorgeschmack auf eine Meldung bieten. Wir haben verschiedene Ideen untersucht, wie zum Beispiel die automatische Textzusammenfassung und -Kürzung mithilfe von KI-Technologien wie GPT-3, um sie anschließend vorlesen zu lassen. Es gab dann allerdings eine effizientere Lösung:

Für den Teletext des ntv Fernsehens fasst die Redaktion jeden Tag bis zu 50 Nachrichtenmeldungen verkürzt zusammen – überwiegend aus den Ressorts Politik, Wirtschaft und Sport. Diese Auswahl haben wir für den Personalisierungsgrad unserer Funktion übernommen. Für jeden Schwerpunkt haben wir eine bestimmte inhaltliche Reihenfolge festgelegt, die mit 2-3 Meldungen aus dem jeweiligen Schwerpunkt beginnt und mit wichtigen Nachrichten aus anderen Ressorts ergänzt wird. Der Teletext hat uns das Projekt somit wortwörtlich gerettet.

Welche Finanzierungsmodelle plant ihr für die Audio-News-Briefings?

Für uns würde eine Finanzierung über Audio-Vermarktung als klassische Reichweitenvermarktung in Frage kommen. In den letzten Monaten haben wir erste technische Konzepte dazu erarbeitet, die sich momentan in der Testphase befinden. Sollte sich dieses Setup als positiv und gewinnbringend herausstellen, dann steht die Prüfung der Anbindung an die Audio-Nachrichten-Updates im nächsten Schritt an.

Wie ist der aktuelle Status des Projekts und wie geht’s ab jetzt weiter?

Wir haben das Feature gerade gelauncht. D.h. es ist aktuell für alle Android-User verfügbar und wird in einer Testphase von etwa acht Wochen live getestet. In dieser Zeit wollen wir Daten erheben und das Verhalten der Nutzer und Nutzerinnen damit zum einen quantitativ auswerten. Wir werden aber auch mit Nutzern und Nutzerinnen über das Feature sprechen und somit qualitativ Feedback einholen. Nach Abschluss der Testphase findet eine Evaluierung statt, in welcher wir entscheiden, wie wir das Feature weiterentwickeln und ob wir auf es auch auf unseren iOS-Plattformen ausrollen.

Was hat die aktuelle Debatte rund um KI im Journalismus bei euch im Haus bewirkt?

Die Bedeutung von KI für den Journalismus bei RTL wird immer größer. Wir haben verstanden, dass wir es hier nicht mehr mit Zukunfts- sondern Gegenwartstechnologien zu tun haben und räumen dem Thema noch mehr Platz und Relevanz ein als zuvor. In den letzten Jahren haben wir bereits eine Reihe an KI-basierten Projekten, Produkten und Prozessen entwickelt. Die Auseinandersetzung mit KI ist deswegen bei RTL nicht komplett neu. Die öffentliche Debatte hat allerdings dazu geführt, dass wir uns intensiver darüber austauschen – Abteilungs- und Markenübergreifend.

Wir haben bei RTL News seit einiger Zeit eine interne Arbeitsgruppe, die sich damit beschäftigt, wie wir KI verantwortungsbewusst und systematisch in unserer journalistischen Produktion einsetzen können und welche Leitlinien hierfür gelten müssen. Diese Arbeitsgruppe hat unter anderem ein Forum ins Leben gerufen, in dem wir über verschiedene Aspekte von KI diskutieren und unsere Projekte und neue Ideen gegenseitig vorstellen und reflektieren. Das ist für alle bereichernd und wertvoll.

Wie ist generell dein Eindruck? Bewegt sich dazu aktuell viel in Medienhäusern?

Wenn Medienhäuser jetzt einen großen Bogen um künstliche Intelligenz machen, dann zerlegen sie sich und die Branche selbst – das ist mein Eindruck. Ich muss nicht mehr betonen, wie fundamental KI die Art und Weise verändern wird, wie wir in Zukunft arbeiten werden.

Umso mehr begrüße ich, dass sich Medienhäuser mit dem Potenzial und den Auswirkungen inzwischen auch strategisch auseinandersetzen und Guidelines für ihr Unternehmen festlegen – auch, oder gerade weil die rechtlichen Rahmenbedingungen noch so unklar sind. Ich kann natürlich nicht in die Strategie- und Digitalabteilungen anderer Medienhäusern reinschauen, aber ich beobachte definitiv mehr Bewegung, Experimentierfreude und Investitionen in dem Bereich, als noch vor einem Jahr.

Nicht jede Idee ist sinnvoll umgesetzt, das konnten wir zuletzt mit dem KI-generierten Kochmagazin von Burda erleben („Bisschen ratlos“: Kritik an Kochmagazin mit Inhalten von ChatGPT und Midjourney | heise online) und einige andere Initiativen wirken wie blinder Aktionismus, aber das sollte uns nicht davonabhalten, uns fortlaufend mit den wachsenden Möglichkeiten von KI auseinanderzusetzen – zumal es manchmal überwältigend scheint, in welchem Tempo sie sich entwickeln.

Und ganz persönlich wünsche ich mir, dass wir über diese Buzzword- und Hypephase hinausgehen und anerkennen, dass KI ein natürlicher Bestandteil unserer Technologie-Portfolien wird und nicht mehr wegzudenken ist. Dieser Entwicklung sollten wir uns mit Offenheit, Experimentierfreude und Verantwortungsbewusstsein widmen.

Das Projekt der Audio-Nachrichten-Updates war Teil des Programms Audio Innovation, mit dem das Journalismus Lab bestehende Unternehmen und Organisationen in Nordrhein-Westfalen bei der Umsetzung oder Weiterentwicklung von Vorhaben im Audiobereich unterstützt, die die journalistischen Rahmenbedingungen und den Audio-Sektor in NRW stärken.

Könnte auch interessant sein:

App für kooperative Journalismusplattform

Alina Mielemeier, Hannah Schürkamp und Saskia Huthmacher haben uns Einblicke in die Zielsetzung und bisherigen Arbeitserfolge ihres Projekts gewährt. ...

Radikales Zuhören fürs Lokalradio: Die Dialogbox

Audio-Journalisten und Journalistinnen, Developer und Ideengebende tüftelten an einem Tool, um auf innovative Weise mit Menschen ins Gespräch zu ...

Digitalisierung einer Stadtteil-Redaktion

Sarah Uerlichs, Teilnehmerin der Media Innovation Masterclass, befasst sich als Head of Digital Stadtteile beim Kölner Stadt-Anzeiger mit der ...

Journalismus Lab Newsletter

Du interessierst Dich für Trends im Journalismus, praktische Tipps, spannende Medienevents und attraktive Förderangebote? Dann abonniere jetzt unseren Newsletter (gemäß unserer Datenschutzerklärung kannst Du Deine Einwilligung jederzeit widerrufen)

nach oben scrollen
Schließen   X

Trends im Journalismus, praktische Tipps, spannende Medienevents und unsere Förderangebote findet ihr in unserem Newsletter. Jetzt anmelden!