Schriftgröße
LinkedIn Instagram

Ibbenbürener Volkszeitung: Entwicklung einer personalisierten lokalen News-App

Eine individuelle, auf die persönlichen Interessen abgestimmte lokale News-App mit dazugehörigem Sprach-Interface – Das ist die Idee des Teams der Ibbenbürener Volkszeitung. Mit dem Projekt „Lokale News-App: Personalisierung von Inhalten / Sprach-Interface“ will das Team die Kundenbindung, digitale Nutzung sowie Mediatime erhöhen und zudem die Reichweite bei der jüngeren Zielgruppen steigern. Im Rahmen unseres Förderprogramms Media Innovation erhielt das Team finanziellen Support und individuelles Coaching durch tactile.news bei der Umsetzung des Projekts. Im Interview haben Sebastian Jacobs aus dem Marketing-Team der Ibbenbürener Volkszeitung und Yskert Weber, Leiter der Produktentwicklung, mit uns über Hindernisse und Erfolge des Projekts gesprochen.

Was war das Ziel eures Projekts?

Sebastian Jacobs aus dem Marketing-Team: Ziel unseres Projektes war es, unsere Inhalte noch barrierefreier und besser auf den Nutzer zugeschnitten zur Verfügung zu stellen. Damit wollten wir zum einen unsere bestehenden Zielgruppe länger an uns binden und zum anderen auch Menschen in der Region erreichen, die uns bisher noch nicht nutzen.

Welche Herausforderungen gab es bei der Umsetzung des Projekts?

Sebastian Jacobs: Neben den typischen Herausforderungen, die solch ein Projekt immer mit sich bringt, war es für uns schwer herauszufinden, ob die aktiven und potentiellen Nutzer das wirklich wollen. Niemand sagt Dir aktiv, dass er von einer Anwendung erwartet, auf Sprachbefehl personalisierte Informationen zu erhalten.

Wir haben aber auch bemerkt, dass wir bestimmte Zielgruppen nur wenig bis gar nicht erreichen. Wir sind eine ehemalige Bergbau-Region und dadurch auch sehr stark durch Gastarbeiter geprägt. Die sind zwar mittlerweile alle Teil der Gesellschaft und sprechen sicher deutsch, fühlen sich aber häufig auch noch Ihrer Muttersprache verbunden.

Wie seid ihr damit umgegangen?

Sebastian Jacobs: Da sind wir zunächst noch tiefer in die Gespräche eingestiegen und haben noch mehr Personen gefragt. Wobei wir tatsächlich angefangen haben, weniger Fragen zu stellen als aktiv zuzuhören, was uns die Leute erzählen. Dabei kamen einige spannende Informationen raus. So sind Sprachinterfaces, wie zum Beispiel Alexa bei vielen älteren Menschen mittlerweile zu einer der wenigen Möglichkeiten geworden, noch informiert zu bleiben. Nämlich dann, wenn es mit dem Lesen nicht mehr so gut funktioniert.

Wir haben in dem Zuge aber auch das Zielpublikum nochmals hinterfragt und um die Gruppe der Menschen mit Migrationshintergrund erweitert.

Wie war die Ausgangslage, was wolltet ihr mit der Personalisierung der App erzielen? Von wo seid ihr gestartet?

Yskert Weber: Wir haben uns für die Förderung beworben, um unsere lokale News-App mit KI zu personalisieren und mit einer Sprachsteuerung und neuronalen Stimmen zu erweitern.  Wir wollen so die Kundenbindung erhöhen, unsere Reichweite bei jüngeren Zielgruppen steigern und die digitale Nutzung sowie Mediatime erhöhen. Wir hatten zu Beginn eine sehr diffuse Vorstellung davon, wie die Audioausgabe aussehen soll. Deshalb wollten wir das mit euch zusammen angehen.

Im Lauf des Projektzeitraums habt ihr ein Coaching von tactile.news in Anspruch genommen. Wie war der Ablauf? Was habt ihr mitgenommen?

Yskert Weber: Wir haben in den digitalen Workshops mit den Coaches von tactile.news mit euch zu Beginn sehr schnell gemerkt, dass wir für die Produktentwicklung mehr Kenntnisse über die Erwartungen und Bedürfnisse der potentiellen Nutzerinnen und Nutzer benötigen. Dazu haben wir als Team – Mitarbeiter der IVZ aus Redaktion, Lesermarkt und Produktentwicklung – echte Menschen aus Ibbenbüren befragt, um unsere Zielgruppe und ihre Herausforderungen und Bedürfnisse besser kennenzulernen und entsprechende Lösungsansätze zu formulieren. Zum Beispiel haben wir nach den Interviews neue Anforderungen und Ideen für die Produktentwicklung festgehalten. Zum Beispiel, dass

  • es Bedarf an weiterem Content gibt (Veranstaltungen, Verkehrsmeldungen, Wetter, Berichte aus angrenzenden Orten), um das Angebot zu vervollständigen
  • wir Personalisierung sensibel einsetzen und erklären müssen
  • wir einen einfacher Zugang zu den Audio-Inhalten schaffen und Onboarding für technisch wenig versierte Nutzerinnen und Nutzer vorsehen müssen
  • wir Feedback-Möglichkeiten vorsehen sollten, um Nutzerinnen und Nutzer die Möglichkeit zu geben, ihre Meinung zu äußern
  • wir weitere Ausgabe-Kanäle für die Audioausgabe vorsehen sollten (z.B. Alexa, Spotify)

Für uns haben die Interviews von ausgewählten Nutzerinnen und Nutzer gezeigt, dass bereits eine überschaubare Anzahl an Testpersonen wertvolle Erkenntnisse über die Bedürfnisse einer Zielgruppe liefern.

Der zweite Schritt war dann das Prototyping in Präsenz – wieder mit einem Team aus verschiedenen Unternehmensbereichen (Redaktion, Lesermarkt, Produktentwicklung) – und mit Support von tactile.news. Da haben wir mit eurem Team einen KI-getriebenen Prototypen für ein Sprachinterface mit einer personalisierten Audioausgabe erarbeitet. Für die Umsetzung haben wir die Software VoiceFlow eingesetzt. In drei Teams wurde ein Prototyp erstellt, der gezielt auf die Bedürfnisse der Zielgruppe der jungen Familien abgestimmt war.

Mit den Prototypen waren wir in der Lage die Anforderungen an das Sprachinterface zu ermitteln. Folgende Kriterien habenn wir  getestet und analysiert:

  • Möglichkeiten und Grenzen der Sprachsteuerung
  • Qualität der Sprachausgabe
  • Anforderungen an die Texte für eine Sprachausgabe
  • Erfassung von komplexen Spracheingaben (Meinungen, Feedback)
  • KI-generierte Texte (Motivations-Sprüche)

Die umgesetzten Prototypen lieferten wesentliche Erkenntnisse über die inhaltlichen und technischen Anforderungen an das zukünftige Produkt. Zum Beispiel:

1. Notwendigkeit von Fallback- und Default-Ausgaben

Für eine gute Nutzerfahrung ist es notwendig, dass die Sprachausgabe auch im Falle einer Spracheingabe, die nicht korrekt verarbeitet wird, eine befriedigende Antwort liefert. Dafür müssen möglichst umfangreiche Fallback-Ausgaben vorgesehen werden.

2. Einsatz von Custom Neural Voices

Das Prototyping der Sprachausgabe hat gezeigt, dass der Einsatz von benutzerdefinierten neuronalen Stimmen die überzeugendsten Ergebnisse geliefert haben. Die Erzeugung war dabei mit wenig Aufwand möglich.

3. Optimierung der Texte für die Audio-Ausgabe (ChatGPT)

Die geschriebenen Texte eignen sich nicht für eine Sprachausgabe einer personalisierten Audioausgabe. Die Texte müssen mittels KI für die Sprachausgabe umgewandelt werden. Mit entsprechenden Prompts konnten gute Ergebnisse gezielt werden.

4. Zusätzliches Interface für die Sprach-Interaktion (Chat-Fenster)

Um die Kontrolle bei der Spracheingabe zu behalten, wird ein entsprechendes Interface benötigt (Chat-Fenster), das auch eine Texteingabe ermöglicht. Das bietet dem Nutzer eine zusätzliche Möglichkeit der Interaktion.

5. Erfassung von User-Beiträgen

Ein Sprachinterface bietet gute Möglichkeiten Feedback der Nutzer zu erfassen und die Sprachbeiträge der Nutzer der Redaktion als datenbank-Einträge zur Verfügung zu stellen.

6. KI-generierte Texte

Die Ergebnisse von vollständig per KI generierter Texte wurden in den ersten Versuchen als nicht praxistauglich empfunden.

Wo steht ihr jetzt und wie geht es weiter?

Yskert Weber: Jetzt haben wir ein viel klareres Bild, wie das beim Nutzer am Ende ausgeliefert werden soll. Und für unseren Transformationsprozess im Unternehmen war es auf jeden Fall wichtig, dass alle involviert werden. So eine kollaborative Arbeit im Unternehmen über Abteilungsgrenzen hinweg gab es so noch nicht. Dass man in der Intensität gemeinsam arbeitet. Ich finde, das hat uns viel gebracht und für ein Aha-Erlebnis für alle gesorgt.

In der Nachbereitung des KI-Workshops wurde mit den Teilnehmern ein Format für die personalisierte Sprachausgabe entwickelt. Dabei wurden sowohl die Erkenntnisse aus den Nutzerbefragungen als auch aus dem Prototyping des Sprachinterface berücksichtigt.

Die personalisierte Audioausgabe für unseren Prototypen soll einen definierten Ablauf haben, wobei die jeweiligen Beiträge entsprechend der Präferenzen des Nutzers zusammengestellt werden.

Die Texte sollen für die Audio-Ausgabe per KI optimiert werden. Für die Sprachausgabe sollen benutzerdefinierte neuronale Stimmen von Redakteuren eingesetzt werden. Und dann können ausgewählte Nutzerinnen und Nutzer unseren Prototypen schon bald in der Beta-Version ausprobieren.

Was ist noch für die Zukunft geplant?

Sebastian Jacobs: Wir haben eine weitere Dimension in die Entwicklung gebracht und werden das Sprachinterface perspektivisch auch auf unterschiedliche Sprachen ausrichten.

Während unser Angebot bisher nur in deutscher Sprache verfügbar ist, können wir über die KI-basierte Sprachausgabe zukünftig beliebig viele Sprachen anbieten.

Könnte auch interessant sein:

KI Werkstatt NRW: Lernen künstliche Intelligenz erfolgreich im Redaktionsalltag zu integrieren

Künstliche Intelligenz (KI) bietet unzählige Chancen, aber auch Herausforderungen für den Journalismus. Die Frage wie ein geeigneter Umgang damit ...

NewsHub: Voll automatisierte Produktion von TV-Nachrichtensendungen mit cloudbasierter KI-Plattform

Eine voll automatisierte Produktion von TV-Nachrichtensendungen mithilfe einer cloudbasierten KI-Plattform: Wie das gelingen kann, erforscht STUDIO47 in ihrem NewsHub-Projekt. ...

Splendid Synchron: Entwicklung einer wettbewerbsfähigen Voice-Over-Fassung

Stefan Sporn von splendid synchron liefert uns Einblicke in den bisherigen Wissensstand und die Arbeitserfolge ihres Forschungsprojekt. In Kooperation ...

Journalismus Lab Newsletter

Du interessierst Dich für Trends im Journalismus, praktische Tipps, spannende Medienevents und attraktive Förderangebote? Dann abonniere jetzt unseren Newsletter (gemäß unserer Datenschutzerklärung kannst Du Deine Einwilligung jederzeit widerrufen)

nach oben scrollen
Schließen   X

Trends im Journalismus, praktische Tipps, spannende Medienevents und unsere Förderangebote findet ihr in unserem Newsletter. Jetzt anmelden!