Aktuelle Data Science Trends – Eindrücke von den German Data Science Days 2019

Die Themen Data Science und Künstliche Intelligenz sind im Moment in aller Munde. Mit ihrem Einsatz sind riesige Erwartungen verbunden. Andererseits stellt deren Einführung Unternehmen auch vor große Herausforderungen. Wie erreicht man zum Beispiel, dass Data Science Teams und Fachabteilungen effizient zusammenarbeiten? Welche Tools und Algorithmen eignen sich am besten für verschiedene Anwendungsfälle? Wie geht man mit Risiken für Datenmissbrauch um, die im Zeitalter von Big Data immer größer werden? Diese und weitere Themen wurden bei den German Data Science Days 2019 an der LMU München diskutiert. Die Konferenz versammelt jährlich die deutsche Data Scientist Community und bietet eine Plattform für den Austausch zwischen Teilnehmern aus Wissenschaft, Industrie und Wirtschaft. Und wir von SCHICKLER waren mit dabei.

Teilnehmer in der großen Aula der LMU (Foto: LMU)



Interaktion zwischen Data Science Teams und Fachabteilung

Data Scientists verfügen über technisches Expertenwissen, Mitarbeiter in den Fachabteilungen über Expertenwissen in den jeweiligen Fachbereichen. Für die Entwicklung erfolgreicher Data Science Lösungen ist das Know-how aus beiden Bereichen wichtig. Viele Projekte scheitern daran, dass nicht genug oder nicht erfolgreich miteinander kommuniziert wird. Zwar kann ein Data Scientist auch eigenständig technisch gut funktionierende Lösungen entwickeln. Wenn sein Verständnis der Problemstellungen aber nicht exakt ist, schießen diese nicht selten am realen Problem vorbei. Andererseits werden gut funktionierende Lösungen von den Fachabteilungen abgelehnt, weil diese aufgrund fehlenden Verständnisses falsch verwendet werden und schlechte Ergebnisse liefern. Wie relevant dieses Thema ist, zeigte sich dadurch, dass die Mehrheit der Publikumsfragen an die Vortragenden hierauf abzielte. Als Antwort darauf berichtete Dr. Andreas Wagner vom Fraunhofer ITWM von Erfahrungen aus einem Projekt zur Untersuchung der Schadensabwicklung in KFZ-Hersteller-Garantien. Dort wurden Mitarbeiter aus der Fachabteilung als feste Mitglieder in Data Science Projektteams aufgenommen. So konnte bei jeder (auch technischen) Entscheidung im Projektverlauf direkt deren Einfluss hinsichtlich der fachlichen Anforderung und Nutzbarkeit geprüft werden.

Ein weiterer Ansatz die Kluft zwischen Entwickler und Nutzer der Data Science Lösungen zu verkleinern, liegt in dem zunehmenden Einsatz von Self Service Tools. Hier entwickelt der Data Scientist keinen Algorithmus, der dem Fachmitarbeiter eine Entscheidung komplett abnimmt. Stattdessen entwickelt er ein Tool, das dem Fachmitarbeiter durch die automatisierte Bereitstellung passender Informationen bei der Entscheidung unterstützt. Dr. Mihael Ankerst von der Allianz Deutschland stellte hierzu ein Projekt vor, bei dem ein interaktives Dashboard entwickelt wurde. Hiermit können Versicherungsvertreter selbstständig durch Anpassung verschiedener Visualisierungen Daten analysieren. Dabei entdecken sie eigenständig Kundenmuster und Upselling-Chancen. Gegenüber einem intelligenten Algorithmus, der trainiert wurde um eine spezielle Fragestellung zu beantworten, ist dieses Tool deutlich flexibler einsetzbar. Durch die Interaktion mit dem Fachmitarbeiter fließt zudem dessen Expertenwissen direkt in die Entscheidung mit ein. Gängige Machine Learning Algorithmen verhalten sich dagegen wie eine Black Box, die ein Ergebnis ausspuckt ohne dass für den Nutzer erkennbar ist, wie der Algorithmus zu diesem Ergebnis gelangt ist. Ist der Versicherungsvertreter dagegen wie hier selbst aktiv an der Entscheidungsfindung beteiligt, so steigt die Akzeptanz der Ergebnisse. In großen Konzernen geht man sogar noch einen Schritt weiter, wie Dr. Andreas Nawroth, Head of Analytics bei der Munich Re, und Dr. Martin Appl, Head of Data Science bei der BMW Group, berichteten. Dort werden nicht nur interaktive Tools für einzelne Fachbereiche entwickelt. Stattdessen wurde ein zentraler Fachbereich geschaffen, der Data Science Software Lösungen wie ein externer Dienstleister den anderen Fachbereichen zur Verfügung stellt. Die konkrete Anwendung der Algorithmen und Analyse der Daten verbleibt großteilig in den Fachbereichen.

E-Commerce Unternehmen bleiben Vorreiter

Die bekanntesten Anwendungsfälle von künstlicher Intelligenz stammen aus dem Online- und E-Commerce-Bereich. Durch die Vielzahl der Interaktionen von Nutzern mit Online-Inhalten fallen hier besonders große Datenmengen an. Motiviert durch den Erfolg von KI Lösungen im Online Bereich und unterstützt durch Trends wie Internet of Things gründen aber auch immer mehr Offline-Unternehmen Data Science Fachbereiche. Die Vorträge bei den German Data Science Days haben allerdings gezeigt, dass viele gerade der großen Unternehmen noch dabei sind hier Grundlagenarbeit zu leisten. E-Commerce-Unternehmen, bei der Konferenz durch Scout24 und Check24 vertreten, dagegen nutzen Data-Science-Lösungen über alle Unternehmensbereiche hinweg und die Qualität ihrer Produkte wird wesentlich durch die Qualität von KI Algorithmen bestimmt.



Dr. Markus Ludwig stellt KI Anwendungsfälle bei Scout24 vor (Foto LMU)

Insbesondere für Medienunternehmen interessant war der Vortrag von Alwin Viereck von der United Internet Media GmbH zum Thema Programmatic Advertising. Beim Programmatic Advertising werden in Echtzeit Ad Impressions gehandelt. Der Werbetreibende hat so die Möglichkeit seine Werbung genau den Website-Besuchern zu zeigen, die für sein Produkt am interessantesten sind. Der Werbeplatzanbieter kann seine Ad Impressions teurer verkaufen, da diese immer an den Werbetreibenden gehen, der diesen den höchsten Wert beimisst. Die Entscheidung welche Werbung bei welchen Usern die höchsten Chancen hat und welche Preise geboten werden, wird dabei zunehmend von intelligenten Algorithmen übernommen. Bereits heute liegt der Programmatic Advertising Anteil bei Online-Werbung in Deutschland laut eMarketer bei 74% (https://www.emarketer.com/content/what-programmatic-advertising-looks-like-in-germany) und Alwin Viereck prognostiziert, dass in wenigen Jahren quasi der gesamte deutsche Online-Werbemarkt Programmatic sein wird.

Neue Probleme fordern neue Algorithmen

Wir sind noch weit davon entfernt, künstliche Intelligenzen zu schaffen, die wirklich intelligent ein breites Spektrum von Problemen bearbeiten können. Stattdessen sind heutzutage eingesetzte Machine Learning Algorithmen größtenteils hoch spezialisiert. Sie wurden darauf trainiert eine ganz konkrete Aufgabe erfolgreich auszuführen. So speziell wie die Anwendungsbereiche sind oft auch die Machine Learning Algorithmen. Entsprechend große Chancen bieten sich auch kleineren Unternehmen für den Einsatz von KI Lösungen. Sie müssen nicht mit großen Tech-Giganten um die besten allgemeinen Lösungen konkurrieren. Stattdessen können sie sich darauf konzentrieren, spezielle Algorithmen zu entwickeln, die optimal an ihre konkreten Anwendungsfälle angepasst sind.

In mehreren Vorträgen wurden derartige Lösungen präsentiert. Felix Meyer von der Swiss International Air Lines AG stellte zum Beispiel ein Modell zur optimalen Bestimmung von Flugpreisen vor. Hierfür wurde ein mathematisches Modell adaptiert, das normalerweise zur Modellierung von Warteschlangen verwendet wird. Von einem weiteren spannenden Ansatz zur frühzeitigen Erkennung von Maschinen-Fehlfunktionen berichtete Andrei Ciobotar von Relayr. Spezielle neuronale Netze, sogenannte Encoder-Decoder Systeme, lernen zeitgleich Maschinendaten zu komprimieren und aus den komprimierten Daten die ursprünglichen Daten zu rekonstruieren. Dies funktioniert für normale Datensätze sehr gut. Bei anomalen Datensätzen, die auf eine Fehlfunktion hindeuten, funktioniert dies dagegen sehr schlecht. So kann ein System automatisch Anomalitäten erkennen, ohne dass ihm jemals vermittelt werden musste, wie der Normalzustand des Systems aussieht. Wie alles im Leben verändern sich auch Datenmuster im Laufe der Zeit. Zudem sammeln viele intelligente Systeme während der Nutzung weitere Daten, die zu ihrer eigenen Verbesserung verwendet werden können. Wie aber entscheidet man welche Datenpunkte zum Training des Machine Learning Algorithmus noch verwendet werden können und welche veraltet sind? Und wie aktualisiere ich ein intelligentes System, wenn es neue Daten sammelt? Prof. Dr. Barbara Hammer von der Universität Bielefeld berichtete von Forschungsergebnissen zur Lösung derartiger Probleme.

Datenethik und Datenschutz

Neben großen Chancen birgt das Sammeln von großen Datenmengen auch erhebliche Risiken. Wenn persönliche Daten in die falschen Hände geraten, können dadurch einzelnen Personen erhebliche Schäden entstehen. Zudem verfügt man als Data Scientist über mächtige Methoden zur Aufdeckung von Mustern. So können Algorithmen erkennen, dass Faktoren wie Geschlecht, Alter oder ein Name, der auf Migrationshintergrund hindeutet, mit der Arbeitsproduktivität oder der Zahlungswahrscheinlichkeit von Schuldnern korrelieren. Wird mit diesen Informationen falsch umgegangen, können Algorithmen ganze Bevölkerungsgruppen systematisch diskriminieren. Beim Data Scientist liegt eine entsprechend hohe Verantwortung, solchen Entwicklungen entgegen zu wirken. Ansätze wie mit solchen und ähnlichen Situationen umzugehen ist, stellte Dr. Sebastian Wernicke von der ONE LOGIC GmbH in einem Vortrag zur Datenethik vor.

Auch die neue Datenschutzgrundverordnung (DSGVO) und deren Implikationen wurden in mehreren Vorträgen diskutiert. Die DSGVO legt fest, dass personenbezogene Daten nur dann für bestimmte Zwecke verwendet werden dürfen, wenn die betreffende Person explizit ihre Zustimmung dazu gegeben hat. Der Data Scientist muss also immer prüfen, welche Daten für eine Machine Learning Lösung verwendet werden dürfen und dafür auch alle späteren Nutzungsmöglichkeiten abschätzen. Allerdings ist es für den Data Scientist nicht immer leicht einzuschätzen, was erlaubt ist und was nicht. Wie Prof. Dr. Nikolaus Forgó von der Universität Wien eindrucksvoll darlegte, lassen sich die juristischen Regelungen aus der DSGVO oft nur schlecht auf aktuelle technische Fragestellungen anwenden und es ergeben sich viele Grauzonen.

Haben Sie Fragen zu Themen aus dem Blog-Artikel oder interessieren sich für Data Science Anwendungen in Ihrem Unternehmen? Wenden Sie sich dazu gerne jederzeit an das Schickler Data Science Team: datasciene@schickler.de(Link)

Die German Data Science Days(https://www.gdsd.statistik.uni-muenchen.de/index.html) werden jährlich als zwei-tägige Konferenz an der Ludwig-Maximilians-Universität München ausgetragen. Ihr Ziel ist es Data Scientists aus dem deutschsprachigen Raum zu versammeln und den Austausch zwischen Wissenschaft, Industrie und Wirtschaft zu fördern. Die Vorträge beschäftigen sich mit aktuellen Trends und Herausforderungen im Bereich Data Science. Für Schickler nahmen die beiden Data Scientists Amr Rekaby Salama und Ole Martin an der Konferenz teil.

Der NOVA Innovation Award geht in die dritte Runde

Der BDZV und SCHICKLER suchen wieder die innovativsten Ideen der deutschen Verlagsbranche

Gemeinsam mit dem Bundesverband Deutscher Zeitungsverleger (BDZV) prämiert SCHICKLER 2019 zum dritten Mal in Folge die herausragendsten Innovationen der deutschen Zeitungsverlage mit dem „NOVA – Innovation Award der deutschen Zeitungen“. Wie in den vorangegangenen Jahren werden hierbei Preise für „Produktinnovation“, „Vermarktungsinnovation“ und „Neues Geschäftsfeld“ vergeben.

„Die Branche befindet sich in einem kreativen Umbruch. Wir wollen Verlagen eine Plattform geben, Innovationen sichtbar zu machen und zu teilen. In den letzten drei Jahren haben über 50 Verlage teilgenommen und insgesamt eine dreistellige Anzahl an Innovationen eingereicht. Das zeigt, dass die Branche innovativ ist und die Plattform des NOVA Innovation Awards annimmt“, so Rolf-Dieter Lafrenz, geschäftsführender Partner bei SCHICKLER.

Die Bewerbungsphase läuft ab dieser Woche bis zum 17.05.2019. Auf dem BDZV-Zeitungskongress am 24.09.2019 prämieren eine Experten-Jury aus der Publisher- und Startup-Szene sowie Rolf-Dieter Lafrenz die besten Innovationen.

Mehr Informationen zum NOVA – Innovation Award erhalten Sie unter www.nova-award.de.

Kontakt: Daniel Lehmler, Tel. 0172-5486702, d.lehmler@schickler.de

Schickler Media Index: Das geben Unternehmen 2019 für die Medienkanäle TV, Print, Digital & Co aus

Quelle: Pixabay

Der Werbemarkt wächst weiter – wenn auch etwas schwächer. Das zeigt der Schickler Media Index, eine der umfassendsten Statistiken über den deutschen Werbemarkt. Neben den klassischen Gattungen sind nahezu alle Formen digitaler Werbung enthalten, sowie Messen und Sponsoring.

Wir schätzen, dass im Jahr 2018 der Gesamtnettoumsatz um 3,3 Prozent auf fast 47,3 Milliarden Euro gestiegen ist. In 2019 hält der Trend der letzten Jahre weiter an, auch wenn das Wachstum etwas schwächer ausfallen dürfte.

Ungebremst ist der Trend, dass Unternehmen ihre Budgets in die direkte Kommunikation zu ihren Kunden erhöhen. Dazu gehören alle Wege des Corporate Publishing, insbesondere die digitalen Kanäle. App-Entwicklung, Corporate Social Media, die Erstellung von Corporate Videos und die Weiterentwicklung von Corporate Websites profitieren davon.

Online-Werbung wächst auch weiter, allerdings langsamer – mit Ausnahme der Werbung auf mobilen Endgeräten. Wir erwarten für mobile Werbung weiterhin ein deutliches Wachstum.

Die Print-Werbeträger entwickeln sich weiterhin rückläufig – wie in den letzten Jahren. Wir erwarten, dass stärkere Investitionen in neue Produkte und in die Vermarktung der Verlage diesen Trend verlangsamen – auch wenn dies noch nicht in diesem Jahr in den Gesamtmarktzahlen zu sehen sein dürfte. Wir sehen vor allem in der Zusammenarbeit mit regionalen Kunden bei einigen regionalen Verlagen schon vielversprechende Wege.

Für den Media Index wertet SCHICKLER zahlreiche Quellen aus. Der Index umfasst die Ausgaben für alle Formen kommerzieller Kommunikation und zeichnet daraus ein Gesamtbild des Marktes.

Mehr zu den Studienergebnissen lesen Sie hier.

Chatbots – Funktionsweise & Relevanz für Medienunternehmen Teil 2/2

Aufgrund der potentiell hohen Effizienzsteigerungen, sieht SCHICKLER eine hohe Anwendungsrelevanz von Chatbots in Medienunternehmen. Wie bereits in Teil 1 angekündigt, besuchten ein Kollege und ich drei Chatbot Anbieter in Berlin, um Anwendungsfälle zu diskutieren und deren Chatbots kennenzulernen.

parlamind

Das Start-up parlamind wurde im Jahr 2015 gegründet. Der Fokus liegt auf der Optimierung des Kundenservices unter anderem mittels eines Chatbots. Parlamind kann an verschiedene Ticketsysteme (z.B. salesforce desk) angebunden werden und bietet zudem eine Omni-Channel Verknüpfung. Das bedeutet, dass Anfragen sowohl über E-Mail als auch über Formulare auf Websites und Chatbots in das System einfließen. Die KI von parlamind selektiert alle Anfragen und weist sie automatisch den entsprechenden Ansprechpartner zu. Einfache (standardisierte) Anfragen kann das System automatisch und in Echtzeit beantworten. Bei komplexeren Anfragen wird weiterhin ein menschlicher Servicemitarbeiter benötigt. Allerdings bietet parlamind dem Mitarbeiter eine Vorauswahl von Antwortbausteinen an, welche durch Anklicken direkt in das Antwortformular eingefügt werden. Zu Beginn der Einführung von parlamind in ein Unternehmen muss ein Skript für mögliche Anfragen und Antworten geschrieben werden. Dann kann ein Konfidenzlevel ausgewählt werden, jenseits dessen das System Anfragen eigenständig beantwortet. Wählt man beispielsweise ein Level von 90% aus, beantwortet das System eine Anfrage nur wenn es sich zu 90% (oder mehr) sicher ist, die Anfrage korrekt identifiziert zu haben und ihr eine passende Antwort zu weißen kann. Die parlamind KI arbeitet auch mithilfe von Machine Learning, das bedeutet je mehr Anfragen bearbeitet werden, desto besser kann es diese zukünftig beantworten. Das System kann zusätzlich durch Menschen trainiert werden, um einen schnelleren und besseren Lernprozess zu ermöglichen. Dazu muss der „Trainer“ Anfragen, bei denen sich das System unsicher war, im Nachhinein die korrekte Antwort zuweisen. Da parlamind hauptsächlich zur Beantwortung von Kundenanfragen dient, ist der vornehmliche Anwendungsbereich in Medienunternehmen das Kundenservicecenter. Parlamind arbeitet bereits mit einigen namhaften deutschen Verlagen zusammen. In dem Gespräch erfuhren wir zu dem, dass sich der Aufwand den parlamind Chatbot zu implementieren, sich erst ab ca. 10.000 Kundenanfragen pro Monat lohnt. Bei weniger Kundenanfragen lohnt es sich nicht, da der Bot nicht ausreichend Daten zum Lernen hat.

scalableminds

Das zweite Start-up, das wir Ihnen vorstellen möchten, ist scalableminds. Scalableminds arbeitet zusammen mit dem Start-up rasa, welches eine Open-Source Software für Chatbots anbietet. Scalableminds entwickelt seine Chatbots basierend auf der Software von Rasa. Grundsätzlich funktioniert der Chatbot von scalableminds ähnlich wie der von parlamind. Beide benötigen bei der Einführung ein geschriebenes Skript, beantworten Anfragen basierend auf einem festgelegten Konfidenzinterval und durch menschliche Unterstützung lernt der Chatbot dazu. Auch scalableminds bietet eine Omni-Channel Verknüpfung mit Kanälen wie E-Mail, Website und allen bekannten Messanger-Diensten. Zusätzlich kann der Chatbot in verschiedenen Sprachen aufgesetzt werden. Die aktuell größte Limitation des Chatbots sind Kundenanfragen, die sich aus mehreren Komponenten zusammensetzen. Möchte beispielsweise ein Zeitungskunde gleichzeitig seine Adresse ändern, die Zeitung für die nächsten 2 Woche abbestellen und noch eine Reklamation anmelden, fällt es dem Chatbot schwer eine passende Antwort zu finden, da das Problem nicht eindeutig zugeordnet werden kann und somit nicht automatisch beantwortet werden kann.

Twyla

Das dritte Start-up, das wir im Rahmen unserer Berlin Tour besuchten, ist twyla. Der Inkubator der Deutschen Telekom hub:raum investiert seit 2017 in das Start-up. Der twyla Chatbots bietet Anschlüsse an viele bekannte Ticketsysteme wie zendesk, salesforce und SAP. In den Funktionalitäten unterscheidet der twyla Bot sich nicht von deren der anderen zwei Start-ups. In Zusammenarbeit mit der Deutschen Telekom hat twyla einen „conversational store“ aufgesetzt. Anders als auf traditionellen E-Commerce Plattformen, interagiert man im conversational store mit einem Chatbot. Man teilt dem Chatbot mit, nach welchen Produkten man sucht anstatt sich selbständig durch die Website zu klicken. Damit bietet twyla auch andere Anwendungsgebiete als die Bearbeitung von Kundenanfragen. Zusätzlich setzt twyla auf eine sehr einfach zu bedienende Benutzeroberfläche, sodass nach der initialen Aufsetzung des Chatbots, jeder Mitarbeiter den Chatbot trainieren und somit optimieren kann, ohne IT-/Programmierkenntnisse zu benötigen.

Chatbots – Funktionsweise & Relevanz für Medienunternehmen Teil 1/2

Chatbots sind in unserem digitalen Alltag überall präsent: Auf Buchungsseiten für Hotels und Flüge, auf Seiten von Handyanbietern. Sie beantworten Fragen zu Produkten, unterstützen beim Lösen von Problemen und bearbeiten viele weitere Formen von Anfragen. Von vielen Nutzern oft nur als nettes Gimmick ohne wirkliche Hilfsfunktion gesehen, variieren Chatbots stark in ihrer Qualität und ihren Fähigkeiten. Doch was genau sind Chatbots und gibt es potentielle Anwendungsbereiche in Medienunternehmen?

Definition & Erklärung

Das Wort Chatbot setzt sich zusammen aus den Begriffen „Chat“ und „Robot“ und beschreibt somit einen Computer (Robot), der mit einem Nutzer interagiert (Chat). Das Ziel von Chatbots ist es, die Kommunikation mit Kunden zu automatisieren und somit ein qualitativ höherwertiges Serviceerlebnis zu ermöglichen (kein Kunde möchte 30 Minuten in einer Telefonwarteschleife feststecken). Aus Unternehmenssicht können Chatbots außerdem die Effizienz im Kundenservice steigern.

Chatbots interagieren („chatten“) mit Nutzern in Echtzeit. Dabei funktionieren die meisten Chatbots auf Textbasis. Es gibt aber auch einige, die auf Basis von Spracherkennung mit dem Nutzer kommunizieren. Die ersten Chatbots basierten auf vorgeschriebenen Dialogen. Das limitierte die Anwendung stark, denn die Chatbots konnten nur auf wenige vordefinierte Fragen antworten. Mittlerweile setzen Entwickler Künstliche Intelligenz (KI) ein, um eine individualisierte und realistische Konversation zu ermöglichen. Nutzer können mit den Chatbots über verschiedenste Kommunikationskanäle wie Websites, Social-Media-Plattformen und Instant-Messaging-Systemen interagieren. Auch der iPhone Sprachassistent Siri ist im Prinzip ein Chatbot.

Funktionsweise

Die Funktionsweise eines Chatbots lässt sich in zwei Schritte unterteilen: dem Analysieren der Anfrage und der Auswahl der Antwort. Im ersten Schritt wird der Text nach vordefinierten Regeln analysiert, oftmals sucht der Chatbot nach Schlagwörtern. Durch die Analyse kann er idealerweise die Anfrage des Kunden identifizieren. Der nächste Schritt hängt stark von der Qualität des Chatbots ab. Wie eingangs erwähnt arbeitet ein Großteil der Chatbots skript-basiert. Das bedeutet, dass einer limitierten Zahl von Anfragen eine vordefinierte Antwort zugeordnet wurde. Kann der Chatbot die Anfrage nicht eindeutig einordnen, ist er nicht in der Lage eine passende Antwort auszuwählen. Komplexere Chatbots, auch bezeichnet als selbstlernende Chatbots, agieren basierend auf Künstlicher Intelligenz und maschinellem Lernen.  Ähnlich wie bei den eingeschränkten Chatbots basieren solche, die mithilfe von Künstliche Intelligenz agieren, in der Einführungsphase auf vorformulierten Skripten. Er kann jedoch dazulernen und somit durch den kontinuierlichen Aufbau einer Wissensdatenbank immer komplexere Anfragen beantworten. Je mehr Anfragen der Chatbot bearbeitet, desto besser funktioniert er. Dabei wird sowohl die Analysefunktion als auch die Antwortfunktion kontinuierlich optimiert. Im Rahmen des Trainings ist zu Beginn jedoch immer noch eine menschliche Komponente notwendig, welche bei nicht lösbaren Anfragen die korrekte Antwort zuweist. Der Chatbot lernt dadurch hinzu und kann die Anfrage das nächste Mal eigenständig beantworten.

Relevanz für Medienunternehmen

Aktuell sieht SCHICKLER den Anwendungsbereich von textbasierten Chatbots vor allem im Kunden Service Center. Chatbots bietet dort eine gute Möglichkeit, Standardanfragen, wie z.B. das Abbestellen von Zeitungen im Urlaub, zu automatisieren und somit den Servicemitarbeitern mehr Zeit für die Bearbeitung komplexere Anfragen oder zusätzliche Aufgaben wie die Bewerbung von Kunden zu ermöglichen. Die potentiellen Kostenersparnisse im Kundenservice durch Chatbots sind enorm. SCHICKLER schätzt den Aufwand der Zeitungsbranche für Kundenservice auf 60-80 Mio. € pro Jahr. IBM gibt an, mit ihrem Chatbot Watson 80% der Kundenanfragen automatisieren zu können, was angesichts des hohen Anteils an Standardanfragen in der Zeitungsbrache realistisch erscheint. Dadurch ergibt sich ein Effizienzpotential von 48-64 Mio.€ pro Jahr. Der wesentliche Vorteil von Chatbots im Kundenservice Center bezieht sich allerdings nicht ausschließlich auf das Senken von Kosten, sondern bietet vor allem eine deutliche Steigerung der „User Experience“. Immer mehr Kunden erwarten durchgängige Erreichbarkeit im Kunden Service Center. Chatbots gewähren diesen Wunsch und eliminieren zusätzlich Wartezeiten, was schlussendlich zu einer höheren Kundenzufriedenheit führt.

Mit voranschreitender Entwicklung von KI sind zukünftige Anwendungen in Bereichen wie der Kundengewinnung oder dem Marketing denkbar. Sprachbasierte Chatbots existieren bereits in Form von Siri, Alexa und Google Assistant. Bis sie jedoch eins zu eins einen menschlichen Mitarbeiter ersetzen können, wird noch einige Zeit vergehen. Textbasierte Chatbots werden einen Großteil der Anfragen automatisieren können, jedoch werden sie weiter Limitationen haben. Die menschliche Komponente bleibt also auch in naher Zukunft ein großer Bestandteil in der Kundenbetreuung, die von den aktuellen Chatbots nicht ersetzt werden kann.

Um potentielle Anwendungsfälle von Chatbots in Medienunternehmen zu diskutieren, trafen ein Kollege und ich uns in Berlin mit verschiedenen Chatbot Anbietern. Lesen Sie unsere Erkenntnisse über die Arbeit in Teil 2.

BDZV/SCHICKLER Trendumfrage 2019 – die aktuellen Branchentrends

Künstliche Intelligenz, Preis- und Angebotsdifferenzierung sowie neue Geschäftsmodelle und Services in der Logistik. Das sind die Trends der Zeitungsbranche 2019. Sie sind das Ergebnis der Trendumfrage von BDZV und SCHICKLER. Jedes Jahr befragen wir die Top-Entscheider der Zeitungsverlage zu ihren Einschätzungen und Toptrends des jeweils gestarteten Jahres. Die Ergebnisse wurden Ende Januar von SCHICKLER-Partner Rolf-Dieter Lafrenz bei der Jahrespressekonferenz des BDZV vorgestellt.

Die Trends der Zeitungsbranche 2019

Trend 1: Künstliche Intelligenz wird in Verlagen Realität

Für Amazon, Google, Netflix und Co. ist Künstliche Intelligenz ein essentieller Bestandteil ihrer Geschäftsmodelle. Hier erwarten Top-Entscheider der Zeitungsverlage ab 2019 ein deutliches Wachstum bei den Verlagen. Medienunternehmen haben die besten Voraussetzungen für den Einsatz Künstlicher Intelligenz: die Prozesse sind vielfältig und es entstehen große Mengen an Daten, mit denen Algorithmen gespeist und verbessert werden können.

Trend 1: Künstliche Intelligenz

74% der Top-Entscheider bewerten Künstliche Intelligenz als relevant bis sehr relevant für ihre Zukunft – bei den großen Verlagen (ab 100.000 Exemplare verkaufte Auflage) sind es sogar 94%. Die größten Chancen sehen die Top-Entscheider in den markennahen Bereichen Werbemarkt, Redaktion und Lesermarkt. Hier können intelligente Algorithmen die Marktausschöpfung deutlich steigern.

Weitere Anwendungsbeispiele finden Sie auch in unserem Blogartikel Künstliche Intelligenz für Medienunternehmen und auf schickler.de/datascience.

Trend 2: Preis- und Angebotsdifferenzierung als Chance

Verlage setzen verstärkt auf moderne und flexible Preis- sowie Angebotsmodelle. Das zeigt der zweite Trend ganz deutlich. Sie richten sich damit vermehrt an die individuellen Bedürfnisse der Nutzer. Wir kennen dies in unserem Alltag beispielsweise von Mobilfunk- oder PayTV-Verträgen mit individualisierbaren Bestandteilen und verschiedenen Pricing-Modellen.

Trend 2: Preis- und Angebotsdifferenzierung

Laut unserer Trendstudie wird Preis- und Angebotsdifferenzierung von 79% der Verlage bereits eingesetzt oder der Einsatz ist innerhalb der nächsten drei Jahre geplant. Speziell bei den digitalen Angeboten ergeben sich neue Möglichkeiten. So bietet die Ibbenbürener Volkszeitung mit IVZ-Themenwelten beispielsweise schon heute ein digitales Abomodell basierend auf verschiedenen Themengebieten an, die die Nutzer nach Interesse einzeln buchen können.

Trend 3: Logistikdienstleistungen sind starke Wachstumstreiber

Logistik war schon immer eine wichtige Kompetenz der Verlage. Ursprünglich ein reines Mittel zum Zweck der Zustellung von Tageszeitung und Anzeigenblättern, haben viele Verlage in den letzten Jahren die Logistikstrukturen für den Aufbau von Briefdienstleistungen genutzt. Wachstum ist hier allerdings nur noch über eine Steigerung der Marktanteile möglich, und auch die Margen sind nicht überall befriedigend.

Trend 3: Logistikdienstleistungen

Daher folgt nun die nächste Entwicklungswelle der Logistikdienstleistungen: Verlage nutzen ihre Kompetenz und die vorhandene Infrastruktur, um neue Services rund um die Logistik aufzubauen. Hierzu gehören beispielsweise Kurierfahrten für Baustellen oder Fulfillment-Services für Online-Shops. So geben 71% der Top-Entscheider in unserer Studie an, dass Geschäftsfelder rund um die Logistik eine hohe strategische Relevanz haben – bei den großen Verlagen sogar 93%. Hierbei sollen auch neue Technologien und Arbeitsmodelle unterstützen: die drei relevantesten für Verlage sind Zusteller-Apps (74% geplante Einführung bis 2022), elektrische Zustell-Fahrzeuge (63% geplante Einführung bis 2022) und der Ausbau von Vollzeit-Arbeitsplätzen in der Logistik (62% geplante Einführung bis 2022).

Lesen Sie hierzu auch unsere passenden Artikel Zustellung nach dem Mindestlohn: „Letzte Meile“ im Fokus und Abseits der Letzten Meile: Logistik-Geschäftsmodelle.

Bei Interesse finden Sie die komplette Studie hier.

Use Case: Optimierung der B2B-Verkaufsorganisation durch Einsatz eines Recommender-Systems

Der Verkauf von Werbeplätzen im B2B-Geschäft ist ein wesentliches Geschäftsfeld in Medienhäusern. Dementsprechend kritisch ist eine effiziente und erfolgreiche Verkaufsorganisation für deren Gesamtgeschäftserfolg. Recommender-Systeme basierend auf modernen Machine-Learning Ansätzen können dabei helfen, in der Verkaufsorganisation sowohl den Absatz zu erhöhen als auch die Effizienz zu steigern. Im Folgenden diskutieren wir die Erstellung eines Kunden-individuellen Produkte-Rankings als konkrete Einsatzmöglichkeit eines Recommender-Systems in der B2B-Verkaufsorganisation. Eine allgemeine Einführung in die Funktionsweise von Recommender-Systemen, deren Einsatzmöglichkeiten in Medienunternehmen und die Chancen, die sich durch deren Nutzung bieten, finden Sie unter “Andere Kunden kauften auch…” – mehr Umsatz durch Einsatz von Recommender-Systemen im B2C- und B2B-Sales.

Abbildung 1: Welche Produkte sollen dem Kunden angeboten werden? 

Wie werden Entscheidungen in der Verkaufsorganisation getroffen?

Versetzen wir uns zunächst in folgende alltägliche Situation in Verkaufsorganisationen von Medienhäusern: Ein Verkaufsmitarbeiter besucht Firma 1 und bietet ihr Werbeplätze in Zeitung X und Online-Portal X an. Den Werbeplatz in Zeitung X konnte er bereits im letzten Jahr erfolgreich an Firma 1 verkaufen und da Zeitung X und Online-Portal X sehr ähnliche Inhalte haben, entschließt er sich dazu auch einen Werbeplatz bei Online-Portal X anzubieten. Der Verkaufsmitarbeiter stützt sich dabei hauptsächlich auf seine eigenen umfassenden Verkaufserfahrungen. Er weiß jedoch nicht, dass ein anderer Verkaufsmitarbeiter gerade bei der Firma 2, die in der gleichen Branche wie Firma 1 aktiv ist, erfolgreich Werbeplätze in Zeitung X, Zeitung Y und Zeitung Z verkaufen konnte und ein dritter Verkaufsmitarbeiter bei der Firma 3 nicht erfolgreich dabei war, zusätzlich zu Zeitung Z auch Online-Portal Z anzubieten.

Kunde Zeitung X Zeitung Y Zeitung Z Online- Portal X Online- Portal Z
Firma 1 Interessiert ??? ??? ??? ???
Firma 2 Interessiert Interessiert Interessiert
Firma 3 Interessiert Nicht interessiert Nicht interessiert

Tabelle 1: Historische Verkaufsinformationen

Recommender-Systeme können die gesamten in der Organisation angefallen Informationen auswerten und dem Verkaufsmitarbeiter automatisiert vor seinem Termin bei Firma 1 eine Liste mit Produkten erstellen, für die sich Firma 1 mit hoher Wahrscheinlichkeit interessiert. Dabei kann das System sowohl Ähnlichkeiten zwischen Kunden

  • Firma 1 und Firma 2 haben beide Werbeplätze in Zeitung X und Firma 2 zusätzlich Werbeplätze in Zeitung Y und Zeitung Z gekauft, also empfehle Firma 1 auch Zeitung Y und Zeitung Z

und zwischen Produkten

  • Zeitung Y und Zeitung Z sind ebenfalls Print-Medien und wurden mit Zeitung X zusammen gekauft, Online-Portal X enthält ähnliche Inhalte wie Zeitung X, also empfehle auch Zeitung Y, Zeitung Z, Online-Portal X

berücksichtigen.

Wie liefert ein Recommender-System optimierte Produktvorschläge?

Recommender-Systeme automatisieren die obigen Überlegungen im großen Stil. Sie sind in der Lage selbstständig wesentliche Zusammenhänge zwischen Kunden und Produkten zu erkennen und damit zuverlässige Vorhersagen für den Abschlusserfolg zu generieren. Zusätzlich zu den in Tabelle 1 dargestellten historischen Verkäufen und Verkaufsversuchen können beliebige weitere Kunden- und Produktinformationen in die Modellbildung einfließen. Ein Recommender-System bietet hierbei den großen Vorteil, dass es im Gegensatz zum menschlichen Entscheider prinzipiell beliebig große Daten- und Informationsmengen umfassend auswerten kann. Somit kann es auch Muster berücksichtigen, die erst durch die Analyse einer großen Zahl von Datenpunkten sichtbar werden. Zusätzlich trifft das System Vorschlags-Entscheidungen rein basierend auf der Daten-Faktenlage und ist im Gegensatz zum Bauchgefühl der Verkaufsmitarbeiter immun gegenüber kognitiven Verzerrungen. Nichtsdestotrotz liefern die Erfahrung und das Bauchgefühl der Verkaufsmitarbeiter wertvolle Erkenntnisse und können in hybriden Entscheidungssystemen berücksichtigt werden. 

Abbildung 2: Technischer Aufbau eines Recommender-Systems

Das Kernstück des Recommender-Systems ist ein Machine-Learning Modell, das trainiert wird um aus der Eingabe von Kunde und Produkt einschließlich zugehöriger Merkmale einen Score, wie z.B. die Verkaufs-Wahrscheinlichkeit oder den beim Kunden zu generierenden Umsatz mit diesem Produkt, zu berechnen. Basierend auf diesem Modell wird für einen Kunden ein Produkte-Ranking erstellt, indem für diesen Kunden der Score mit jedem Produkt berechnet und die Produkte nach dem Score sortiert werden. Der Output des Recommender-Systems, der dem Verkaufsmitarbeiter als Grundlage für die Vorbereitung des Termins bei Firma 1 dienen kann, könnte dann zum Beispiel wie folgt aussehen:

Rank Produkt Verkaufs-Wahrscheinlichkeit
1 Zeitung X 92%
2 Zeitung Z 63%
3 Zeitung Y 57%
4 Online-Plattform X 23%
5 Online-Plattform Z 8%

Tabelle 2: Ranking-Output des Recommender-Systems

Wie stark automatisiert diese Rankings am Ende in die Prozesse der Verkaufsorganisation eingebunden werden, können das Medienhaus und die Verkaufsmitarbeiter selbst entscheiden. Es kann direkt verwendet werden um zentral zu planen, welche Kunden mit welchen Produkten angesprochen werden, oder aber den Verkaufsmitarbeitern als Ergänzung zu ihren eigenen Einschätzungen bei der Verkaufsplanung dienen.

Welche weiteren Vorteile bietet der Einsatz eines Recommender-Systems?

Zusätzlich dazu, dass ein Recommender-System automatisiert Verkaufs-Wahrscheinlichkeiten liefert, kann es auch dabei helfen das Kaufverhalten der Kunden besser zu verstehen. Anhand des Outputs und der Zwischenergebnisse des Machine-Learning Modells können Kaufmuster aufgedeckt und homogene Kunden- und Produkt-Cluster identifiziert werden. Das folgende Bild zeigt beispielhaft die von einem Neuronalen Netz gelernten Produkt-Vektoren, so dass nahe bei einander liegende Punkte Produkte repräsentieren, die von gleichen Kunden gekauft werden. Dies erlaubt tiefe Einblicke in die Struktur des Produktportfolios rein auf Basis des Kaufverhaltens.

Abbildung 3: Darstellung der gelernten Ähnlichkeiten der Produkte (Farben entsprechen Produktgruppen und Kreisgrößen dem Gesamt-Umsatz mit diesem Produkt)

Darüber hinaus können weitere Daten-Analyse- und Clustering-Methoden genutzt werden, um das Kaufverhalten der Kunden besser zu verstehen. Besonders hervorzuheben ist dabei die Methode der Assoziationsanalyse, bei der automatisiert Regeln der Form „Wenn Zeitung X und Zeitung Y gekauft wurden, wird mit Wahrscheinlichkeit 87% auch Zeitung Z interessant sein“ gelernt werden können. Basierend auf diesen Regeln kann der Algorithmus dann Empfehlungen generieren. Zum Beispiel würde er Kunden, die Zeitung X und Zeitung Y gekauft haben, auch Zeitung Z vorschlagen. Dieser Algorithmus erstellt also nicht nur Empfehlungen “Kaufen Sie Zeitung Z”,  sondern er kann auch zusätzlich Begründungen “Wenn Zeitung X und Zeitung Y gekauft wurden, wurde oft auch Zeitung Z gekauft” für diese Empfehlungen liefern. Somit können tiefe Einblicke in die Kaufmuster gewonnen werden und die Produktempfehlungen sind einfacher zu plausibilisieren.

Recommender-Systeme und Machine-Learning-Tools können über die oben diskutierte Erstellung von Kunden-individuellen Produkte-Rankings hinaus noch weitere Aufgaben in der Steuerung der Verkaufsorganisation übernehmen. So kann zum Beispiel auch vorhergesagt werden, wann welche Kunden kontaktiert werden sollten, mit welcher Frequenz Kunden betreut und über welche Kanäle (Tele-Sales, persönlicher Besuch) optimal angesprochen werden können. Zudem können Kunden-individuell optimierte Preise und Rabatte bestimmt werden. Die Qualität dieser Vorhersagen hängt dabei stark von der vorhandenen Datenlage ab. Solange aber die endgültigen Entscheidungen bei menschlichen Entscheidungsscheidungsträgern liegen und der Output von Recommender-Systemen lediglich bei der Entscheidungsfindung unterstützt, können von Algorithmen aufgedeckte Zusammenhänge die Verkaufsplanung verbessern, ohne dass nicht erkannte Muster, die jedoch den Verkäufern durch ihre Erfahrung bekannt sind, ignoriert werden. Ein großer Vorteil von Machine-Learning Systemen ist auch, dass diese sich mit der Zeit weiterentwickeln, d.h. mit dem Zufluss neuer Daten lernen sie Zusammenhänge immer besser zu erkennen und Vorhersagen immer präziser zu treffen.

Listening-Center, Abo-Aufwertung, WLAN für alle und eine Gefängniszelle zum Auslegen – Die innovativsten Projekte der Zeitungsbranche 2018

In den drei Kategorien Produktinnovation, Vermarktungsinnovation und Neues Geschäftsfeld sowie einem Sonderpreis wurden im Rahmen des Zeitungskongresses im E-WERK in Berlin Ende September die Sieger des NOVA Innovation Award 2018 gekürt. Gemeinsam mit dem Bundesverband Deutscher Zeitungsverleger (BDZV) hat SCHICKLER diesen Award zum zweiten Mal organisiert. Die Preise gingen in diesem Jahr an

  • die Rheinische Post in Düsseldorf,
  • den Zeitverlag in Hamburg,
  • Kieler Nachrichten sowie
  • Die Welt aus Berlin.
NOVA-Award 2018: Alle Preisträger

Warum haben diese Ideen die Jury überzeugt?

1) Produktinnovation: Listening-Center der Rheinischen Post

Das Monitoring-Tool, das inhouse bei der RP entwickelt wurde, unterstützt die Lokal- und Mantelredakteure in Ihrer täglichen Recherche. Anhand eines Algorithmus werden Stimmungen aus 40 Millionen Quellen (u.a. soziale Netzwerke, Foren und Nachrichtenseiten) systematisch analysiert. Die Ergebnisse werden zusammengefasst, wodurch in Echtzeit Thementrends aufgespürt werden können.

Gerade im lokalen und regionalen Bereich hat die Lösung der RP ihre Stärken und kann sich von anderen Tools abgrenzen, wenn lokale Schlagworte mit spezifischen Filtern kombiniert werden. So erhält jede Redaktion der RP ein morgendliches Reporting mit den wichtigsten Links des individuellen Themenkosmos. Kein Wunder, dass bereits nationale und internationale Medienhäuser interessiert sind. So soll das Tool im Rahmen eines Lizensierungsmodells aktiv vermarktet werden.

NOVA-Award 2018: Preisträger Produktinnovation

2) Vermarktungsinnovation: Freunde der ZEIT des Zeitverlags

Mit Freunde der ZEIT baut der Zeitverlag ihr Zeitungsabonnement zum Clubmodell aus, welches vor allem auf die Stärkung der Abonnenten-Treue abzielt. In dieser Mitgliedschaft sind neben der Zeitung in gedruckter oder digitaler Form eine Reihe an zusätzlichen Leistungen enthalten:

  • Das Live-Programm mit verschiedensten Events, wie dem Tag der Zeit, Redaktionsbesuchen oder Workshops mit ZEIT-Experten.
  • Online-Angebote mit exklusiven Inhalten, wie Podcasts, Webinaren, E-Books oder einem eigenen WhatsApp-Channel
  • Abonnenten-Vorteile bei ausgewählten Partnern

Wir kennen nur wenige Verlage, die diesen Club-Gedanken so konsequent umsetzen, wie die ZEIT und das Handelsblatt. Neben der Steigerung der Kundenbindung und damit höhere Aboerlöse können diese Leistungen auch durch neue Vermarktungsansätze monetarisiert werden. Bei den diversen Veranstaltungen können Kooperationen mit Sponsoren geschlossen werden und durch die Vorteilsangebote von Partnern werden deren Produkte beworben.

NOVA-Award 2018: Preisträger Vermarktungsinnovation

3) Neues Geschäftsfeld: #SH_WLAN der Kieler Nachrichten

Weiter weg vom klassischen Zeitungsgeschäft befindet sich die Innovation der Kieler Nachrichten. Sie haben das Ziel, über das Verbreitungsgebiet ein möglichst umfassendes WLAN-Netzwerk zu spannen. Bislang sind bereits über 1.500 Hot-Spots in Schleswig-Holstein installiert, an denen sich schon 700.000 Personen registriert haben. Dies gelang der Kieler Nachrichten gemeinsam mit ihren beiden Partnern Sparkassen Schleswig-Holstein und Ruckus Accespoints. Die Access-Points werden lokalen Geschäftskunden gegen eine variable Gebühr je nach User-Zugriffen bereitgestellt. Neben dieser Einnahmequelle können auch gezielte Inhalte sowie Werbung an den Access-Points ausgespielt werden, was durch den Verlag gesteuert wird. Neben diesen finanziellen Aspekten, war der gesellschaftliche Charakter dieser Idee für die Jury ausschlaggebend.

NOVA-Award 2018: Preisträger Neues Geschäftsfeld

4) Sonderpreis: Deniz Yücels Leben der Welt

Auch für die erstmalige Vergabe des Sonderpreises spielte das Kriterium gesellschaftlicher Nutzen eine übergeordnete Rolle. Denn diese – vor allem inhaltlich getriebene – Idee ist weder skalierbar noch gut auf andere Verlage übertragbar. Trotzdem hat sie die Jury mit ihrer Kreativität überzeugt. Auf Basis einer Originalzeichnung Yücels aus dem Gefängnis, wurde der Grundriss seiner Zelle 1:1 nachempfunden und in einer Sonderausgabe der Welt abgedruckt. Aus den jeweiligen Blatt-Rückseiten der Zeitung konnten sich die Leser den Grundriss der Zelle maßstabsgetreu zu Hause auslegen. Ein deutliches Zeichen der Redaktion für den freien Journalismus.

NOVA-Award 2018: Preisträger Sonderpreis

Wieder einmal konnte die Branche mit diesem Event zeigen, dass sie trotz der schwierigen Marktsituation durchaus gute Ideen hervorbringt. Nur durch Innovation kann nachhaltiges Wachstum generiert werden. Wie Sie als Verlag die Zukunft selbst gestalten können, erfahren Sie in unserem aktuellen Einblick zum Innovationsmanagement bei Verlagen.

Diesen können Sie hier anfordern:

https://www.schickler.de/2018/11/innovationsmanagement-wie-medienhaeuser-auch-in-zukunft-relevant-bleiben/

#DataDeepDive – dpa Hackathon mit Schickler Data Science Team

Unter dem Motto #DataDeepDive fand vom 29. November bis 1. Dezember bereits zum dritten Mal der dpa Hackathon im Newsroom der deutschen Presseagentur (dpa) in Berlin statt. Ziel war es, datengetriebene Lösungen zu entwickeln, um die Arbeit der Journalisten im dpa-Newsroom zu erleichtern und neue datenbasierte Produkte oder Produktverbesserungen für die Nachrichtenagentur zu kreieren. Die behandelten Themen umfassten unter anderem die automatisierte Erstellung von journalistischen Inhalten in Text und Graphiken (Robot Journalism), die Auswertung und Erkenntnisgewinnung aus öffentlichen Datenquellen (Public Data) und die Verwendung von Nutzerdaten zur optimalen Ausspielung von Inhalten (DataDriven-Publishing).

Abbildung 1: Logo des Hackathons

Das Format des Hackathons und die bunte Mischung von circa 80 Teilnehmen aus den Bereichen Software-Entwicklung, Journalismus und Data Science boten optimale Voraussetzungen für die Entwicklung innovativer Ideen. Zudem bekamen die Teilnehmer von den dpa-Mitarbeitern im Newsroom direkte Einschätzungen zur Umsetzbarkeit und zum Nutzen ihrer Konzepte.
Nur 50 Stunden hatten die Teilnehmer Zeit um von den ersten Ideen bis zum finalen Pitch tragfähiger Konzepte und zur Vorstellung funktionsfähiger Prototypen zu gelangen. Trotzdem haben sich insgesamt 11 Teams gefunden, denen es in dieser kurzen Zeit gelungen ist 11 Projekte zu erarbeiteten, die aufzeigen wie die Zukunft redaktioneller Arbeit und journalistischer Produkte aussehen könnte.

Mit Robot Journalism werden automatisiert Texte und Graphiken erstellt

Die Teams Regio Reports und Loki beschäftigten sich mit der Frage, wie Lokaljournalisten aus großen öffentlichen Datensätzen, wie sie zum Beispiel das statistische Bundesamt regelmäßig veröffentlicht, mit geringem Aufwand für ihre Region relevante Einsichten gewinnen können. Sie entwickelten Algorithmen, die automatisiert Zusammenfassungen und Graphiken für jede Region erstellen und diese an die Lokalredaktionen versenden. Das Team Loki programmierte zudem einen Chatbot, über den Journalisten entsprechende Inhalte anfragen können und der diese dann automatisiert bereitstellt. Das Team Regio Reports wurde für sein Konzept mit dem Preis Best of API Prototype ausgezeichnet.

Abbildung 2: Das Team VizGov gewinnt den Preis Best Overall (Foto dpa)

Das Team VizGov, das mit dem Preis Best Overall ausgezeichnet wurde, konnte die Jury mit einem Programm überzeugen, das automatisiert Bundestagsprotokolle auswertet. So kann das Tool zum Beispiel feststellen, welche Fraktion für die meisten Zwischenrufe verantwortlich ist oder welcher Abgeordnete bei seinen Redebeiträgen den meisten Applaus oder die meisten Lacher erntet. Auch das Team VizGov programmierte einen Chatbot, dem Journalisten solche Fragen stellen können und der dann automatisiert die erfragte Information aus den Protokollen extrahiert.
Journalisten bietet sich eine Vielzahl von Möglichkeiten einen Text oder eine Graphik zu gestalten. Oft jedoch fehlt die nötige Information darüber, welche Form dem Leser am besten gefallen wird. Einen interessanten Workaround für dieses Problem entwickelte das Team Fluid Articles. Es kreierte ein Tool zur Erstellung interaktiver Graphiken, die der Nutzer selbst verändern kann. Anhand der Veränderungen der Graphik durch die Nutzer lernt der Algorithmus welche Darstellung den Nutzern am besten gefällt und präsentiert neuen Nutzern eine überarbeitete Darstellung. Potentiell ist ein ähnliches Konzept auch für Textinhalte denkbar. So können zum Beispiel Textteile, bei denen ein Nutzer das Lesen abbricht, automatisiert überarbeitet werden.

Smarte Algorithmen erleichtern die Arbeit in der Redaktion

Redaktionen stehen bei der Erstellung journalistischer Inhalte permanent unter Zeitdruck. Viele Teams suchten deswegen nach Lösungen um die Arbeit der Journalisten zu erleichtern und zu beschleunigen. Das Team Robocop beschäftigte sich mit dem Problem, dass täglich hunderte von Pressemitteilungen in Redaktionen eingehen und manuell die berichtenswerten Mitteilungen herausgefiltert werden müssen. Für die Entwicklung eines Algorithmus, der automatisiert Polizeiberichte scannt und nach ihrer Wichtigkeit sortiert, wurde das Team mit dem Preis Most Innovative ausgezeichnet. Weitere denkbare Anwendungen des Algorithmus umfassen die automatisierte Prüfung beliebiger Pressemitteilungen auf Relevanz oder das Durchsuchen von Social Media Feeds nach berichtenswerten Ereignissen.

Abbildung 3: Das Team Robocop bei der Arbeit (Foto dpa)

Um Journalisten bei der Recherche zu unterstützen, entwickelte das Team Context ein Programm, das die Berichterstattung über eine Person auswertet und visualisiert. So wird auf einen Blick deutlich, in welchem Kontext eine Person in der Vergangenheit im öffentlichen Interesse stand. Der Algorithmus kann zudem angepasst werden um die Berichterstattung über Organisationen, Länder, Orte und ganz allgemein Themen zu visualisieren.
Ein weiterer wichtiger Punkt für die Produktion qualitativ hochwertiger journalistischer Inhalte ist die Verifizierung von Quellen. Das Team veri easy entwickelte hierfür einen Algorithmus, der die Echtheit von Fotos analysiert. Mit dem Ziel Nachrichtenhäusern Fotos und Videos schneller zur Verfügung zu stellen kreierte das Team Crowdforce eine App, über die sowohl professionelle Fotografen als auch Amateure ihr Bildmaterial anbieten können. Journalisten können in der App dann mit Hilfe von Stichworten, Zeit- und Ort-Restriktionen passendes Material finden.

Durch DataDriven-Publishing werden Leser optimal angesprochen

Bei digitalen Medieninhalten besteht die Möglichkeit eine Vielzahl an Nutzungsparametern wie Leserzahl, Lesedauer und Lesetiefe zu erfassen. Basierend auf diesen Werten können Inhalte optimiert oder Leser-individuell ausgespielt werden. Im Gegensatz zu den Medienhäusern, die die Inhalte direkt an die Leser weitergeben, verfügt die dpa als Nachrichtenagentur, die ihre Inhalte an die Medienhäuser verkauft, allerdings nicht über diese Informationen. Deswegen entwickelte das Team HillSight ein Kooperationsmodell zur Weitergabe relevanter Performance-Parameter von den Medienhäuser an die dpa. Die dpa kann mit Hilfe dieser Informationen ihre Inhalte optimieren und ein werthaltigeres Produkt anbieten. Die Medienhäuser profitieren von der Kooperation dadurch, dass sie für die Erreichung ihrer strategischen Ziele wie Reichweite und Paid-User-Conversion maßgeschneiderte Inhalte erhalten.
Um möglichst vielen Artikeln eine interessierte Leserschaft zu verschaffen, entwickelte das Team Fair chance ein Recommender System für Online-Artikel. Das Team Vor der Tür entwickelte ein Content-Portal, auf dem auf Nachbarschaftsebene interessante Nachrichten gesammelt werden. Über das Portal können lokal relevante Nachrichten, Veranstaltungsinformationen und viele weitere Inhalte sowohl von kommerziellen Anbietern als auch von Privatpersonen geteilt werden. Die Nutzer können selbst steuern über welche Inhalte sie durch das Portal informiert werden möchten.

Schickler begleitete den Hackathon als Sponsor und war mit dem Data Science Team vor Ort. Amr Rekaby Salama und Ole Martin fungierten als Mentoren und unterstützten die Teams bei technischen und konzeptionellen Fragestellungen. Dr. Christoph Mayer war als Jury-Mitglied bei der Auswahl der besten Beiträge beteiligt.

Schickler Data Science: Künstliche Intelligenz für Medienunternehmen

Google wird bei allen seinen Angeboten in den nächsten Jahren Machine Learning einsetzen. Das gibt CEO Sundar Pichai bekannt.

Was daran bemerkenswert ist: Google sieht die größten Potenziale offenbar nicht in der Entwicklung neuer Produkte und Services, sondern im Einsatz Künstlicher Intelligenz in bestehenden Produkten, Services und Prozessen.

Und was noch bemerkenswerter ist: Die Chancen, die Google mit Künstlicher Intelligenz und Machine Learning hat, hat jedes Unternehmen – und Medienunternehmen ganz besonders: Da die Prozesse und Geschäftsbeziehungen hin zu Kunden und Unternehmen hier so vielfältig sind, ergeben sich durch den Einsatz von Künstlicher Intelligenz vielfältige Chancen – und zwar ebenfalls in der deutlichen Verbesserung bestehender Produkte, Services und Prozesse.

Schickler Data Science

Um Medienunternehmen beim Einsatz Künstlicher Intelligenz zu unterstützen hat Schickler ein eigenes in-house Data Science Team aufgebaut. Es arbeitet in Projekten Hand in Hand mit den Schickler-Beratern. Gemeinsam identifizieren sie Chancen für den Einsatz Künstlicher Intelligenz, entwickeln Algorithmen und programmieren Prototypen.

Hier einige Beispiele dafür, wie Künstliche Intelligenz das Google-Angebot verbessert:
Mithilfe Künstlicher Intelligenz kann…

  • Google Translate noch natürlicher übersetzen,
  • dem Nutzer noch passendere und relevantere Werbung angezeigt werden,
  • Google Suche noch besser verstehen, wonach der Nutzer sucht,
  • der Smartspeaker Google Home wissen, wer gerade mit ihm spricht und der Person auf sie zugeschnittene, passende Antworten geben
  • Google Maps Staus noch besser vorhersagen und Autofahrer bestmöglich zum Ziel bringen.

Diese Verbesserungen stehen natürlich nicht nur Google gut. Use Cases für Künstliche Intelligenz in Medienunternehmen gibt es viele. Einige Beispiele hierfür sind:

  • Verkaufssteuerung: Erstellen von Empfehlungen, welche Werbekunden wann und mit welchem Angebot angesprochen werden sollen,
  • Identifizierung von Upselling Möglichkeiten: Wo es sie gibt und bei welchen Kunden die höchsten Verkaufschancen bestehen; welche Leser für ein E-Paper Upselling angesprochen werden sollten und wer die höchsten Upselling-Chancen hat,
  • Paid Content: einen Online-Leser in Echtzeit klassifizieren und entscheiden, welche Inhalte vor und welche hinter die Paywall müssen und so die Conversion auf ein Paid Content-Abo erhöhen,
  • Vermeidung von Zustellproblemen Historische Daten, Wetter, Druckspezifika etc. geben preis, in welchen Bezirken der Zustelllogistik es am nächsten Tag Herausforderungen geben kann – so dass rechtzeitig gegengesteuert werden kann,
  • Prognosen im Produktionsprozess: Früherkennung, wo Herausforderungen auftauchen können, die bereits pro aktiv gelöst werden könnten (z. B. in Druckereien)
  • Die Liste lässt sich beliebig fortführen. Das Schickler Data Science Team hat einen umfassenden Katalog an Anwendungsfällen von Künstlicher Intelligenz in Medienunternehmen zusammengestellt: die Schickler Data Science Landkarte gewährt einen exklusiven Einblick.

Produkte, Services und Prozesse werden durch Künstliche Intelligenz günstiger, maßgeschneiderter und effizienter.

Welche Chancen ergeben sich bei Ihnen?