Aktuelle Data Science Trends – Eindrücke von den German Data Science Days 2019

Die Themen Data Science und Künstliche Intelligenz sind im Moment in aller Munde. Mit ihrem Einsatz sind riesige Erwartungen verbunden. Andererseits stellt deren Einführung Unternehmen auch vor große Herausforderungen. Wie erreicht man zum Beispiel, dass Data Science Teams und Fachabteilungen effizient zusammenarbeiten? Welche Tools und Algorithmen eignen sich am besten für verschiedene Anwendungsfälle? Wie geht man mit Risiken für Datenmissbrauch um, die im Zeitalter von Big Data immer größer werden? Diese und weitere Themen wurden bei den German Data Science Days 2019 an der LMU München diskutiert. Die Konferenz versammelt jährlich die deutsche Data Scientist Community und bietet eine Plattform für den Austausch zwischen Teilnehmern aus Wissenschaft, Industrie und Wirtschaft. Und wir von SCHICKLER waren mit dabei.

Teilnehmer in der großen Aula der LMU (Foto: LMU)



Interaktion zwischen Data Science Teams und Fachabteilung

Data Scientists verfügen über technisches Expertenwissen, Mitarbeiter in den Fachabteilungen über Expertenwissen in den jeweiligen Fachbereichen. Für die Entwicklung erfolgreicher Data Science Lösungen ist das Know-how aus beiden Bereichen wichtig. Viele Projekte scheitern daran, dass nicht genug oder nicht erfolgreich miteinander kommuniziert wird. Zwar kann ein Data Scientist auch eigenständig technisch gut funktionierende Lösungen entwickeln. Wenn sein Verständnis der Problemstellungen aber nicht exakt ist, schießen diese nicht selten am realen Problem vorbei. Andererseits werden gut funktionierende Lösungen von den Fachabteilungen abgelehnt, weil diese aufgrund fehlenden Verständnisses falsch verwendet werden und schlechte Ergebnisse liefern. Wie relevant dieses Thema ist, zeigte sich dadurch, dass die Mehrheit der Publikumsfragen an die Vortragenden hierauf abzielte. Als Antwort darauf berichtete Dr. Andreas Wagner vom Fraunhofer ITWM von Erfahrungen aus einem Projekt zur Untersuchung der Schadensabwicklung in KFZ-Hersteller-Garantien. Dort wurden Mitarbeiter aus der Fachabteilung als feste Mitglieder in Data Science Projektteams aufgenommen. So konnte bei jeder (auch technischen) Entscheidung im Projektverlauf direkt deren Einfluss hinsichtlich der fachlichen Anforderung und Nutzbarkeit geprüft werden.

Ein weiterer Ansatz die Kluft zwischen Entwickler und Nutzer der Data Science Lösungen zu verkleinern, liegt in dem zunehmenden Einsatz von Self Service Tools. Hier entwickelt der Data Scientist keinen Algorithmus, der dem Fachmitarbeiter eine Entscheidung komplett abnimmt. Stattdessen entwickelt er ein Tool, das dem Fachmitarbeiter durch die automatisierte Bereitstellung passender Informationen bei der Entscheidung unterstützt. Dr. Mihael Ankerst von der Allianz Deutschland stellte hierzu ein Projekt vor, bei dem ein interaktives Dashboard entwickelt wurde. Hiermit können Versicherungsvertreter selbstständig durch Anpassung verschiedener Visualisierungen Daten analysieren. Dabei entdecken sie eigenständig Kundenmuster und Upselling-Chancen. Gegenüber einem intelligenten Algorithmus, der trainiert wurde um eine spezielle Fragestellung zu beantworten, ist dieses Tool deutlich flexibler einsetzbar. Durch die Interaktion mit dem Fachmitarbeiter fließt zudem dessen Expertenwissen direkt in die Entscheidung mit ein. Gängige Machine Learning Algorithmen verhalten sich dagegen wie eine Black Box, die ein Ergebnis ausspuckt ohne dass für den Nutzer erkennbar ist, wie der Algorithmus zu diesem Ergebnis gelangt ist. Ist der Versicherungsvertreter dagegen wie hier selbst aktiv an der Entscheidungsfindung beteiligt, so steigt die Akzeptanz der Ergebnisse. In großen Konzernen geht man sogar noch einen Schritt weiter, wie Dr. Andreas Nawroth, Head of Analytics bei der Munich Re, und Dr. Martin Appl, Head of Data Science bei der BMW Group, berichteten. Dort werden nicht nur interaktive Tools für einzelne Fachbereiche entwickelt. Stattdessen wurde ein zentraler Fachbereich geschaffen, der Data Science Software Lösungen wie ein externer Dienstleister den anderen Fachbereichen zur Verfügung stellt. Die konkrete Anwendung der Algorithmen und Analyse der Daten verbleibt großteilig in den Fachbereichen.

E-Commerce Unternehmen bleiben Vorreiter

Die bekanntesten Anwendungsfälle von künstlicher Intelligenz stammen aus dem Online- und E-Commerce-Bereich. Durch die Vielzahl der Interaktionen von Nutzern mit Online-Inhalten fallen hier besonders große Datenmengen an. Motiviert durch den Erfolg von KI Lösungen im Online Bereich und unterstützt durch Trends wie Internet of Things gründen aber auch immer mehr Offline-Unternehmen Data Science Fachbereiche. Die Vorträge bei den German Data Science Days haben allerdings gezeigt, dass viele gerade der großen Unternehmen noch dabei sind hier Grundlagenarbeit zu leisten. E-Commerce-Unternehmen, bei der Konferenz durch Scout24 und Check24 vertreten, dagegen nutzen Data-Science-Lösungen über alle Unternehmensbereiche hinweg und die Qualität ihrer Produkte wird wesentlich durch die Qualität von KI Algorithmen bestimmt.



Dr. Markus Ludwig stellt KI Anwendungsfälle bei Scout24 vor (Foto LMU)

Insbesondere für Medienunternehmen interessant war der Vortrag von Alwin Viereck von der United Internet Media GmbH zum Thema Programmatic Advertising. Beim Programmatic Advertising werden in Echtzeit Ad Impressions gehandelt. Der Werbetreibende hat so die Möglichkeit seine Werbung genau den Website-Besuchern zu zeigen, die für sein Produkt am interessantesten sind. Der Werbeplatzanbieter kann seine Ad Impressions teurer verkaufen, da diese immer an den Werbetreibenden gehen, der diesen den höchsten Wert beimisst. Die Entscheidung welche Werbung bei welchen Usern die höchsten Chancen hat und welche Preise geboten werden, wird dabei zunehmend von intelligenten Algorithmen übernommen. Bereits heute liegt der Programmatic Advertising Anteil bei Online-Werbung in Deutschland laut eMarketer bei 74% (https://www.emarketer.com/content/what-programmatic-advertising-looks-like-in-germany) und Alwin Viereck prognostiziert, dass in wenigen Jahren quasi der gesamte deutsche Online-Werbemarkt Programmatic sein wird.

Neue Probleme fordern neue Algorithmen

Wir sind noch weit davon entfernt, künstliche Intelligenzen zu schaffen, die wirklich intelligent ein breites Spektrum von Problemen bearbeiten können. Stattdessen sind heutzutage eingesetzte Machine Learning Algorithmen größtenteils hoch spezialisiert. Sie wurden darauf trainiert eine ganz konkrete Aufgabe erfolgreich auszuführen. So speziell wie die Anwendungsbereiche sind oft auch die Machine Learning Algorithmen. Entsprechend große Chancen bieten sich auch kleineren Unternehmen für den Einsatz von KI Lösungen. Sie müssen nicht mit großen Tech-Giganten um die besten allgemeinen Lösungen konkurrieren. Stattdessen können sie sich darauf konzentrieren, spezielle Algorithmen zu entwickeln, die optimal an ihre konkreten Anwendungsfälle angepasst sind.

In mehreren Vorträgen wurden derartige Lösungen präsentiert. Felix Meyer von der Swiss International Air Lines AG stellte zum Beispiel ein Modell zur optimalen Bestimmung von Flugpreisen vor. Hierfür wurde ein mathematisches Modell adaptiert, das normalerweise zur Modellierung von Warteschlangen verwendet wird. Von einem weiteren spannenden Ansatz zur frühzeitigen Erkennung von Maschinen-Fehlfunktionen berichtete Andrei Ciobotar von Relayr. Spezielle neuronale Netze, sogenannte Encoder-Decoder Systeme, lernen zeitgleich Maschinendaten zu komprimieren und aus den komprimierten Daten die ursprünglichen Daten zu rekonstruieren. Dies funktioniert für normale Datensätze sehr gut. Bei anomalen Datensätzen, die auf eine Fehlfunktion hindeuten, funktioniert dies dagegen sehr schlecht. So kann ein System automatisch Anomalitäten erkennen, ohne dass ihm jemals vermittelt werden musste, wie der Normalzustand des Systems aussieht. Wie alles im Leben verändern sich auch Datenmuster im Laufe der Zeit. Zudem sammeln viele intelligente Systeme während der Nutzung weitere Daten, die zu ihrer eigenen Verbesserung verwendet werden können. Wie aber entscheidet man welche Datenpunkte zum Training des Machine Learning Algorithmus noch verwendet werden können und welche veraltet sind? Und wie aktualisiere ich ein intelligentes System, wenn es neue Daten sammelt? Prof. Dr. Barbara Hammer von der Universität Bielefeld berichtete von Forschungsergebnissen zur Lösung derartiger Probleme.

Datenethik und Datenschutz

Neben großen Chancen birgt das Sammeln von großen Datenmengen auch erhebliche Risiken. Wenn persönliche Daten in die falschen Hände geraten, können dadurch einzelnen Personen erhebliche Schäden entstehen. Zudem verfügt man als Data Scientist über mächtige Methoden zur Aufdeckung von Mustern. So können Algorithmen erkennen, dass Faktoren wie Geschlecht, Alter oder ein Name, der auf Migrationshintergrund hindeutet, mit der Arbeitsproduktivität oder der Zahlungswahrscheinlichkeit von Schuldnern korrelieren. Wird mit diesen Informationen falsch umgegangen, können Algorithmen ganze Bevölkerungsgruppen systematisch diskriminieren. Beim Data Scientist liegt eine entsprechend hohe Verantwortung, solchen Entwicklungen entgegen zu wirken. Ansätze wie mit solchen und ähnlichen Situationen umzugehen ist, stellte Dr. Sebastian Wernicke von der ONE LOGIC GmbH in einem Vortrag zur Datenethik vor.

Auch die neue Datenschutzgrundverordnung (DSGVO) und deren Implikationen wurden in mehreren Vorträgen diskutiert. Die DSGVO legt fest, dass personenbezogene Daten nur dann für bestimmte Zwecke verwendet werden dürfen, wenn die betreffende Person explizit ihre Zustimmung dazu gegeben hat. Der Data Scientist muss also immer prüfen, welche Daten für eine Machine Learning Lösung verwendet werden dürfen und dafür auch alle späteren Nutzungsmöglichkeiten abschätzen. Allerdings ist es für den Data Scientist nicht immer leicht einzuschätzen, was erlaubt ist und was nicht. Wie Prof. Dr. Nikolaus Forgó von der Universität Wien eindrucksvoll darlegte, lassen sich die juristischen Regelungen aus der DSGVO oft nur schlecht auf aktuelle technische Fragestellungen anwenden und es ergeben sich viele Grauzonen.

Haben Sie Fragen zu Themen aus dem Blog-Artikel oder interessieren sich für Data Science Anwendungen in Ihrem Unternehmen? Wenden Sie sich dazu gerne jederzeit an das Schickler Data Science Team: datasciene@schickler.de(Link)

Die German Data Science Days(https://www.gdsd.statistik.uni-muenchen.de/index.html) werden jährlich als zwei-tägige Konferenz an der Ludwig-Maximilians-Universität München ausgetragen. Ihr Ziel ist es Data Scientists aus dem deutschsprachigen Raum zu versammeln und den Austausch zwischen Wissenschaft, Industrie und Wirtschaft zu fördern. Die Vorträge beschäftigen sich mit aktuellen Trends und Herausforderungen im Bereich Data Science. Für Schickler nahmen die beiden Data Scientists Amr Rekaby Salama und Ole Martin an der Konferenz teil.

Der NOVA Innovation Award geht in die dritte Runde

Der BDZV und SCHICKLER suchen wieder die innovativsten Ideen der deutschen Verlagsbranche

Gemeinsam mit dem Bundesverband Deutscher Zeitungsverleger (BDZV) prämiert SCHICKLER 2019 zum dritten Mal in Folge die herausragendsten Innovationen der deutschen Zeitungsverlage mit dem „NOVA – Innovation Award der deutschen Zeitungen“. Wie in den vorangegangenen Jahren werden hierbei Preise für „Produktinnovation“, „Vermarktungsinnovation“ und „Neues Geschäftsfeld“ vergeben.

„Die Branche befindet sich in einem kreativen Umbruch. Wir wollen Verlagen eine Plattform geben, Innovationen sichtbar zu machen und zu teilen. In den letzten drei Jahren haben über 50 Verlage teilgenommen und insgesamt eine dreistellige Anzahl an Innovationen eingereicht. Das zeigt, dass die Branche innovativ ist und die Plattform des NOVA Innovation Awards annimmt“, so Rolf-Dieter Lafrenz, geschäftsführender Partner bei SCHICKLER.

Die Bewerbungsphase läuft ab dieser Woche bis zum 17.05.2019. Auf dem BDZV-Zeitungskongress am 24.09.2019 prämieren eine Experten-Jury aus der Publisher- und Startup-Szene sowie Rolf-Dieter Lafrenz die besten Innovationen.

Mehr Informationen zum NOVA – Innovation Award erhalten Sie unter www.nova-award.de.

Kontakt: Daniel Lehmler, Tel. 0172-5486702, d.lehmler@schickler.de

Schickler Media Index: Das geben Unternehmen 2019 für die Medienkanäle TV, Print, Digital & Co aus

Quelle: Pixabay

Der Werbemarkt wächst weiter – wenn auch etwas schwächer. Das zeigt der Schickler Media Index, eine der umfassendsten Statistiken über den deutschen Werbemarkt. Neben den klassischen Gattungen sind nahezu alle Formen digitaler Werbung enthalten, sowie Messen und Sponsoring.

Wir schätzen, dass im Jahr 2018 der Gesamtnettoumsatz um 3,3 Prozent auf fast 47,3 Milliarden Euro gestiegen ist. In 2019 hält der Trend der letzten Jahre weiter an, auch wenn das Wachstum etwas schwächer ausfallen dürfte.

Ungebremst ist der Trend, dass Unternehmen ihre Budgets in die direkte Kommunikation zu ihren Kunden erhöhen. Dazu gehören alle Wege des Corporate Publishing, insbesondere die digitalen Kanäle. App-Entwicklung, Corporate Social Media, die Erstellung von Corporate Videos und die Weiterentwicklung von Corporate Websites profitieren davon.

Online-Werbung wächst auch weiter, allerdings langsamer – mit Ausnahme der Werbung auf mobilen Endgeräten. Wir erwarten für mobile Werbung weiterhin ein deutliches Wachstum.

Die Print-Werbeträger entwickeln sich weiterhin rückläufig – wie in den letzten Jahren. Wir erwarten, dass stärkere Investitionen in neue Produkte und in die Vermarktung der Verlage diesen Trend verlangsamen – auch wenn dies noch nicht in diesem Jahr in den Gesamtmarktzahlen zu sehen sein dürfte. Wir sehen vor allem in der Zusammenarbeit mit regionalen Kunden bei einigen regionalen Verlagen schon vielversprechende Wege.

Für den Media Index wertet SCHICKLER zahlreiche Quellen aus. Der Index umfasst die Ausgaben für alle Formen kommerzieller Kommunikation und zeichnet daraus ein Gesamtbild des Marktes.

Mehr zu den Studienergebnissen lesen Sie hier.

Chatbots – Funktionsweise & Relevanz für Medienunternehmen Teil 2/2

Aufgrund der potentiell hohen Effizienzsteigerungen, sieht SCHICKLER eine hohe Anwendungsrelevanz von Chatbots in Medienunternehmen. Wie bereits in Teil 1 angekündigt, besuchten ein Kollege und ich drei Chatbot Anbieter in Berlin, um Anwendungsfälle zu diskutieren und deren Chatbots kennenzulernen.

parlamind

Das Start-up parlamind wurde im Jahr 2015 gegründet. Der Fokus liegt auf der Optimierung des Kundenservices unter anderem mittels eines Chatbots. Parlamind kann an verschiedene Ticketsysteme (z.B. salesforce desk) angebunden werden und bietet zudem eine Omni-Channel Verknüpfung. Das bedeutet, dass Anfragen sowohl über E-Mail als auch über Formulare auf Websites und Chatbots in das System einfließen. Die KI von parlamind selektiert alle Anfragen und weist sie automatisch den entsprechenden Ansprechpartner zu. Einfache (standardisierte) Anfragen kann das System automatisch und in Echtzeit beantworten. Bei komplexeren Anfragen wird weiterhin ein menschlicher Servicemitarbeiter benötigt. Allerdings bietet parlamind dem Mitarbeiter eine Vorauswahl von Antwortbausteinen an, welche durch Anklicken direkt in das Antwortformular eingefügt werden. Zu Beginn der Einführung von parlamind in ein Unternehmen muss ein Skript für mögliche Anfragen und Antworten geschrieben werden. Dann kann ein Konfidenzlevel ausgewählt werden, jenseits dessen das System Anfragen eigenständig beantwortet. Wählt man beispielsweise ein Level von 90% aus, beantwortet das System eine Anfrage nur wenn es sich zu 90% (oder mehr) sicher ist, die Anfrage korrekt identifiziert zu haben und ihr eine passende Antwort zu weißen kann. Die parlamind KI arbeitet auch mithilfe von Machine Learning, das bedeutet je mehr Anfragen bearbeitet werden, desto besser kann es diese zukünftig beantworten. Das System kann zusätzlich durch Menschen trainiert werden, um einen schnelleren und besseren Lernprozess zu ermöglichen. Dazu muss der „Trainer“ Anfragen, bei denen sich das System unsicher war, im Nachhinein die korrekte Antwort zuweisen. Da parlamind hauptsächlich zur Beantwortung von Kundenanfragen dient, ist der vornehmliche Anwendungsbereich in Medienunternehmen das Kundenservicecenter. Parlamind arbeitet bereits mit einigen namhaften deutschen Verlagen zusammen. In dem Gespräch erfuhren wir zu dem, dass sich der Aufwand den parlamind Chatbot zu implementieren, sich erst ab ca. 10.000 Kundenanfragen pro Monat lohnt. Bei weniger Kundenanfragen lohnt es sich nicht, da der Bot nicht ausreichend Daten zum Lernen hat.

scalableminds

Das zweite Start-up, das wir Ihnen vorstellen möchten, ist scalableminds. Scalableminds arbeitet zusammen mit dem Start-up rasa, welches eine Open-Source Software für Chatbots anbietet. Scalableminds entwickelt seine Chatbots basierend auf der Software von Rasa. Grundsätzlich funktioniert der Chatbot von scalableminds ähnlich wie der von parlamind. Beide benötigen bei der Einführung ein geschriebenes Skript, beantworten Anfragen basierend auf einem festgelegten Konfidenzinterval und durch menschliche Unterstützung lernt der Chatbot dazu. Auch scalableminds bietet eine Omni-Channel Verknüpfung mit Kanälen wie E-Mail, Website und allen bekannten Messanger-Diensten. Zusätzlich kann der Chatbot in verschiedenen Sprachen aufgesetzt werden. Die aktuell größte Limitation des Chatbots sind Kundenanfragen, die sich aus mehreren Komponenten zusammensetzen. Möchte beispielsweise ein Zeitungskunde gleichzeitig seine Adresse ändern, die Zeitung für die nächsten 2 Woche abbestellen und noch eine Reklamation anmelden, fällt es dem Chatbot schwer eine passende Antwort zu finden, da das Problem nicht eindeutig zugeordnet werden kann und somit nicht automatisch beantwortet werden kann.

Twyla

Das dritte Start-up, das wir im Rahmen unserer Berlin Tour besuchten, ist twyla. Der Inkubator der Deutschen Telekom hub:raum investiert seit 2017 in das Start-up. Der twyla Chatbots bietet Anschlüsse an viele bekannte Ticketsysteme wie zendesk, salesforce und SAP. In den Funktionalitäten unterscheidet der twyla Bot sich nicht von deren der anderen zwei Start-ups. In Zusammenarbeit mit der Deutschen Telekom hat twyla einen „conversational store“ aufgesetzt. Anders als auf traditionellen E-Commerce Plattformen, interagiert man im conversational store mit einem Chatbot. Man teilt dem Chatbot mit, nach welchen Produkten man sucht anstatt sich selbständig durch die Website zu klicken. Damit bietet twyla auch andere Anwendungsgebiete als die Bearbeitung von Kundenanfragen. Zusätzlich setzt twyla auf eine sehr einfach zu bedienende Benutzeroberfläche, sodass nach der initialen Aufsetzung des Chatbots, jeder Mitarbeiter den Chatbot trainieren und somit optimieren kann, ohne IT-/Programmierkenntnisse zu benötigen.

Chatbots – Funktionsweise & Relevanz für Medienunternehmen Teil 1/2

Chatbots sind in unserem digitalen Alltag überall präsent: Auf Buchungsseiten für Hotels und Flüge, auf Seiten von Handyanbietern. Sie beantworten Fragen zu Produkten, unterstützen beim Lösen von Problemen und bearbeiten viele weitere Formen von Anfragen. Von vielen Nutzern oft nur als nettes Gimmick ohne wirkliche Hilfsfunktion gesehen, variieren Chatbots stark in ihrer Qualität und ihren Fähigkeiten. Doch was genau sind Chatbots und gibt es potentielle Anwendungsbereiche in Medienunternehmen?

Definition & Erklärung

Das Wort Chatbot setzt sich zusammen aus den Begriffen „Chat“ und „Robot“ und beschreibt somit einen Computer (Robot), der mit einem Nutzer interagiert (Chat). Das Ziel von Chatbots ist es, die Kommunikation mit Kunden zu automatisieren und somit ein qualitativ höherwertiges Serviceerlebnis zu ermöglichen (kein Kunde möchte 30 Minuten in einer Telefonwarteschleife feststecken). Aus Unternehmenssicht können Chatbots außerdem die Effizienz im Kundenservice steigern.

Chatbots interagieren („chatten“) mit Nutzern in Echtzeit. Dabei funktionieren die meisten Chatbots auf Textbasis. Es gibt aber auch einige, die auf Basis von Spracherkennung mit dem Nutzer kommunizieren. Die ersten Chatbots basierten auf vorgeschriebenen Dialogen. Das limitierte die Anwendung stark, denn die Chatbots konnten nur auf wenige vordefinierte Fragen antworten. Mittlerweile setzen Entwickler Künstliche Intelligenz (KI) ein, um eine individualisierte und realistische Konversation zu ermöglichen. Nutzer können mit den Chatbots über verschiedenste Kommunikationskanäle wie Websites, Social-Media-Plattformen und Instant-Messaging-Systemen interagieren. Auch der iPhone Sprachassistent Siri ist im Prinzip ein Chatbot.

Funktionsweise

Die Funktionsweise eines Chatbots lässt sich in zwei Schritte unterteilen: dem Analysieren der Anfrage und der Auswahl der Antwort. Im ersten Schritt wird der Text nach vordefinierten Regeln analysiert, oftmals sucht der Chatbot nach Schlagwörtern. Durch die Analyse kann er idealerweise die Anfrage des Kunden identifizieren. Der nächste Schritt hängt stark von der Qualität des Chatbots ab. Wie eingangs erwähnt arbeitet ein Großteil der Chatbots skript-basiert. Das bedeutet, dass einer limitierten Zahl von Anfragen eine vordefinierte Antwort zugeordnet wurde. Kann der Chatbot die Anfrage nicht eindeutig einordnen, ist er nicht in der Lage eine passende Antwort auszuwählen. Komplexere Chatbots, auch bezeichnet als selbstlernende Chatbots, agieren basierend auf Künstlicher Intelligenz und maschinellem Lernen.  Ähnlich wie bei den eingeschränkten Chatbots basieren solche, die mithilfe von Künstliche Intelligenz agieren, in der Einführungsphase auf vorformulierten Skripten. Er kann jedoch dazulernen und somit durch den kontinuierlichen Aufbau einer Wissensdatenbank immer komplexere Anfragen beantworten. Je mehr Anfragen der Chatbot bearbeitet, desto besser funktioniert er. Dabei wird sowohl die Analysefunktion als auch die Antwortfunktion kontinuierlich optimiert. Im Rahmen des Trainings ist zu Beginn jedoch immer noch eine menschliche Komponente notwendig, welche bei nicht lösbaren Anfragen die korrekte Antwort zuweist. Der Chatbot lernt dadurch hinzu und kann die Anfrage das nächste Mal eigenständig beantworten.

Relevanz für Medienunternehmen

Aktuell sieht SCHICKLER den Anwendungsbereich von textbasierten Chatbots vor allem im Kunden Service Center. Chatbots bietet dort eine gute Möglichkeit, Standardanfragen, wie z.B. das Abbestellen von Zeitungen im Urlaub, zu automatisieren und somit den Servicemitarbeitern mehr Zeit für die Bearbeitung komplexere Anfragen oder zusätzliche Aufgaben wie die Bewerbung von Kunden zu ermöglichen. Die potentiellen Kostenersparnisse im Kundenservice durch Chatbots sind enorm. SCHICKLER schätzt den Aufwand der Zeitungsbranche für Kundenservice auf 60-80 Mio. € pro Jahr. IBM gibt an, mit ihrem Chatbot Watson 80% der Kundenanfragen automatisieren zu können, was angesichts des hohen Anteils an Standardanfragen in der Zeitungsbrache realistisch erscheint. Dadurch ergibt sich ein Effizienzpotential von 48-64 Mio.€ pro Jahr. Der wesentliche Vorteil von Chatbots im Kundenservice Center bezieht sich allerdings nicht ausschließlich auf das Senken von Kosten, sondern bietet vor allem eine deutliche Steigerung der „User Experience“. Immer mehr Kunden erwarten durchgängige Erreichbarkeit im Kunden Service Center. Chatbots gewähren diesen Wunsch und eliminieren zusätzlich Wartezeiten, was schlussendlich zu einer höheren Kundenzufriedenheit führt.

Mit voranschreitender Entwicklung von KI sind zukünftige Anwendungen in Bereichen wie der Kundengewinnung oder dem Marketing denkbar. Sprachbasierte Chatbots existieren bereits in Form von Siri, Alexa und Google Assistant. Bis sie jedoch eins zu eins einen menschlichen Mitarbeiter ersetzen können, wird noch einige Zeit vergehen. Textbasierte Chatbots werden einen Großteil der Anfragen automatisieren können, jedoch werden sie weiter Limitationen haben. Die menschliche Komponente bleibt also auch in naher Zukunft ein großer Bestandteil in der Kundenbetreuung, die von den aktuellen Chatbots nicht ersetzt werden kann.

Um potentielle Anwendungsfälle von Chatbots in Medienunternehmen zu diskutieren, trafen ein Kollege und ich uns in Berlin mit verschiedenen Chatbot Anbietern. Lesen Sie unsere Erkenntnisse über die Arbeit in Teil 2.

BDZV/SCHICKLER Trendumfrage 2019 – die aktuellen Branchentrends

Künstliche Intelligenz, Preis- und Angebotsdifferenzierung sowie neue Geschäftsmodelle und Services in der Logistik. Das sind die Trends der Zeitungsbranche 2019. Sie sind das Ergebnis der Trendumfrage von BDZV und SCHICKLER. Jedes Jahr befragen wir die Top-Entscheider der Zeitungsverlage zu ihren Einschätzungen und Toptrends des jeweils gestarteten Jahres. Die Ergebnisse wurden Ende Januar von SCHICKLER-Partner Rolf-Dieter Lafrenz bei der Jahrespressekonferenz des BDZV vorgestellt.

Die Trends der Zeitungsbranche 2019

Trend 1: Künstliche Intelligenz wird in Verlagen Realität

Für Amazon, Google, Netflix und Co. ist Künstliche Intelligenz ein essentieller Bestandteil ihrer Geschäftsmodelle. Hier erwarten Top-Entscheider der Zeitungsverlage ab 2019 ein deutliches Wachstum bei den Verlagen. Medienunternehmen haben die besten Voraussetzungen für den Einsatz Künstlicher Intelligenz: die Prozesse sind vielfältig und es entstehen große Mengen an Daten, mit denen Algorithmen gespeist und verbessert werden können.

Trend 1: Künstliche Intelligenz

74% der Top-Entscheider bewerten Künstliche Intelligenz als relevant bis sehr relevant für ihre Zukunft – bei den großen Verlagen (ab 100.000 Exemplare verkaufte Auflage) sind es sogar 94%. Die größten Chancen sehen die Top-Entscheider in den markennahen Bereichen Werbemarkt, Redaktion und Lesermarkt. Hier können intelligente Algorithmen die Marktausschöpfung deutlich steigern.

Weitere Anwendungsbeispiele finden Sie auch in unserem Blogartikel Künstliche Intelligenz für Medienunternehmen und auf schickler.de/datascience.

Trend 2: Preis- und Angebotsdifferenzierung als Chance

Verlage setzen verstärkt auf moderne und flexible Preis- sowie Angebotsmodelle. Das zeigt der zweite Trend ganz deutlich. Sie richten sich damit vermehrt an die individuellen Bedürfnisse der Nutzer. Wir kennen dies in unserem Alltag beispielsweise von Mobilfunk- oder PayTV-Verträgen mit individualisierbaren Bestandteilen und verschiedenen Pricing-Modellen.

Trend 2: Preis- und Angebotsdifferenzierung

Laut unserer Trendstudie wird Preis- und Angebotsdifferenzierung von 79% der Verlage bereits eingesetzt oder der Einsatz ist innerhalb der nächsten drei Jahre geplant. Speziell bei den digitalen Angeboten ergeben sich neue Möglichkeiten. So bietet die Ibbenbürener Volkszeitung mit IVZ-Themenwelten beispielsweise schon heute ein digitales Abomodell basierend auf verschiedenen Themengebieten an, die die Nutzer nach Interesse einzeln buchen können.

Trend 3: Logistikdienstleistungen sind starke Wachstumstreiber

Logistik war schon immer eine wichtige Kompetenz der Verlage. Ursprünglich ein reines Mittel zum Zweck der Zustellung von Tageszeitung und Anzeigenblättern, haben viele Verlage in den letzten Jahren die Logistikstrukturen für den Aufbau von Briefdienstleistungen genutzt. Wachstum ist hier allerdings nur noch über eine Steigerung der Marktanteile möglich, und auch die Margen sind nicht überall befriedigend.

Trend 3: Logistikdienstleistungen

Daher folgt nun die nächste Entwicklungswelle der Logistikdienstleistungen: Verlage nutzen ihre Kompetenz und die vorhandene Infrastruktur, um neue Services rund um die Logistik aufzubauen. Hierzu gehören beispielsweise Kurierfahrten für Baustellen oder Fulfillment-Services für Online-Shops. So geben 71% der Top-Entscheider in unserer Studie an, dass Geschäftsfelder rund um die Logistik eine hohe strategische Relevanz haben – bei den großen Verlagen sogar 93%. Hierbei sollen auch neue Technologien und Arbeitsmodelle unterstützen: die drei relevantesten für Verlage sind Zusteller-Apps (74% geplante Einführung bis 2022), elektrische Zustell-Fahrzeuge (63% geplante Einführung bis 2022) und der Ausbau von Vollzeit-Arbeitsplätzen in der Logistik (62% geplante Einführung bis 2022).

Lesen Sie hierzu auch unsere passenden Artikel Zustellung nach dem Mindestlohn: „Letzte Meile“ im Fokus und Abseits der Letzten Meile: Logistik-Geschäftsmodelle.

Bei Interesse finden Sie die komplette Studie hier.