BDZV/SCHICKLER Trendumfrage 2019 – die aktuellen Branchentrends

Künstliche Intelligenz, Preis- und Angebotsdifferenzierung sowie neue Geschäftsmodelle und Services in der Logistik. Das sind die Trends der Zeitungsbranche 2019. Sie sind das Ergebnis der Trendumfrage von BDZV und SCHICKLER. Jedes Jahr befragen wir die Top-Entscheider der Zeitungsverlage zu ihren Einschätzungen und Toptrends des jeweils gestarteten Jahres. Die Ergebnisse wurden Ende Januar von SCHICKLER-Partner Rolf-Dieter Lafrenz bei der Jahrespressekonferenz des BDZV vorgestellt.

Die Trends der Zeitungsbranche 2019

Trend 1: Künstliche Intelligenz wird in Verlagen Realität

Für Amazon, Google, Netflix und Co. ist Künstliche Intelligenz ein essentieller Bestandteil ihrer Geschäftsmodelle. Hier erwarten Top-Entscheider der Zeitungsverlage ab 2019 ein deutliches Wachstum bei den Verlagen. Medienunternehmen haben die besten Voraussetzungen für den Einsatz Künstlicher Intelligenz: die Prozesse sind vielfältig und es entstehen große Mengen an Daten, mit denen Algorithmen gespeist und verbessert werden können.

Trend 1: Künstliche Intelligenz

74% der Top-Entscheider bewerten Künstliche Intelligenz als relevant bis sehr relevant für ihre Zukunft – bei den großen Verlagen (ab 100.000 Exemplare verkaufte Auflage) sind es sogar 94%. Die größten Chancen sehen die Top-Entscheider in den markennahen Bereichen Werbemarkt, Redaktion und Lesermarkt. Hier können intelligente Algorithmen die Marktausschöpfung deutlich steigern.

Weitere Anwendungsbeispiele finden Sie auch in unserem Blogartikel Künstliche Intelligenz für Medienunternehmen und auf schickler.de/datascience.

Trend 2: Preis- und Angebotsdifferenzierung als Chance

Verlage setzen verstärkt auf moderne und flexible Preis- sowie Angebotsmodelle. Das zeigt der zweite Trend ganz deutlich. Sie richten sich damit vermehrt an die individuellen Bedürfnisse der Nutzer. Wir kennen dies in unserem Alltag beispielsweise von Mobilfunk- oder PayTV-Verträgen mit individualisierbaren Bestandteilen und verschiedenen Pricing-Modellen.

Trend 2: Preis- und Angebotsdifferenzierung

Laut unserer Trendstudie wird Preis- und Angebotsdifferenzierung von 79% der Verlage bereits eingesetzt oder der Einsatz ist innerhalb der nächsten drei Jahre geplant. Speziell bei den digitalen Angeboten ergeben sich neue Möglichkeiten. So bietet die Ibbenbürener Volkszeitung mit IVZ-Themenwelten beispielsweise schon heute ein digitales Abomodell basierend auf verschiedenen Themengebieten an, die die Nutzer nach Interesse einzeln buchen können.

Trend 3: Logistikdienstleistungen sind starke Wachstumstreiber

Logistik war schon immer eine wichtige Kompetenz der Verlage. Ursprünglich ein reines Mittel zum Zweck der Zustellung von Tageszeitung und Anzeigenblättern, haben viele Verlage in den letzten Jahren die Logistikstrukturen für den Aufbau von Briefdienstleistungen genutzt. Wachstum ist hier allerdings nur noch über eine Steigerung der Marktanteile möglich, und auch die Margen sind nicht überall befriedigend.

Trend 3: Logistikdienstleistungen

Daher folgt nun die nächste Entwicklungswelle der Logistikdienstleistungen: Verlage nutzen ihre Kompetenz und die vorhandene Infrastruktur, um neue Services rund um die Logistik aufzubauen. Hierzu gehören beispielsweise Kurierfahrten für Baustellen oder Fulfillment-Services für Online-Shops. So geben 71% der Top-Entscheider in unserer Studie an, dass Geschäftsfelder rund um die Logistik eine hohe strategische Relevanz haben – bei den großen Verlagen sogar 93%. Hierbei sollen auch neue Technologien und Arbeitsmodelle unterstützen: die drei relevantesten für Verlage sind Zusteller-Apps (74% geplante Einführung bis 2022), elektrische Zustell-Fahrzeuge (63% geplante Einführung bis 2022) und der Ausbau von Vollzeit-Arbeitsplätzen in der Logistik (62% geplante Einführung bis 2022).

Lesen Sie hierzu auch unsere passenden Artikel Zustellung nach dem Mindestlohn: „Letzte Meile“ im Fokus und Abseits der Letzten Meile: Logistik-Geschäftsmodelle.

Bei Interesse finden Sie die komplette Studie hier.

Use Case: Optimierung der B2B-Verkaufsorganisation durch Einsatz eines Recommender-Systems

Der Verkauf von Werbeplätzen im B2B-Geschäft ist ein wesentliches Geschäftsfeld in Medienhäusern. Dementsprechend kritisch ist eine effiziente und erfolgreiche Verkaufsorganisation für deren Gesamtgeschäftserfolg. Recommender-Systeme basierend auf modernen Machine-Learning Ansätzen können dabei helfen, in der Verkaufsorganisation sowohl den Absatz zu erhöhen als auch die Effizienz zu steigern. Im Folgenden diskutieren wir die Erstellung eines Kunden-individuellen Produkte-Rankings als konkrete Einsatzmöglichkeit eines Recommender-Systems in der B2B-Verkaufsorganisation. Eine allgemeine Einführung in die Funktionsweise von Recommender-Systemen, deren Einsatzmöglichkeiten in Medienunternehmen und die Chancen, die sich durch deren Nutzung bieten, finden Sie unter “Andere Kunden kauften auch…” – mehr Umsatz durch Einsatz von Recommender-Systemen im B2C- und B2B-Sales.

Abbildung 1: Welche Produkte sollen dem Kunden angeboten werden? 

Wie werden Entscheidungen in der Verkaufsorganisation getroffen?

Versetzen wir uns zunächst in folgende alltägliche Situation in Verkaufsorganisationen von Medienhäusern: Ein Verkaufsmitarbeiter besucht Firma 1 und bietet ihr Werbeplätze in Zeitung X und Online-Portal X an. Den Werbeplatz in Zeitung X konnte er bereits im letzten Jahr erfolgreich an Firma 1 verkaufen und da Zeitung X und Online-Portal X sehr ähnliche Inhalte haben, entschließt er sich dazu auch einen Werbeplatz bei Online-Portal X anzubieten. Der Verkaufsmitarbeiter stützt sich dabei hauptsächlich auf seine eigenen umfassenden Verkaufserfahrungen. Er weiß jedoch nicht, dass ein anderer Verkaufsmitarbeiter gerade bei der Firma 2, die in der gleichen Branche wie Firma 1 aktiv ist, erfolgreich Werbeplätze in Zeitung X, Zeitung Y und Zeitung Z verkaufen konnte und ein dritter Verkaufsmitarbeiter bei der Firma 3 nicht erfolgreich dabei war, zusätzlich zu Zeitung Z auch Online-Portal Z anzubieten.

Kunde Zeitung X Zeitung Y Zeitung Z Online- Portal X Online- Portal Z
Firma 1 Interessiert ??? ??? ??? ???
Firma 2 Interessiert Interessiert Interessiert
Firma 3 Interessiert Nicht interessiert Nicht interessiert

Tabelle 1: Historische Verkaufsinformationen

Recommender-Systeme können die gesamten in der Organisation angefallen Informationen auswerten und dem Verkaufsmitarbeiter automatisiert vor seinem Termin bei Firma 1 eine Liste mit Produkten erstellen, für die sich Firma 1 mit hoher Wahrscheinlichkeit interessiert. Dabei kann das System sowohl Ähnlichkeiten zwischen Kunden

  • Firma 1 und Firma 2 haben beide Werbeplätze in Zeitung X und Firma 2 zusätzlich Werbeplätze in Zeitung Y und Zeitung Z gekauft, also empfehle Firma 1 auch Zeitung Y und Zeitung Z

und zwischen Produkten

  • Zeitung Y und Zeitung Z sind ebenfalls Print-Medien und wurden mit Zeitung X zusammen gekauft, Online-Portal X enthält ähnliche Inhalte wie Zeitung X, also empfehle auch Zeitung Y, Zeitung Z, Online-Portal X

berücksichtigen.

Wie liefert ein Recommender-System optimierte Produktvorschläge?

Recommender-Systeme automatisieren die obigen Überlegungen im großen Stil. Sie sind in der Lage selbstständig wesentliche Zusammenhänge zwischen Kunden und Produkten zu erkennen und damit zuverlässige Vorhersagen für den Abschlusserfolg zu generieren. Zusätzlich zu den in Tabelle 1 dargestellten historischen Verkäufen und Verkaufsversuchen können beliebige weitere Kunden- und Produktinformationen in die Modellbildung einfließen. Ein Recommender-System bietet hierbei den großen Vorteil, dass es im Gegensatz zum menschlichen Entscheider prinzipiell beliebig große Daten- und Informationsmengen umfassend auswerten kann. Somit kann es auch Muster berücksichtigen, die erst durch die Analyse einer großen Zahl von Datenpunkten sichtbar werden. Zusätzlich trifft das System Vorschlags-Entscheidungen rein basierend auf der Daten-Faktenlage und ist im Gegensatz zum Bauchgefühl der Verkaufsmitarbeiter immun gegenüber kognitiven Verzerrungen. Nichtsdestotrotz liefern die Erfahrung und das Bauchgefühl der Verkaufsmitarbeiter wertvolle Erkenntnisse und können in hybriden Entscheidungssystemen berücksichtigt werden. 

Abbildung 2: Technischer Aufbau eines Recommender-Systems

Das Kernstück des Recommender-Systems ist ein Machine-Learning Modell, das trainiert wird um aus der Eingabe von Kunde und Produkt einschließlich zugehöriger Merkmale einen Score, wie z.B. die Verkaufs-Wahrscheinlichkeit oder den beim Kunden zu generierenden Umsatz mit diesem Produkt, zu berechnen. Basierend auf diesem Modell wird für einen Kunden ein Produkte-Ranking erstellt, indem für diesen Kunden der Score mit jedem Produkt berechnet und die Produkte nach dem Score sortiert werden. Der Output des Recommender-Systems, der dem Verkaufsmitarbeiter als Grundlage für die Vorbereitung des Termins bei Firma 1 dienen kann, könnte dann zum Beispiel wie folgt aussehen:

Rank Produkt Verkaufs-Wahrscheinlichkeit
1 Zeitung X 92%
2 Zeitung Z 63%
3 Zeitung Y 57%
4 Online-Plattform X 23%
5 Online-Plattform Z 8%

Tabelle 2: Ranking-Output des Recommender-Systems

Wie stark automatisiert diese Rankings am Ende in die Prozesse der Verkaufsorganisation eingebunden werden, können das Medienhaus und die Verkaufsmitarbeiter selbst entscheiden. Es kann direkt verwendet werden um zentral zu planen, welche Kunden mit welchen Produkten angesprochen werden, oder aber den Verkaufsmitarbeitern als Ergänzung zu ihren eigenen Einschätzungen bei der Verkaufsplanung dienen.

Welche weiteren Vorteile bietet der Einsatz eines Recommender-Systems?

Zusätzlich dazu, dass ein Recommender-System automatisiert Verkaufs-Wahrscheinlichkeiten liefert, kann es auch dabei helfen das Kaufverhalten der Kunden besser zu verstehen. Anhand des Outputs und der Zwischenergebnisse des Machine-Learning Modells können Kaufmuster aufgedeckt und homogene Kunden- und Produkt-Cluster identifiziert werden. Das folgende Bild zeigt beispielhaft die von einem Neuronalen Netz gelernten Produkt-Vektoren, so dass nahe bei einander liegende Punkte Produkte repräsentieren, die von gleichen Kunden gekauft werden. Dies erlaubt tiefe Einblicke in die Struktur des Produktportfolios rein auf Basis des Kaufverhaltens.

Abbildung 3: Darstellung der gelernten Ähnlichkeiten der Produkte (Farben entsprechen Produktgruppen und Kreisgrößen dem Gesamt-Umsatz mit diesem Produkt)

Darüber hinaus können weitere Daten-Analyse- und Clustering-Methoden genutzt werden, um das Kaufverhalten der Kunden besser zu verstehen. Besonders hervorzuheben ist dabei die Methode der Assoziationsanalyse, bei der automatisiert Regeln der Form „Wenn Zeitung X und Zeitung Y gekauft wurden, wird mit Wahrscheinlichkeit 87% auch Zeitung Z interessant sein“ gelernt werden können. Basierend auf diesen Regeln kann der Algorithmus dann Empfehlungen generieren. Zum Beispiel würde er Kunden, die Zeitung X und Zeitung Y gekauft haben, auch Zeitung Z vorschlagen. Dieser Algorithmus erstellt also nicht nur Empfehlungen “Kaufen Sie Zeitung Z”,  sondern er kann auch zusätzlich Begründungen “Wenn Zeitung X und Zeitung Y gekauft wurden, wurde oft auch Zeitung Z gekauft” für diese Empfehlungen liefern. Somit können tiefe Einblicke in die Kaufmuster gewonnen werden und die Produktempfehlungen sind einfacher zu plausibilisieren.

Recommender-Systeme und Machine-Learning-Tools können über die oben diskutierte Erstellung von Kunden-individuellen Produkte-Rankings hinaus noch weitere Aufgaben in der Steuerung der Verkaufsorganisation übernehmen. So kann zum Beispiel auch vorhergesagt werden, wann welche Kunden kontaktiert werden sollten, mit welcher Frequenz Kunden betreut und über welche Kanäle (Tele-Sales, persönlicher Besuch) optimal angesprochen werden können. Zudem können Kunden-individuell optimierte Preise und Rabatte bestimmt werden. Die Qualität dieser Vorhersagen hängt dabei stark von der vorhandenen Datenlage ab. Solange aber die endgültigen Entscheidungen bei menschlichen Entscheidungsscheidungsträgern liegen und der Output von Recommender-Systemen lediglich bei der Entscheidungsfindung unterstützt, können von Algorithmen aufgedeckte Zusammenhänge die Verkaufsplanung verbessern, ohne dass nicht erkannte Muster, die jedoch den Verkäufern durch ihre Erfahrung bekannt sind, ignoriert werden. Ein großer Vorteil von Machine-Learning Systemen ist auch, dass diese sich mit der Zeit weiterentwickeln, d.h. mit dem Zufluss neuer Daten lernen sie Zusammenhänge immer besser zu erkennen und Vorhersagen immer präziser zu treffen.

#DataDeepDive – dpa Hackathon mit Schickler Data Science Team

Unter dem Motto #DataDeepDive fand vom 29. November bis 1. Dezember bereits zum dritten Mal der dpa Hackathon im Newsroom der deutschen Presseagentur (dpa) in Berlin statt. Ziel war es, datengetriebene Lösungen zu entwickeln, um die Arbeit der Journalisten im dpa-Newsroom zu erleichtern und neue datenbasierte Produkte oder Produktverbesserungen für die Nachrichtenagentur zu kreieren. Die behandelten Themen umfassten unter anderem die automatisierte Erstellung von journalistischen Inhalten in Text und Graphiken (Robot Journalism), die Auswertung und Erkenntnisgewinnung aus öffentlichen Datenquellen (Public Data) und die Verwendung von Nutzerdaten zur optimalen Ausspielung von Inhalten (DataDriven-Publishing).

Abbildung 1: Logo des Hackathons

Das Format des Hackathons und die bunte Mischung von circa 80 Teilnehmen aus den Bereichen Software-Entwicklung, Journalismus und Data Science boten optimale Voraussetzungen für die Entwicklung innovativer Ideen. Zudem bekamen die Teilnehmer von den dpa-Mitarbeitern im Newsroom direkte Einschätzungen zur Umsetzbarkeit und zum Nutzen ihrer Konzepte.
Nur 50 Stunden hatten die Teilnehmer Zeit um von den ersten Ideen bis zum finalen Pitch tragfähiger Konzepte und zur Vorstellung funktionsfähiger Prototypen zu gelangen. Trotzdem haben sich insgesamt 11 Teams gefunden, denen es in dieser kurzen Zeit gelungen ist 11 Projekte zu erarbeiteten, die aufzeigen wie die Zukunft redaktioneller Arbeit und journalistischer Produkte aussehen könnte.

Mit Robot Journalism werden automatisiert Texte und Graphiken erstellt

Die Teams Regio Reports und Loki beschäftigten sich mit der Frage, wie Lokaljournalisten aus großen öffentlichen Datensätzen, wie sie zum Beispiel das statistische Bundesamt regelmäßig veröffentlicht, mit geringem Aufwand für ihre Region relevante Einsichten gewinnen können. Sie entwickelten Algorithmen, die automatisiert Zusammenfassungen und Graphiken für jede Region erstellen und diese an die Lokalredaktionen versenden. Das Team Loki programmierte zudem einen Chatbot, über den Journalisten entsprechende Inhalte anfragen können und der diese dann automatisiert bereitstellt. Das Team Regio Reports wurde für sein Konzept mit dem Preis Best of API Prototype ausgezeichnet.

Abbildung 2: Das Team VizGov gewinnt den Preis Best Overall (Foto dpa)

Das Team VizGov, das mit dem Preis Best Overall ausgezeichnet wurde, konnte die Jury mit einem Programm überzeugen, das automatisiert Bundestagsprotokolle auswertet. So kann das Tool zum Beispiel feststellen, welche Fraktion für die meisten Zwischenrufe verantwortlich ist oder welcher Abgeordnete bei seinen Redebeiträgen den meisten Applaus oder die meisten Lacher erntet. Auch das Team VizGov programmierte einen Chatbot, dem Journalisten solche Fragen stellen können und der dann automatisiert die erfragte Information aus den Protokollen extrahiert.
Journalisten bietet sich eine Vielzahl von Möglichkeiten einen Text oder eine Graphik zu gestalten. Oft jedoch fehlt die nötige Information darüber, welche Form dem Leser am besten gefallen wird. Einen interessanten Workaround für dieses Problem entwickelte das Team Fluid Articles. Es kreierte ein Tool zur Erstellung interaktiver Graphiken, die der Nutzer selbst verändern kann. Anhand der Veränderungen der Graphik durch die Nutzer lernt der Algorithmus welche Darstellung den Nutzern am besten gefällt und präsentiert neuen Nutzern eine überarbeitete Darstellung. Potentiell ist ein ähnliches Konzept auch für Textinhalte denkbar. So können zum Beispiel Textteile, bei denen ein Nutzer das Lesen abbricht, automatisiert überarbeitet werden.

Smarte Algorithmen erleichtern die Arbeit in der Redaktion

Redaktionen stehen bei der Erstellung journalistischer Inhalte permanent unter Zeitdruck. Viele Teams suchten deswegen nach Lösungen um die Arbeit der Journalisten zu erleichtern und zu beschleunigen. Das Team Robocop beschäftigte sich mit dem Problem, dass täglich hunderte von Pressemitteilungen in Redaktionen eingehen und manuell die berichtenswerten Mitteilungen herausgefiltert werden müssen. Für die Entwicklung eines Algorithmus, der automatisiert Polizeiberichte scannt und nach ihrer Wichtigkeit sortiert, wurde das Team mit dem Preis Most Innovative ausgezeichnet. Weitere denkbare Anwendungen des Algorithmus umfassen die automatisierte Prüfung beliebiger Pressemitteilungen auf Relevanz oder das Durchsuchen von Social Media Feeds nach berichtenswerten Ereignissen.

Abbildung 3: Das Team Robocop bei der Arbeit (Foto dpa)

Um Journalisten bei der Recherche zu unterstützen, entwickelte das Team Context ein Programm, das die Berichterstattung über eine Person auswertet und visualisiert. So wird auf einen Blick deutlich, in welchem Kontext eine Person in der Vergangenheit im öffentlichen Interesse stand. Der Algorithmus kann zudem angepasst werden um die Berichterstattung über Organisationen, Länder, Orte und ganz allgemein Themen zu visualisieren.
Ein weiterer wichtiger Punkt für die Produktion qualitativ hochwertiger journalistischer Inhalte ist die Verifizierung von Quellen. Das Team veri easy entwickelte hierfür einen Algorithmus, der die Echtheit von Fotos analysiert. Mit dem Ziel Nachrichtenhäusern Fotos und Videos schneller zur Verfügung zu stellen kreierte das Team Crowdforce eine App, über die sowohl professionelle Fotografen als auch Amateure ihr Bildmaterial anbieten können. Journalisten können in der App dann mit Hilfe von Stichworten, Zeit- und Ort-Restriktionen passendes Material finden.

Durch DataDriven-Publishing werden Leser optimal angesprochen

Bei digitalen Medieninhalten besteht die Möglichkeit eine Vielzahl an Nutzungsparametern wie Leserzahl, Lesedauer und Lesetiefe zu erfassen. Basierend auf diesen Werten können Inhalte optimiert oder Leser-individuell ausgespielt werden. Im Gegensatz zu den Medienhäusern, die die Inhalte direkt an die Leser weitergeben, verfügt die dpa als Nachrichtenagentur, die ihre Inhalte an die Medienhäuser verkauft, allerdings nicht über diese Informationen. Deswegen entwickelte das Team HillSight ein Kooperationsmodell zur Weitergabe relevanter Performance-Parameter von den Medienhäuser an die dpa. Die dpa kann mit Hilfe dieser Informationen ihre Inhalte optimieren und ein werthaltigeres Produkt anbieten. Die Medienhäuser profitieren von der Kooperation dadurch, dass sie für die Erreichung ihrer strategischen Ziele wie Reichweite und Paid-User-Conversion maßgeschneiderte Inhalte erhalten.
Um möglichst vielen Artikeln eine interessierte Leserschaft zu verschaffen, entwickelte das Team Fair chance ein Recommender System für Online-Artikel. Das Team Vor der Tür entwickelte ein Content-Portal, auf dem auf Nachbarschaftsebene interessante Nachrichten gesammelt werden. Über das Portal können lokal relevante Nachrichten, Veranstaltungsinformationen und viele weitere Inhalte sowohl von kommerziellen Anbietern als auch von Privatpersonen geteilt werden. Die Nutzer können selbst steuern über welche Inhalte sie durch das Portal informiert werden möchten.

Schickler begleitete den Hackathon als Sponsor und war mit dem Data Science Team vor Ort. Amr Rekaby Salama und Ole Martin fungierten als Mentoren und unterstützten die Teams bei technischen und konzeptionellen Fragestellungen. Dr. Christoph Mayer war als Jury-Mitglied bei der Auswahl der besten Beiträge beteiligt.

“Andere Kunden kauften auch…” – wie Recommender-Systeme zu mehr Umsatz führen

Amazon generiert 35% seines Umsatzes und Netflix 75% der Reichweite seiner Inhalte ausschließlich durch die Nutzung von Recommender-Systemen! Lernen Sie im folgenden Artikel, was Recommender-Systeme sind, was für Einsatzmöglichkeiten sich für Recommender-Systeme in Medienunternehmen bieten und welche Chancen durch ihre Nutzung realisiert werden können.

Was sind Recommender-Systeme?

Kunden oder Nutzer stehen häufig vor einer großen Auswahl an Produkten oder Inhalten. Ihre Kauf- oder Nutzungsentscheidung hängt dann maßgeblich davon ab, dass sie die für sie interessanten Produkte und Inhalte möglichst schnell und mit geringem Aufwand herausfiltern können.  Dabei helfen Recommender-Systeme (dt. Empfehlungsdienste oder Vorschlagssysteme). Das sind algorithmenbasierte Systeme, die für jeden Kunden automatisiert die Produkte auswählen können, die ihn mit hoher Wahrscheinlichkeit interessieren. Die Systeme lernen aus historischen Verkaufsdaten, Kunden- und Produktinformationen, für welche Kunden welche Produkte oder Inhalte besonders interessant sind. Sie erstellen automatisiert für jeden Kunden Rankings und können so den Prozess der optimalen Zuordnung von Kunde und Produkt bzw. Inhalt unterstützen.

Abbildung 1: Prinzipielle Funktionsweise von Recommender-Systemen

Amazon und Co. – die Großen machen es vor

Prominente Unternehmen zeigen, was für ein enormes Potential Recommender-Systeme bieten: Amazon zum Beispiel generiert 35 Prozent seines Umsatzes über Käufe, die durch Produktvorschläge ausgelöst wurden. 75 Prozent der Filme und Serien bei Netflix werden gesehen, weil sie das hauseigene Recommender-System vorgeschlagen hat. Die Online-Werbeeinnahmen von Medienunternehmen skalieren hauptsächlich mit der Reichweite und Nutzungsdauer von Online-Inhalten. So zeigt insbesondere das Netflix-Beispiel, welche Chancen Recommender-Systeme Medienunternehmen bieten, ihre Umsätze zu steigern. Heutzutage nutzen die meisten Menschen täglich Suchmaschinen wie Google. Sie sind im Wesentlichen nichts anderes als riesige Recommender-Systeme, die zu Suchbegriffen passende Webseiten vorschlagen. Die meisten Kunden von Medienhäusern sind zudem mit Vorschlagssystemen aus dem Onlinehandel und von Unterhaltungsplattformen wie Netflix, Youtube und Spotify bestens vertraut – und schätzen deren Vorzüge. Folglich ist das Risiko, dass eigene Systeme wenig oder schlecht angenommen werden, verhältnismäßig gering.

Abbildung 2: Artikelvorschlagssystem von Amazon

Die Einsatzbereiche in Medienhäusern sind vielfältig

Gerade in Medienhäusern ist mit Recommender-Systemen viel möglich: So können zum Beispiel Cookies oder User-Accounts tracken, welche Nutzer welche Inhalte auf Online-Nachrichtenseiten lesen. Basierend auf diesen Informationen können dann automatisiert nutzerspezifische Inhalte vorgeschlagen werden – so dass für den Nutzer beispielsweise am Ende eines Artikels weitere für ihn interessante Artikel verlinkt sind oder individuelle Startseiten für ihn erstellt werden. Weiterhin können Recommender-Systeme dabei helfen, welche Nutzer welche Werbung über Pop-Ups oder Banner zu sehen bekommen. Werbung, die mit hoher Wahrscheinlichkeit für den Nutzer relevant ist, kann die Click-Through-Raten und damit auch die Werbeeinnahmen massiv erhöhen. Im Kundenservice können Recommender-Systeme automatisiert Lösungen für eingehende Anliegen vorschlagen. Sie können dann entweder direkt an den Kunden gesendet werden oder den Service-Mitarbeiter bei der Kundenberatung unterstützen. Weiterhin stehen Mitarbeiter in der Verkaufsorganisation von Medienhäusern täglich vor der Entscheidung, an welche Kunden sie mit welchen Produkten herantreten. Oft entscheiden sie dann basierend auf persönliche Erfahrungen. Ein Recommender-System kann die Erfahrungen aller Mitarbeiter für die gesamte Organisation zugänglich machen, den Mitarbeitern bei der Entscheidung helfen und neue Zusammenhänge aufdecken (Vgl. Christoph Mayer, Künstliche Intelligenz und Maschinelles Lernen: Hintergrund, Anwendungsfälle und Chancen für Medienunternehmen, erschienen in MedienWirtschaft 03/2018).

Immer niedriger: die technischen Hürden

Obwohl man den Einsatz hochentwickelter Machine-Learning-Methoden, wie sie bei Recommender-Systemen verwendet werden, hauptsächlich mit führenden Technologie-Unternehmen aus dem Silicon Valley verbindet, sind die Hürden für die Einführung von Recommender-Systemen überraschend niedrig. Als Datengrundlage reichen bereits einfache Aufzeichnungen darüber, welcher Kunde in der Vergangenheit welche Produkte gekauft bzw. welche Inhalte konsumiert hat. Die Einbeziehung weiterer Kunden- und Produktinformationen kann die Qualität von Recommender-Systemen zusätzlich verbessern. Schickler-interne Untersuchungen basierend auf realen Datensätzen haben aber gezeigt, dass bereits ausschließlich auf der Verkaufshistorie trainierte Systeme sehr gute Ergebnisse liefern können. Zudem können Systeme variabel aufgesetzt werden, so dass neu verfügbare Kunden- und Produktdaten später ergänzt werden können. Zusätzlich dazu, dass die benötigten Daten oft schon vorhanden sind, wird auch das Aufsetzen der Algorithmen immer einfacher. Zum einen gibt es mittlerweile eine sehr hohe Verfügbarkeit von Machine-Learning APIs, die viele vorgefertigte Programmbausteine beinhalten und somit die Entwicklung entsprechender Recommender-Systeme massiv beschleunigen können. Zum anderen stehen Cloud-Services wie Amazon Web Services für einen flexiblen und kostengünstigen Betrieb dieser Systeme zur Verfügung.

Fazit: Ergreifen Sie die Chancen

Medienhäusern bieten sich durch den Einsatz von Recommender-Systemen vielseitige Möglichkeiten um Umsätze zu erhöhen und Prozesse effizienter zu gestalten. Zusätzlich können dabei die Kundenzufriedenheit durch ein individuelleres und gezielteres Angebot gesteigert und Mitarbeiter in ihrer Arbeit entlastet und unterstützt werden. Die oben genannten Anwendungsbeispiele umfassen nur einen Ausschnitt potentieller Einsatzmöglichkeiten von Recommender-Systemen. Viele weitere Anwendungen insbesondere auch unter Einbeziehung weiterer Data-Science Methoden sind denkbar. Im Zeitalter der Daten sind, zumindest unter der Voraussetzung von entsprechender Datenverfügbarkeit und Integrierbarkeit von automatisierten Lösungen in bestehende Systeme, weiteren Anwendungen kaum Grenzen gesetzt.

Wenn Sie neugierig geworden sind, Fragen haben oder einfach mehr wissen möchten, steht Ihnen das Schickler Data-Science-Team gerne zur Verfügung: datascience@schickler.de

Das SCHICKLER Strategieforum 2018: Sind Künstliche Intelligenz und Machine Learning die Wunderwaffen der Zukunft für Medienunternehmen?

Teil 2: Neue KI-Geschäftsmodelle und maschinenerlerntes Sprachverständnis

 

Technologie führt zu neuen Geschäftsmodellen – ein erfolgreiches Beispiel

Rolf-Dieter Lafrenz und Tom Krause, CEO und CTO des innerhalb von SCHICKLER geborenen Start-ups cargonexx, gaben einen praxisbezogenen Einblick in das technologiebasierte Geschäftsmodell, die Entwicklung unter Unsicherheit und appellieren an den Mut der Unternehmer.

Cargonexx revolutioniert den LKW-Transport mit Künstlicher Intelligenz, wobei diese definiert wird als Kombination aus Automatisierung, Intelligenz und maschinellem Lernen. Das Geschäftsmodell reduziert die Transaktionskosten und erhöht die Auslastung der LKWs. Künstliche Intelligenz in Form von selbst-lernenden Algorithmen optimiert Touren, sagt Preise voraus und generiert auf Basis wachsender Daten ein intelligentes Transport-Netzwerk. Über die Plattform ergibt sich eine Win-Win-Situation für Verlader (bessere Preise, Zeitersparnis) und Frachtführer (mehr Umsatz, weniger Arbeit). Auch die Gesellschaft und die Umwelt profitiert: weniger Verkehr durch bessere Auslastung und eine Reduzierung des CO²-Ausstosses sind die Folge. Zukünftig ist gepaart mit autonom fahrenden LKWs sogar ein völlig autonomes Transport-Ökosystem möglich.

Wertvolle Hinweise, wie die Umsetzung von neuen Geschäftsmodellen mit Künstlicher Intelligenz kostenseitig nicht zu einem Fass ohne Boden werden, hatte Tom Krause für die Teilnehmer am Beispiel cargonexx parat.  Um Risiken einzuschränken sollten bewiesene Methoden und Ansätze aus dem Start-up-Umfeld wie z. B. die Lean-Methode zum Einsatz kommen. Mit dem Vorgehen „Build – Measure – Learn“ wird vorhandene Unsicherheit wissenschaftlich reduziert. Dazu entwickelt man definierte Hypothesen in kleinen Features (MVP = minimal viable product) um die Hypothese dann zu bestätigen. Entscheidend ist das Lernen und Adjustieren mit echten Kunden, denn der Erfolg hängt davon ab, ob der Kunde den gewünschten Mehrwert erzielt.

Die Strukturierung der Problemstellung und eine auf Automatisierung ausgerichtete Prozessanalyse waren die Grundlage für das Machine Learning bei cargonexx. Die Analyse der Probleme in der Prozesskette vom Verlader zum Frachtführer verknüpft mit den Anforderungen der Player liefert Informationen für die Automatisierungsansätze zur Problemlösung (z. B. zeitintensive Angebotserstellung, Preisvergleiche und Abwicklung). Über immer wieder automatisch neu strukturierte Entscheidungsbäume mit ständig wachsendem Dateninput lernt die Maschine z. B. Freikapazitäten und Preise vorherzusagen und trainiert bzw. verbessert sich mit jeder Entscheidung.

Rolf-Dieter Lafrenz stellte nach dem interessanten und tiefen Blick in die KI-Werkstatt auch fest, dass nicht jeder Entscheider dieses Wissenslevel erreichen muss – wichtig ist es, den Nutzen der Technologie zu verstehen. Denn nur die Technologie führt zu neuen Geschäftsmodellen und neuen Märkten. Er schloss mit dem Appell, mehr Mut zu zeigen, breiter zu denken und neue Geschäftsansätze auszuprobieren.

 

Know your Customer – das Verständnis der Sprache im Kontext

Prof. Dr. Heiko Beier, Geschäftsführer von der moresophy GmbH und Professor für Medienkommunikation setzt seinen Schwerpunkt auf Cognitive Computing und das echte Verstehen von Sprache und Kontext durch Künstliche Intelligenz.

Im Zuge der DSGVO wird deutlich, dass die Nutzung der persönlichen Daten des Kunden für Werbezwecke zunehmend schwierig wird. Die Alternative ist kontextbezogener Content, d.h. eine Nutzung der aktuellen Interessen des Users in Echtzeit. Ich treffe den User in einem Kontext mit dem er sich jetzt gerade beschäftigt – und es ist dafür keine Profilbildung oder Zustimmung notwendig.

Bedingung hierfür ist das Verständnis der Sprache und in welchem Kontext sie verwendet wird. SRA (Semantic Relevance Advertising) schafft es, anhand der Sprache und des Umfeldes dem User ein optimales Werbeangebot zu unterbreiten. Maschinen können heute dieses Verständnis zu lernen. Nicht nur das Wort, sondern die Bedeutung ist dabei entscheidend. Zusätzlich lernen die Algorithmen zu verstehen, was für die User wichtig ist und wie sie sich ausdrücken – hier liegt der Schlüssel. Dies stellt den feinen aber relevanten Unterschied zwischen einem einfachen Keyword und dem echten Verständnis der Sprache dar.

Einsatzbereiche sind z. B. in der automatisierten Dialogsteuerung im Service möglich. Das automatische Verstehen von Kundenkommunikation im richtigen Kontext ermöglicht zudem die Ausspielung von passenden Werbeangeboten in z. B. themenbezogenen Foren.

Fazit: KI kann durch das Verständnis von Sprache und Kontext perfekte Umfelder mit Echtzeit-User-Interesse identifizieren.

 

Historie, Perspektiven, Geschäftsmodelle, Methoden und Anwendungsmöglichkeiten – das SCHICKLER Strategieforum 2018 beleuchtete verschiedene Dimensionen des Themas Künstliche Intelligenz zum Thema. Vielen Dank an die Referenten und Teilnehmer – wir freuen uns auf das nächste Strategieforum 2019!

 

 

Das SCHICKLER Strategieforum 2018: Sind Künstliche Intelligenz und Machine Learning die Wunderwaffen der Zukunft für Medienunternehmen?

Teil 1:
KI-Trends und Googles Machine-Learning-Erfahrungen

Roboter begrüßen freundlich am Eingang und übergeben Namensschilder, selbstlernende Sprach-Applikationen informieren im Dialog über die Agenda und den Tagesablauf. Die Sitzplätze werden von einem Algorithmus zugewiesen, der die individuellen Anforderungen und Interessen der Strategieforum-Teilnehmer berücksichtigt.

So hätte er sein können – der Empfang zum diesjährigen SCHICKLER Strategieforum 2018 mit dem Thema „Künstliche Intelligenz“. Aber es blieb persönlich und durch den herrlichen 360-Grad-Blick aus der 20. Etage des Atlantik-Hauses über das sonnige Hamburg auch „natürlich“.

„KI wird für die Menschheit wichtiger als Elektrizität und Feuer“, sagt der Google-CEO. Nicht nur die 40 Milliarden US-Dollar Investitionen im letzten Jahr, sondern auch die Rekordteilnehmerzahl von mehr als 50 Entscheidern aus der Medienbranche am Strategieforum spiegelte die Relevanz des Themas „Künstliche Intelligenz“ wider.

Um einen strategisch ganzheitlichen Blick auf das Thema zu bekommen, boten die Keynote-Speaker in diesem Jahr einen Mix aus Theorie und Praxis sowie branchenfremden und medienbezogenen Einsatzfeldern.

 

Haben wir eine Chance im weltweiten KI-Wettbewerb?

 

Prof. Dr. Alois Knoll, Lehrstuhlinhaber für Künstliche Intelligenz an der TU München, zeigte die Anfänge der Künstlichen Intelligenz auf und gab Einblicke in die wissenschaftliche Entwicklung, deren Möglichkeiten sich mit steigender Rechnerleistung stetig erweitern. Im Fokus der Wissenschaft steht das menschliche Gehirn – das Verständnis der Komplexität und die „Übersetzung“ in Technologien ist das Ziel eines europäischen Flagship-Projektes namens „Human Brain Project“.  Die dazugehörige Neurorobotics-Plattform hat zum Ziel, Gehirn- und Robotermodelle für kognitive Experimente zu vereinen (www.neurorobotics.net).

Und wo steht Deutschland bzw. Europa im weltweiten Wettbewerb? Insbesondere mangels Investitionswillen und fehlendem Datenvolumen (siehe DSGVO) können wir den Vorsprung und das exponentielle Wachstum von KI in USA und China nicht aufholen. Aber: wir können uns auf die nächste KI-Welle vorbereiten und diese systematisch „mitreiten“.

Die Trends in dieser nächsten KI-Welle werden geprägt sein von

  • Individualisierung und Privatheit („private AI“),
  • Fokussierung auf bestimmte intellektuelle Leistungen in verbesserter Echtzeit („narrow AI“)
  • Leistungsfähigen Algorithmen auf kleineren Datensätzen („small big data“) und
  • Nutzung von KI auf Spezialarchitekturen mit geringem Energieverbrauch („embedded AI“).

Voraussetzung dafür ist allerdings, dass in Deutschland und Europa die Investitionen in Künstliche Intelligenz durch die Unterstützung von Start-ups sowie die Schaffung von neuen Ökosystemen massiv erhöht werden – das Potenzial ist auf jeden Fall vorhanden. Entscheidend wird sein, wie wir es schaffen, Bedarf und Angebot, Anforderungen und Ideen sowie last but not least Unternehmen und Start-ups zusammenzubringen.

 

Googles Erfahrungen mit Machine Learning in Online-Marketing-Einkaufssystemen

 

Heutige Werbung muss für den Verbraucher relevant und unterstützend sein. Dies ist der Ausgangspunkt für die Nutzung von Machine Learning im Online Marketing, sagt Meinolf Meyer, Head of Sales Google Marketing Platform. Technologie und spezielles Wissen über den Kunden eröffnet Möglichkeiten, automatisch Werbung im richtigen Moment, für die passende Person mit der richtigen Message zu kaufen und auszuspielen.

Als Vertreter einer der großen weltweiten Player bezüglich Künstlicher Intelligenz teilte Meinolf Meyer mit den Teilnehmern Erfahrungen, die Google mit Machine Learning auf ihrer Online Marketing Plattform gemacht hat.

Das Futter für die eingesetzten Machine-Learning-Algorithmen sind verschiedene Datenpunkte in vier Clustern. Diese Signale sind z.B. Informationen über

  • „Audience“: wer (Alter/Geschlecht), wann (Wochentag/Tageszeit) und wo (Geodaten)
  • „Content“: welcher Kanal bzw. welches technische Umfeld
  • „Creative“: welcher Werbetyp (Banner, Video, …)
  • „Technology“: welches Device wird genutzt

Voraussetzung dafür ist allerdings, dass in Deutschland und Europa die Investitionen in Künstliche Intelligenz durch die Unterstützung von Start-ups sowie die Schaffung von neuen Ökosystemen massiv erhöht werden – das Potenzial ist auf jeden Fall vorhanden. Entscheidend wird sein, wie wir es schaffen, Bedarf und Angebot, Anforderungen und Ideen sowie last but not least Unternehmen und Start-ups zusammenzubringen.

Machine Learning verarbeitet diese Signale und hilft dabei die richtige Zielgruppe zu finden, Kampagnenerfolge zu messen und z. B. durch A/B-Testing die richtige Botschaft für die Zielgruppe zu ermitteln. Eine spezielle Anwendung ist das Smart Bidding, mit der bei jeder Online-Marketing-Auktion auf Basis von Milliarden von Informationen der optimale Gebotswert für die gewünschte Conversion ermittelt wird.

Die Erfahrung von Google zeigt, dass aktuell noch nicht der volle Umfang der Möglichkeiten genutzt werden kann, da relevante Daten für die Signale entweder nicht vorhanden oder nicht konsolidiert sind, weil sie bei verschiedenen Playern bzw. Agenturen verteilt vorliegen.

Fazit: Auch wenn teilweise die notwendige Voraussetzung der Datenverfügbarkeit noch nicht erfüllt ist – Machine Learning führt zu einer signifikanten Erhöhung der werberelevanten KPI’s auf der Google Advertising Plattform und kann Effizienz und Performance für Werbetreibende steigern.

 

…Fortsetzung folgt in Teil 2….