Kundenindividuelle Preise – Market-Based Pricing für Abonnements

Tageszeitungsverlage kämpfen mit einer Vielzahl von Herausforderungen – sinkende Printauflagen, sinkende Anzeigenerlöse und steigende Kosten. Um weiterhin wirtschaftlich zu arbeiten, haben viele Verlage deshalb in den letzten Jahren die Abo-Preise kontinuierlich erhöht. Steigende Abo-Preise führen allerdings dazu, dass es immer schwieriger wird, neue Kunden zu dem höheren Preisniveau zu gewinnen.

Quelle: SCHICKLER/BDZV Trendumfrage 2019

Verlage öffnen sich daher dem Market-Based Pricing (MBP). Mehr als 2/3 der Verlage sehen in einer Differenzierung von Preisen mehr Chancen als Risiken.

MBP bedeutet, dass unterschiedlichen Kunden unterschiedliche Preise für ein identisches Produkt (z.B. ein Print-Abo) angeboten werden. Zwei Kunden, die ein Abo mit identischem Leistungsumfang gebucht haben, zahlen entsprechend nicht zwangsläufig den gleichen Preis. In vielen anderen Branchen hat sich diese Praktik bereits breit etabliert. So werden Ihnen online bei Reiseportalen oder Airlines unterschiedliche Preise je nach Ihrer Browserhistorie anzeigt. Auch im Pay-TV-Bereich und bei Telefon-/Internetanbietern wird dies eingesetzt.

Ziel des Market-Based Pricings ist es Kunden mit hoher Zahlungsbereitschaft ein Abo zum Normalpreis zu verkaufen. Kunden mit einer niedrigeren Zahlungsbereitschaft werden gleichzeitig mit einem geringeren Preis gewandelt. In Summe werden dadurch mehr Neukunden gewonnen, ohne das Preisniveau strukturell zu senken.

Die Crux eines erfolgreichen MBP-Systems besteht darin herauszufinden, welche Kunden eine hohe Zahlungsbereitschaft besitzen und welche eher eine niedrige. Nur wenn dieses Wissen vorhanden ist, kann auch jedem Kunden der Preis angeboten werden, den er maximal zu zahlen bereit ist und bei dem der Verlag mit diesem Kunden die bestmögliche Marge verdient.

Entscheidend hierfür ist, Daten über Kunden zu sammeln, operativ verfügbar zu machen und datengestützt Vorhersagen zu treffen, was der optimale Preispunkt für jeden Kunden ist, den wir z.B. aus der Probe in das Abo wandeln möchten. Die Einführung und Umsetzung von MBP ist auch immer ein Daten-Thema.

Je mehr ich über Kunden weiß, desto besser kann seine Preisbereitschaft vorhergesagt werden. Relevante Daten sind z.B. Daten über das demographische Umfeld des Kunden und sämtliche bisherigen Interaktionen mit dem Verlag (vorherige (Probe-)Abos, Reklamationen, Anrufe im Service-Center, Online-Nutzungsdaten). Sind diese Daten für sämtliche Kunden gesammelt und in guter Qualität verfügbar, können Zusammenhänge zwischen diesen Merkmalen und der Preisbereitschaft durch Datenanalyse-Methoden gewonnen werden. Durch den Einsatz von K.I. (Künstliche Intelligenz) -Algorithmen, lässt sich für jeden Kunden ein optimaler Preis vorhersagen.

Preisbereitschaft ist ein wichtiges Kriterium, um ggf. Preise zu differenzieren. Die eigene Kostenbasis ist es jedoch auch. Die Margen je Abo unterscheiden sich teilweise extrem, wenn wir unterschiedliche variable Kosten berücksichtigen, insbesondere im Bereich der Logistikkosten. Für die Ermittlung der optimalen Preispunkte ist daher auch eine kontinuierliche Bereitstellung von Kostendaten sinnvoll. Mit Hilfe dieser Kostendaten wird verhindert, dass der optimale Preis für jeden Kunden kein Preis ist, mit dem der Verlag sich einen zu niedrigen Deckungsbeitrag oder sogar negativen Deckungsbeitrag je Monatsstück einkauft.

MBP ist eine weitere sinnvolle Methode, mit Hilfe von Daten und Methoden der datengestützten Vorhersagen das Kerngeschäft von Verlagen zu optimieren – und gleichzeitig eine Methode, die auch bei neuen digitalen Produkten zum Einsatz kommt oder kommen wird. Für die digitalen Paid-Content-Produkte steuern wir schließlich ebenfalls eine „Customer Journey“ – aus Leads, Conversion und Retention – und differenzierte Preise sind auch hierfür ein wichtiges Instrument.

Fernsehen versus Video-on-Demand: Die Revolution geht weiter

Vor zehn Jahren haben TV-Sender weltweit den Video-on-Demand-Markt (VOD) noch nicht ernst genommen. Netflix hatte da schon längst angefangen, nicht mehr nur DVDs zu verschicken, sondern Content auch über Streaming zur Verfügung zu stellen. Netflix traf den Zeitgeist vieler Kunden, rollte sein Geschäft zügig weltweit aus und schuf ein ganz neues Bedürfnis für die Zuschauer: das „Binge-Watching“ (mehrere Serienfolgen am Stück schauen). Mit dem sogenannten Content ATAWAD („anytime, anywhere, any device“) geriet die weltweite TV-Branche kräftig ins Wanken.

Noch bevor sich die Streaming-Dienste wie Netflix oder auch Amazon Prime Video 2014 am deutschen Markt etablieren konnten, versuchten die deutschen Sender und Medienunternehmen schon ihre Kräfte zu bündeln und eigene Plattformen zu schaffen. RTL und ProSiebenSat1 planten die VOD-Plattform „Amazonas“, auf der sie alle ihre Inhalte verbreiten wollten. 2011 hatte das Bundeskartellamt dem eine Absage erteilt, das Oberlandesgericht Düsseldorf bestätigte das Verbot ein Jahr später.

2019 geht die Disruption des TV-Markts durch VOD weiter. Zahlreiche alte und neue, nationale und internationale Player stürmen auf den VOD-Markt und wollen Teil vom Kuchen des Medien-Budgets der Kunden (zurück).

In den USA wird im Frühjahr 2020 Warner Media HBO Max als weiterer Streaming-Dienst erwartet. Serien wie „Friends“ oder die Sitcom „The Fresh Prince of Bel Air“ werden dann bei HBO Max zu sehen sein und in den USA nicht mehr für Netflix zur Verfügung stehen. HBO Max gibt schon jetzt umfangreiche Originalprogramme in Auftrag (sog. Max Originals).

Vor HBO Max wird Disney+ im November in den USA sowie in Kanada, Australien Neuseeland und in den Niederlanden launchen. Disney+ hatte 2017 seine Verträge mit Netflix gekündigt. Ende März dieses Jahrs hat Disney die Übernahme von 20th Century Fox abgeschlossen und ist nun endgültig bereit für den nächsten Schritt zum Streaming-Dienst. Während WarnerMedia den Zeitplan noch nicht bekannt gegeben hat, plant Disney+ schon 2020 in Deutschland und bis Ende 2021 weltweit erhältlich zu sein.

Mit Apple TV+ betritt ein weiterer Streaming-Dienst die Bühne der USA. Die neue Plattform soll Apple-hausintern schon „Netflix-Killer“ genannt werden. Der Launch ist für November 2019 und auch in Deutschland geplant. Auch Apple lässt schon Originals produzieren, wird aber mit einem viel kleineren Portfolio starten als Disney, Warner, Netflix oder Amazon. Die Basis-Abo-Gebühren der Dienste in den USA werden zwischen USD 4,99 (Apple TV+), USD 6,99 im Monat (Disney+) und USD 8,99 im Monat (Amazon Prime, Netflix) liegen.

Auch in Deutschland hat sich einiges getan: Joyn ist gerade erst im Juni als Joint Venture zwischen ProSiebenSat1 und Discovery als Streaming-Dienst gestartet und hat 7TV abgelöst. Zurzeit ist die Plattform noch kostenlos, bietet Zugang zu mehr als 50 Fernsehsendern über Live-Stream und On-Demand-Inhalte von den Programmen der Pro-Sieben-Sat-1-Gruppe und des Discovery-Konzerns. Bis Ende des Jahres sollen Maxdome und der Eurosport Player integriert werden. Was das Premium-Abo kosten wird ist noch nicht bekannt. RTL‘s TVNOW hat den Monatspreis auf Euro 4,99 erhöht und wartet neben dem bekannten RTL-Produkt auch mit exklusiven Serien auf.

Für die Nutzer wird es in der nächsten Zeit unbequem. Die Netflix- und Amazon Prime-Abos alleine werden wahrscheinlich nicht die ganze Familie zufriedenstellen können. Sehr wahrscheinlich ist, dass sich die Plattformen recht schnell konsolidieren werden. Insbesondere Disney+ und HBO Max haben bessere Karten als ein Dienst wie Netflix, da diesen ein fast 100-jähriger Rechte-Stock mit tausenden von Stunden zur Verfügung steht. Die Klassiker und langlaufenden Serien sind zwar nicht die Wachstumstreiber (das sind die Originals), aber garantieren eher, dass die Kunden nicht schnell wieder kündigen. Ob eine Konsolidierung noch vor Launch dieser neuen Plattformen in Deutschland stattfindet, bleibt abzuwarten. Auch bleibt es spannend, ob ProSiebenSat1 und RTL mit TVNOW und Joyn mergen, so wie sie es 2011 schon mal geplant hatten, und ob sie sich bei den Nutzern gegen die amerikanischen Plattformen langfristig mit ihrem Produkt durchsetzen können. Was den Sportbereich und insbesondere den Fußball angeht, so ist es schon heute sehr unbequem für die Nutzer. Um alle Bundesliga-Spiele zu sehen, benötigt man sowohl ein Sky- als auch DAZN-Abo.

Die kommerziellen deutschen TV-Sender setzen auf die richtige Strategie, neben dem linearen Fernsehen auch VOD-Plattformen am Markt zu etablieren. Das lineare Fernsehen ist aber noch lange nicht tot. Erst zuletzt hatte ProSieben mit „The Masked Singer“ fantastische Einschaltquoten bei den 14-49Jährigen mit knapp 40%. Der Kampf um die Zuschauer geht aber weiter, ob linear oder non-linear.

Wachstum – aber richtig! Wie Regionale Briefdienste erfolgreich sind

Bauer Postal Network stellt das Geschäft ein – es war nicht mehr wirtschaftlich. Postcon wird an Quantum Capital Partners verkauft – einen Finanzinvestor mit Fokus auf Restrukturierungsfälle. Der alternative Briefmarkt wird aktuell schwer durchgeschüttelt. Welche Perspektive haben Regionale Briefdienste in diesem stürmischen Markt?

Die Antwort liegt in regionalen werthaltigen Briefmengen. Doch dieses Kundensegment wurden bei vielen Briefdiensten lange Zeit vernachlässigt. Zu viel Fokus wurde auf Menge, Menge, Menge gelegt – und diese Menge kam über Einspeiser und über große Ausschreibungskunden. Doch damit kann kein Geld verdient werden, da die Stückerlöse zu gering sind. Diese Mengen sind notwendig, um die Infrastruktur aus Sortierung und Zustellung auszulasten und diese „zu finanzieren“. Doch auf dieser finanzierten Infrastruktur müssen zusätzlichwerthaltige regionale Mengen akquiriert, abgeholt, sortiert und zugestellt werden, um Deckungsbeiträge zu erwirtschaften. „Menge aus der Region für die Region“ lautet die Devise. Doch wie können Regionale Briefdienste diese Mengen akquirieren?

Deutschland ist im Vergleich zu anderen Ländern ein guter Markt für Briefdienste. Die Briefmenge je Einwohner ist mit 390 Briefe pro Jahr (davon 230 Briefen pro Jahr aus dem lizenzpflichtigen Bereich) deutlich höher als in anderen Ländern. Auch der Gesamtmarkt entwickelt sich mit -1% pro Jahr bei den Mengen und -0,5% pro Jahr bei den Umsätzen nur leicht negativ. In diesem geringfügig rückläufigen Markt konnten alternative Briefdienste kontinuierlich wachsen und haben bereits einen Marktanteil von stolzen 16% erreicht. In Summe gute Voraussetzungen, um ein profitables Geschäft zu betreiben. Doch die meisten Briefdienste hängen den Erwartungen hinterher.

Der Schlüssel zum Erfolg: das regionale Geschäft. Um dieses zu entwickeln, müssen Briefdienste vier Schritte durchführen:

1. Marktanteile kennen und Potentialkunden identifizieren
Wie hoch ist der Marktanteil eines Regionalen Briefdienstes? Die häufig verwendete Definition des Marktanteils als Anteil der durch den Briefdienst zugestellten Menge im Gebiet in Relation zur Gesamtmenge im Gebiet führt nicht zum Ziel. Relevant ist vielmehr die „Sales-Sicht“. Welcher Anteil der werthaltigen regionalen Mengen wird durch den Regionalen Briefdienst akquiriert und abgeholt? Um diese Frage zu beantworten, muss die Größe des regionalen Markts der werthaltigen Mengen „aus der Region für die Region“ bestimmt werden. Schickler hat eine Methodik entwickelt, um diese Frage zu beantworten und Transparenz über die Größe des werthaltigen regionalen Markts und der möglichen Wachstumsperspektiven zu schaffen.

2. Deckungsbeiträge nach Segmenten im Blick haben
Die Deckungsbeiträge je Brief sind zwischen den Kundensegmenten stark unterschiedlich. Das Verständnis über diese segment-spezifischen Deckungsbeiträge und die Kundenstruktur legt die Grundlage für die Verkaufsstrategie – sie nicht zu kennen gleicht einem Blindflug. Um belastbare Werte zu erhalten, müssen eine Vielzahl an Faktoren einbezogen werden: neben Kosten und Erlösen/Pauschalen für Abholung müssen Kundenbesonderheiten in der Sortierung, DPAG-Quoten und natürlich die Stückerlöse einbezogen werden.

3. Schlagkräftige Verkaufsorganisation und Sales-Funnel etablieren
Das Marktpotential und die Deckungsbeiträge nach Kundensegmenten sind die Grundlage für die Verkaufsorganisation. In welchen Segmenten wird ein Hunter-Verkauf benötigt? In welchen Segmenten ein Tandem aus Verkauf und Terminierer? In welchen Segmenten sollte der Verkauf auch der langfristige Ansprechpartner für den Kunden sein, in welchen besser nicht? Die Struktur der Verkaufsorganisation ist eine der Kernfragen für die erfolgreiche Akquise von Kunden im Briefgeschäft. Auf Basis der Segmente und Verkaufslogiken kann die notwendige Stärke der Verkaufsorganisation berechnet werden. Ein klar definierter Sales-Funnel beschreibt den kompletten Akquise Zyklus mit klar definierten Zielvorgaben für Conversions von einer Stufe zur nächsten des Funnels.

4. Verkaufsprozesse, KPIs und CRM professionalisieren
Die letzten Schritte sind die Etablierung strukturierter Verkaufsprozesse, die Implementierung notwendiger Kennzahlen und Zielvorgaben sowie die Einführung eines praktikablen CRM-Systems, welches den Sales-Funnel abbildet. Die Aktivitäten im Verkaufsprozess müssen durch ein CRM-System strukturiert und messbar gemacht werden. Nur auf Basis der messbaren KPIs kann der Prozess kontinuierlich optimiert werden. Dabei ist für eine Verkaufsorganisation im Briefgeschäft kein ausgeklügeltes high-end CRM-System notwendig. Pragmatische Lösungen, die schnell umgesetzt werden können, sind zielführend.

Die Chancen für regionale Briefdienste sind groß und erfolgreiche Briefdienste machen es vor: Profitabilität liegt in der bestmöglichen Ausschöpfung des regionalen Marktes. Weg von „Menge, Menge, Menge“ und großen Wachstumszahlen hin zu werthaltiger Menge mit hohen Deckungsbeiträgen.

Wenn wir Ihr Interesse geweckt haben senden wir Ihnen gerne unseren Schickler Einblick „Wachstum – aber richtig!“, in dem wir detailliert die Methoden zur Optimierung der Verkaufsorganisationen bei regionalen Briefdiensten darstellen. Melden Sie sich gerne bei Dr. Christoph Mayer unter c.mayer@schickler.de

Qualität Rauf, Kosten runter. Auslagerung von IT-Prozessen in Medienunternehmen

Das Geschäft von Medienunternehmen wird immer komplexer und weitreichender. Neue Geschäftsmodelle, strenge Rahmenbedingungen und ein hoher interner Anspruch führen zwangsläufig auch zu einer höheren Komplexität aller IT-Prozesse. Gerade kleinere und mittelgroße Unternehmen können diese nur schwer abbilden. Als wäre dies nicht genug, ist der IT-Fachkräftemarkt extrem umkämpft. Eine Auslagerung der IT-Prozesse kann hier die Lösung sein.

Wie verhalten sich IT-Organisationen von Medienunternehmen heute? Welche Kosten haben ihre IT-Prozesse? Wie veränderungswillig sind sie? Bei der Beantwortung dieser Fragen konnten wir vier Handlungstypen identifizieren:

  • Konsolidierer
  • Innovatoren
  • Sparer
  • Bewahrer
Ausprägung und Typen von IT-Organisationen in Medienunternehmen

Beispielsweise haben die Bewahrer einerseits eine kostenintensive IT-Infrastruktur, die in der Vergangenheit passgenau an ihren Vorstellungen ausgerichtet wurde. Andererseits sind sie Veränderungen gegenüber wenig aufgeschlossen, da sie wissen, dass die Umsetzung ihrer Wünsche in moderneren Architekturen extrem hohe Umsetzungskosten mit sich bringt.

IT-Dienstleister im Mediensektor

Professionelle Service Provider im Mediensektor sind entweder aus Mediengruppen ausgegliedert worden, um eine erweiterte Kundenbasis zu bedienen. Oder bestehende IT-Dienstleister haben sich aufgrund ihrer Kundenstruktur und Erfahrungen auf den Mediensektor spezialisiert. Typische Beispiele aus dem Leistungsangebot eines IT-Dienstleisters reichen von einfachen Infrastruktur-Diensten – dazu können der Betrieb des Service Desk oder des Rechenzentrums gehören – bis hin zur Übernahme gesamter Geschäftsprozesse und dem Betrieb von Service-Plattformen zur Umsatzgenerierung.

Neues Niveau an Qualität in IT-Prozessen

Zu den wichtigsten Treibern bei der Auslagerung von IT-Prozessen an einen externen Service Provider zählten heutzutage nicht mehr die Kosten. Die Entscheider erwarten in erster Linie die Steigerung der Qualität, Erhöhung der Professionalität und Sicherung der Zukunftsfähigkeit.

Qualitative Effekte bei Auslagerung von IT-Prozessen

Kosteneffekte bei der Auslagerung

Trotzdem bleiben mögliche Kosteneffekte weiterhin ein wichtiges Entscheidungskriterium einer IT-Auslagerung. Insbesondere folgende Kosteneffekte treten bei Verlagen und Medienhäusern ein:

  • Reduktion der Personal- und Gemeinkosten
  • Deutlich reduzierter Investitionsbedarf
  • Niedrigere Servicekosten durch Skaleneffekte
  • Kostengünstige Umsetzung geänderter Rahmenbedingungen

Case Study: Wie ein Medienunternehmen es geschafft hat, seine gesamte IT strukturiert an einen IT Service Provider zu übertragen.

Ein regionaler Zeitungsverlag mit einer Auflage von rund 60.000 Exemplaren hat es geschafft, die vollen Potenziale einer IT-Auslagerung auszunutzen. Dabei hat er seine gesamten IT-Prozesse an einen Service Provider übertragen. Bereits zuvor wurde das Rechenzentrum und der Service Desk von einem externen Dienstleister betrieben. Nun wurden die restliche Infrastruktur und alle Anwendungen in die Hände eines zentralen Service Providers gegeben. Nach einer Initialisierungsphase wurde der Übergang in drei Phasen vollzogen:

  1. Arbeitsplätze und Infrastruktur (Desktop Management,
    Netzwerke etc.)
  2. Anwendungen I (administrative Anwendungen, z.B. Finanzsysteme, Personalsystem, Entgeltabrechnung für Zusteller etc.)
  3. Anwendungen II (produktive Anwendungen, z.B. Redaktionssystem, Produktionssysteme, Anzeigensystem etc.)

Der Regionalverlag konnte die Umstellung nach insgesamt 3 Jahren als Erfolg verbuchen. Zu diesem Zeitpunkt waren auch die langjährigen Dienstleistungsverträge gekündigt. Die IT-Kosten pendelten sich auf dem halben Niveau der ursprünglichen Kosten ein.

Case Study: Kostenverlauf bei der IT-Auslagerung

Mehr Details in unserem Einblick für Entscheider!

Sie möchten mehr erfahren? Laden Sie sich den SCHICKLER Einblick kostenlos herunter, um detailliertere Informationen zum Markt, den Potenzialen und zur Case Study zu erhalten.


Operational Excellence in der Auftragsabwicklung: Ein EINBLICK für Anzeigeninnendienste

Operational Excellence in der Auftragsabwicklung: Ein EINBLICK für Anzeigeninnendienste

Die Anforderungen an Werbevermarktungen sind in den letzten Jahren kontinuierlich gestiegen. Printanzeigen verlieren am Markt zunehmend gegen neue Rivalen wie Google, Facebook & Co. Viele Kunden treffen gar Gattungsentscheidungen und wenden sich vollständig von Verlagshäusern ab. Werbevermarktungen tun daher gut daran zu innovieren – „Digitaler Anzeigenverkauf“, „360-Grad-Vermarktung“ und „Agenturkonzepte“ heißen immer häufiger die Ansätze, mit denen die Verlagshäuser ihre Werbevermarktungen gegen immer professionellere Konkurrenten ins Rennen schicken.

Allerdings steigt hierbei nicht nur die benötigte Vermarktungskompetenz des Regionalverkaufs – auch die Anforderungen an die Auftragsabwicklung verändern sich grundlegend. Noch viel zu häufig versuchen Vermarktungen, digitale Abwicklungsworkflows eins zu eins in bestehende Printprozesse zu gießen. Das Ergebnis sind fehleranfällige Prozessketten mit unzähligen System- bzw. Medienbrüchen und redundanten Schleifen.

In unserem noch im Juli erscheinenden EINBLICKOperational Excellence in der Auftragsabwicklung: Ein Einblick für Anzeigeninnendienste“ hat SCHICKLER seine umfassende Projekterfahrung und konkrete Lösungsansätze zusammengestellt.

Der Markt der Auftragsabwicklung ist kein unerheblicher: Wir schätzen die deutschlandweiten Personalkosten in der Anzeigen- und Beilagenabwicklung für Tageszeitungen und Anzeigenblätter auf über 124 Millionen Euro jährlich. Rund 3.100 Mitarbeiterkapazitäten wickeln hierbei jährlich über 13,5 Millionen Anzeigen- und Beilagenaufträge ab. Dabei schätzen wir, dass die reelle Zahl der am Abwicklungsprozess beteiligten Parteien um ein Vielfaches höher ist. Denn Werbevermarktungen haben oftmals keine trennscharfen Rollenabgrenzungen in Ihren Verkaufs- und am Verkauf beteiligten Funktionen. Eine Herausforderung, die mit zunehmendem Agenturansatz unabdingbar wird, da sich fehlerhafte Prozesse mit steigender Komplexität exponieren.

Im EINBLICK gibt SCHICKLER klare Empfehlungen, welche Schritte ergriffen werden müssen, um die benötigte Trennschärfe im Anzeigeninnendienst zu erhalten und welche Betriebsmodelle am Markt funktionieren.

Auch die Nutzung systemgetriebener Innovation nimmt zu. Wurden beispielsweise „Berater-Apps“ zunächst belächelt, sind sie heute aus Best-Practice-Vermarktungen nicht mehr wegzudenken und können bei an das CRM System angeschlossenem Back-End einen signifikanten Teil der kaufmännischen Auftragsabwicklung automatisieren. Neben der gesteigerten Verkaufsqualität können auch Verkaufsvorbereitung und dem Verkauf nachgelagerte Tätigkeiten optimiert werden. Wie das geht und welche anderen Innovationen sich durchsetzen werden, lesen Sie in unserem EINBLICK.

Generell regt der EINBLICK an, den Blick über den Tellerrand zu wagen und zu verstehen, wie Best-Practices in und um den Verlagskosmos Ihren Post-Sales Bereich strukturieren. Sie wollen sich diesen EINBLICK sichern? Fordern Sie Ihr Exemplar an unter info@schickler.de.

Marktdaten für datengestützte Verkaufsprozesse in der Werbevermarktung

Im Werbeverkauf stehen Verlage vor vielen Herausforderungen. Die Anzahl der aktiven Kunden sinkt, die treuesten und größten Kunden probieren proaktiv immer mehr Alternativen aus oder setzen Konzernentscheidungen um, um das Budget in digitale Kanäle zu verschieben.

Viele reagieren bereits mit Maßnahmen, um die aktiven Kunden besser zu binden und auch die inaktiven Kunden wieder von den eigenen Leistungen zu überzeugen. Der Veränderungsprozess ist lang und der Erfolg von vielen Leistungen der Organisation abhängig. Eine davon ist, relevante Marktinformationen zu erhalten, sie zu strukturieren und sie in die Arbeitsweisen jedes Verkäufers zu integrieren.

Konkret stehen Verkaufsorganisationen vor der Herausforderung,

  • Informationen über Bestandskunden sinnvoll zu qualifizieren.
  • Diese Informationen für eine erfolgreich Bearbeitung des Kunden in der täglichen Arbeit der Verkäufer zu nutzen.
  • qualifizierte Potenzialadressen kontinuierlich als Lead in den Verkauf zur Erstansprache zu platzieren.

Die Lösung:

Keine individuelle Beratung ohne gute Informationen

Die Verkäufer stehen vor der Herausforderung, für diese Kunden die passenden Media- und ggf. Agenturleistungen festzulegen – mit dem Wissen über ihre Kommunikationsziele. Das gelingt nur, wenn sie Entscheider und Kundenverhalten kennen. Dafür helfen Daten über das Mediaverhalten, die Unternehmensgröße und die Wettbewerbssituation. Von Bestandskunden ist dies oftmals flickenhaft bekannt – von Potenzialkunden fehlen diese Daten gänzlich.

Keine effizienten Kampagnen ohne gute Daten

Fast 90% der regionalen Bestandskunden und alle Potenzialkunden werden durch einen kompetenten Telefonverkauf betreut und beraten. Dabei sind strukturierte Daten für die Priorisierung und Selektion der Kunden entscheidend für Erfolg, Effizienz und Wirtschaftlichkeit. Für die Kunden mit keinem oder wenigen hundert Euro Umsatz pro Jahr fehlen den meisten regionalen Verlagen Daten: Die richtige Branche, Mitarbeiter, Umsatz, Mediavolumen, Relevanz der Wettbewerber, Mediavolumen u.a. Teilweise sind vorhandene Daten auch fehlerhaft – und sei es „nur“ die passende Branchenzuordnung.

Verankern wir die Daten aus einer Marktpotenzialanalyse in die Verkaufsprozesse und betten sie in moderne Steuerungsinstrumente ein, gehen Werbevermarkter einen weiteren Schritt zu einer datengestützten und -getriebenen Organisation. Falls Sie Fragen zum Artikel haben oder weitere Informationen wünschen, freuen wir uns Ihre Kontaktaufnahme: P.Tongbhoyai@schickler.de

Die SCHICKLER KI-MATRIX: Strukturierte Bewertung von KI-Anwendungsfällen

Künstliche Intelligenz ist die nächste Stufe der wirtschaftlichen Evolution und wird sich in allen Prozessen und Unternehmen etablieren. Große Player wie Facebook, Google und Amazon nutzen Künstliche Intelligenz in einer Vielzahl von Prozessen und verschaffen sich deutliche Wettbewerbsvorteile. Die SCHICKLER KI-Matrix hilft hierbei Anwendungsfälle in Ihrem Unternehmen zu strukturierten.

Die Achsen        

Die Vertikale bewertet den wirtschaftlichen Mehrwert aus einer unternehmerischen Perspektive. Hierdurch werden monetäre Effekte beschrieben, die entweder Kosten senken oder Umsätze heben. Oftmals wirken Anwendungen von künstlicher Intelligenz indirekt, da sie Arbeitsprozesse automatisieren und Mitarbeiter entlasten. So könnte bspw. eine KI Anwendung in der Werbevermarktung Vorschläge für Upselling-Produkte machen. Hierzu bewertet die KI die jeweilige Kaufwahrscheinlichkeit aller Produkte für einzelne Kunden auf Basis ihrer Eigenschaften und Präferenzen.

Wir haben fünf Fragen definiert, mit denen Sie den wirtschaftlichen Mehrwert eines Anwendungsfalls bewerten können. Beantworten Sie Frage 1 und 2 mit „Ja“, haben Sie einen wirtschaftlichen Anwendungsfall gefunden. Beantworten Sie darüber hinaus die Fragen 3 bis 5 mit „Ja“, ist der Anwendungsfall aus wirtschaftlicher Perspektive einfach zu entwickeln und zu nutzen:

Auf der Horizontalen der KI-Matrix wird die Data-Science Attraktivität bewertet. Neben den wirtschaftlichen Faktoren sollten auch technische Kriterien berücksichtigt werden, bevor man über die Umsetzung eines KI-Anwendungsfalls nachdenkt. Dieser technische Aspekt ist für fachfremde Nutzer schwieriger zu beurteilen. Daher erklären wir im Folgenden, was einen Anwendungsfall aus Data-Science Perspektive attraktiv macht.

Von besonderer Bedeutung sind hierbei die Verfügbarkeit und Qualität der verwendeten Daten. Denn diese sind das Fundament, auf welchem die KI-Lösung letztlich „trainiert” wird. Wir empfehlen Ihnen daher so früh wie möglich wichtige Daten für Ihren Anwendungsfall zu identifizieren und diese systematisch zu erheben. Ein weiteres Kriterium ist die Messbarkeit der gestellten Aufgabe. Nur mit einem klar formulierten Ziel kann die KI versuchen, eine Lösung zu optimieren. Für die technische Umsetzbarkeit sind zudem die vorhandenen fachlichen Kompetenzen im Unternehmen relevant, ohne welche der Aufwand für Entwicklung und Betrieb rapide steigen kann. Zuletzt sollte die KI-Lösung gut in bestehende Systeme integrierbar sein. Auch für diese Achse haben wir fünf Fragen für Sie definiert, mit denen Sie die Data-Science Attraktivität eines KI-Anwendungsfalls einschätzen können:

Die Interpretation

Beim Gegenüberstellen der Achsen „Wirtschaftlicher Mehrwert“ und „Data-Science Attraktivität“ entsteht eine Matrix, mit vier möglichen Feldern: „Ignorieren“, „Nerd Stuff“, „Vorbereiten“ und „Umsetzen“. Abhängig davon, in welches Feld ein Anwendungsfall eingeordnet wird, unterscheidet sich die anschließende Interpretation.

Ignorieren – Ein Anwendungsfall ohne wirtschaftlichen Mehrwert und Data-Science Attraktivität sollte ignoriert werden.

Beispiel: Ihre KI-Anwendung soll voraussagen, mit welcher Wahrscheinlichkeit die Mitarbeiterin in der Kantine versehentlich eine Kelle Nudeln zu viel auf Ihren Teller tut.

„Nerd Stuff“ – Mit hoher Data-Science Attraktivität, aber mangelndem wirtschaftlichen Mehrwert wird die resultierende Anwendung gut funktionieren, aber keinen wirtschaftlichen Mehrwert generieren.

Beispiel: Ihre KI-Anwendung soll aus historischen Wetterdaten vorhersagen, an welchen Tagen Ihre Mitarbeiter in kurzer Hose kommen werden. Die Datenlage hierzu ist auf Online-Plattformen üppig vorhanden. Dennoch liefert die Prognose keinen wirtschaftlichen Mehrwert.

Vorbereiten – Liefert ein Anwendungsfall wirtschaftlichen Mehrwert, hat aber eine niedrige Data-Science Attraktivität, gilt es, die Umsetzung vorzubereiten. Hierbei geht es darum, die nötige Infrastruktur für eine zukünftige Entwicklung zu schaffen (Daten erheben, strukturieren, auswerten, etc.).

Beispiel: Ihre KI-Anwendung soll individuelle Rückgewinnungsmaßnahmen für ehemalige Abonnenten vorschlagen. Derzeit fehlen in Ihrem Unternehmen aber aufbereitete Daten über Kündigungsgründe und wirksame Rückgewinnungs-Maßnahmen. Diese sollten fortan erfasst werden, bis eine kritische Größe an Datensätzen erreicht wurde.

Umsetzen – Ist ein Anwendungsfall sowohl wirtschaftlich als auch aus Data-Science Perspektive attraktiv, gilt es, Möglichkeiten zur schnellen Umsetzung zu finden.

Beispiel: Ihre KI-Anwendung soll vorhersagen, welche bestehenden Kunden Sie mit welchen bestehenden Produkten ansprechen sollten. Hierzu haben Sie eine große Datenbank mit Buchungshistorien und können direkt mit der Entwicklung eines Prototyps starten.

Spannend. Wie geht es jetzt weiter?

Downloaden Sie Ihr Exemplar der SCHICKLER KI-Matrix hier : [Link] . Drucken Sie sie größtmöglich aus, mindestens auf DIN A3. Hängen Sie die Matrix an einen prominenten Platz und fordern Sie Ihre Mitarbeiter auf, aktiv Anwendungsfälle zu eruieren und einzutragen. Gerne stehen wir Ihnen in der Zwischenzeit oder im Nachgang zur Diskussion als Sparringspartner zur Verfügung.

Aktuelle Data Science Trends – Eindrücke von den German Data Science Days 2019

Die Themen Data Science und Künstliche Intelligenz sind im Moment in aller Munde. Mit ihrem Einsatz sind riesige Erwartungen verbunden. Andererseits stellt deren Einführung Unternehmen auch vor große Herausforderungen. Wie erreicht man zum Beispiel, dass Data Science Teams und Fachabteilungen effizient zusammenarbeiten? Welche Tools und Algorithmen eignen sich am besten für verschiedene Anwendungsfälle? Wie geht man mit Risiken für Datenmissbrauch um, die im Zeitalter von Big Data immer größer werden? Diese und weitere Themen wurden bei den German Data Science Days 2019 an der LMU München diskutiert. Die Konferenz versammelt jährlich die deutsche Data Scientist Community und bietet eine Plattform für den Austausch zwischen Teilnehmern aus Wissenschaft, Industrie und Wirtschaft. Und wir von SCHICKLER waren mit dabei.

Teilnehmer in der großen Aula der LMU (Foto: LMU)



Interaktion zwischen Data Science Teams und Fachabteilung

Data Scientists verfügen über technisches Expertenwissen, Mitarbeiter in den Fachabteilungen über Expertenwissen in den jeweiligen Fachbereichen. Für die Entwicklung erfolgreicher Data Science Lösungen ist das Know-how aus beiden Bereichen wichtig. Viele Projekte scheitern daran, dass nicht genug oder nicht erfolgreich miteinander kommuniziert wird. Zwar kann ein Data Scientist auch eigenständig technisch gut funktionierende Lösungen entwickeln. Wenn sein Verständnis der Problemstellungen aber nicht exakt ist, schießen diese nicht selten am realen Problem vorbei. Andererseits werden gut funktionierende Lösungen von den Fachabteilungen abgelehnt, weil diese aufgrund fehlenden Verständnisses falsch verwendet werden und schlechte Ergebnisse liefern. Wie relevant dieses Thema ist, zeigte sich dadurch, dass die Mehrheit der Publikumsfragen an die Vortragenden hierauf abzielte. Als Antwort darauf berichtete Dr. Andreas Wagner vom Fraunhofer ITWM von Erfahrungen aus einem Projekt zur Untersuchung der Schadensabwicklung in KFZ-Hersteller-Garantien. Dort wurden Mitarbeiter aus der Fachabteilung als feste Mitglieder in Data Science Projektteams aufgenommen. So konnte bei jeder (auch technischen) Entscheidung im Projektverlauf direkt deren Einfluss hinsichtlich der fachlichen Anforderung und Nutzbarkeit geprüft werden.

Ein weiterer Ansatz die Kluft zwischen Entwickler und Nutzer der Data Science Lösungen zu verkleinern, liegt in dem zunehmenden Einsatz von Self Service Tools. Hier entwickelt der Data Scientist keinen Algorithmus, der dem Fachmitarbeiter eine Entscheidung komplett abnimmt. Stattdessen entwickelt er ein Tool, das dem Fachmitarbeiter durch die automatisierte Bereitstellung passender Informationen bei der Entscheidung unterstützt. Dr. Mihael Ankerst von der Allianz Deutschland stellte hierzu ein Projekt vor, bei dem ein interaktives Dashboard entwickelt wurde. Hiermit können Versicherungsvertreter selbstständig durch Anpassung verschiedener Visualisierungen Daten analysieren. Dabei entdecken sie eigenständig Kundenmuster und Upselling-Chancen. Gegenüber einem intelligenten Algorithmus, der trainiert wurde um eine spezielle Fragestellung zu beantworten, ist dieses Tool deutlich flexibler einsetzbar. Durch die Interaktion mit dem Fachmitarbeiter fließt zudem dessen Expertenwissen direkt in die Entscheidung mit ein. Gängige Machine Learning Algorithmen verhalten sich dagegen wie eine Black Box, die ein Ergebnis ausspuckt ohne dass für den Nutzer erkennbar ist, wie der Algorithmus zu diesem Ergebnis gelangt ist. Ist der Versicherungsvertreter dagegen wie hier selbst aktiv an der Entscheidungsfindung beteiligt, so steigt die Akzeptanz der Ergebnisse. In großen Konzernen geht man sogar noch einen Schritt weiter, wie Dr. Andreas Nawroth, Head of Analytics bei der Munich Re, und Dr. Martin Appl, Head of Data Science bei der BMW Group, berichteten. Dort werden nicht nur interaktive Tools für einzelne Fachbereiche entwickelt. Stattdessen wurde ein zentraler Fachbereich geschaffen, der Data Science Software Lösungen wie ein externer Dienstleister den anderen Fachbereichen zur Verfügung stellt. Die konkrete Anwendung der Algorithmen und Analyse der Daten verbleibt großteilig in den Fachbereichen.

E-Commerce Unternehmen bleiben Vorreiter

Die bekanntesten Anwendungsfälle von künstlicher Intelligenz stammen aus dem Online- und E-Commerce-Bereich. Durch die Vielzahl der Interaktionen von Nutzern mit Online-Inhalten fallen hier besonders große Datenmengen an. Motiviert durch den Erfolg von KI Lösungen im Online Bereich und unterstützt durch Trends wie Internet of Things gründen aber auch immer mehr Offline-Unternehmen Data Science Fachbereiche. Die Vorträge bei den German Data Science Days haben allerdings gezeigt, dass viele gerade der großen Unternehmen noch dabei sind hier Grundlagenarbeit zu leisten. E-Commerce-Unternehmen, bei der Konferenz durch Scout24 und Check24 vertreten, dagegen nutzen Data-Science-Lösungen über alle Unternehmensbereiche hinweg und die Qualität ihrer Produkte wird wesentlich durch die Qualität von KI Algorithmen bestimmt.



Dr. Markus Ludwig stellt KI Anwendungsfälle bei Scout24 vor (Foto LMU)

Insbesondere für Medienunternehmen interessant war der Vortrag von Alwin Viereck von der United Internet Media GmbH zum Thema Programmatic Advertising. Beim Programmatic Advertising werden in Echtzeit Ad Impressions gehandelt. Der Werbetreibende hat so die Möglichkeit seine Werbung genau den Website-Besuchern zu zeigen, die für sein Produkt am interessantesten sind. Der Werbeplatzanbieter kann seine Ad Impressions teurer verkaufen, da diese immer an den Werbetreibenden gehen, der diesen den höchsten Wert beimisst. Die Entscheidung welche Werbung bei welchen Usern die höchsten Chancen hat und welche Preise geboten werden, wird dabei zunehmend von intelligenten Algorithmen übernommen. Bereits heute liegt der Programmatic Advertising Anteil bei Online-Werbung in Deutschland laut eMarketer bei 74% (https://www.emarketer.com/content/what-programmatic-advertising-looks-like-in-germany) und Alwin Viereck prognostiziert, dass in wenigen Jahren quasi der gesamte deutsche Online-Werbemarkt Programmatic sein wird.

Neue Probleme fordern neue Algorithmen

Wir sind noch weit davon entfernt, künstliche Intelligenzen zu schaffen, die wirklich intelligent ein breites Spektrum von Problemen bearbeiten können. Stattdessen sind heutzutage eingesetzte Machine Learning Algorithmen größtenteils hoch spezialisiert. Sie wurden darauf trainiert eine ganz konkrete Aufgabe erfolgreich auszuführen. So speziell wie die Anwendungsbereiche sind oft auch die Machine Learning Algorithmen. Entsprechend große Chancen bieten sich auch kleineren Unternehmen für den Einsatz von KI Lösungen. Sie müssen nicht mit großen Tech-Giganten um die besten allgemeinen Lösungen konkurrieren. Stattdessen können sie sich darauf konzentrieren, spezielle Algorithmen zu entwickeln, die optimal an ihre konkreten Anwendungsfälle angepasst sind.

In mehreren Vorträgen wurden derartige Lösungen präsentiert. Felix Meyer von der Swiss International Air Lines AG stellte zum Beispiel ein Modell zur optimalen Bestimmung von Flugpreisen vor. Hierfür wurde ein mathematisches Modell adaptiert, das normalerweise zur Modellierung von Warteschlangen verwendet wird. Von einem weiteren spannenden Ansatz zur frühzeitigen Erkennung von Maschinen-Fehlfunktionen berichtete Andrei Ciobotar von Relayr. Spezielle neuronale Netze, sogenannte Encoder-Decoder Systeme, lernen zeitgleich Maschinendaten zu komprimieren und aus den komprimierten Daten die ursprünglichen Daten zu rekonstruieren. Dies funktioniert für normale Datensätze sehr gut. Bei anomalen Datensätzen, die auf eine Fehlfunktion hindeuten, funktioniert dies dagegen sehr schlecht. So kann ein System automatisch Anomalitäten erkennen, ohne dass ihm jemals vermittelt werden musste, wie der Normalzustand des Systems aussieht. Wie alles im Leben verändern sich auch Datenmuster im Laufe der Zeit. Zudem sammeln viele intelligente Systeme während der Nutzung weitere Daten, die zu ihrer eigenen Verbesserung verwendet werden können. Wie aber entscheidet man welche Datenpunkte zum Training des Machine Learning Algorithmus noch verwendet werden können und welche veraltet sind? Und wie aktualisiere ich ein intelligentes System, wenn es neue Daten sammelt? Prof. Dr. Barbara Hammer von der Universität Bielefeld berichtete von Forschungsergebnissen zur Lösung derartiger Probleme.

Datenethik und Datenschutz

Neben großen Chancen birgt das Sammeln von großen Datenmengen auch erhebliche Risiken. Wenn persönliche Daten in die falschen Hände geraten, können dadurch einzelnen Personen erhebliche Schäden entstehen. Zudem verfügt man als Data Scientist über mächtige Methoden zur Aufdeckung von Mustern. So können Algorithmen erkennen, dass Faktoren wie Geschlecht, Alter oder ein Name, der auf Migrationshintergrund hindeutet, mit der Arbeitsproduktivität oder der Zahlungswahrscheinlichkeit von Schuldnern korrelieren. Wird mit diesen Informationen falsch umgegangen, können Algorithmen ganze Bevölkerungsgruppen systematisch diskriminieren. Beim Data Scientist liegt eine entsprechend hohe Verantwortung, solchen Entwicklungen entgegen zu wirken. Ansätze wie mit solchen und ähnlichen Situationen umzugehen ist, stellte Dr. Sebastian Wernicke von der ONE LOGIC GmbH in einem Vortrag zur Datenethik vor.

Auch die neue Datenschutzgrundverordnung (DSGVO) und deren Implikationen wurden in mehreren Vorträgen diskutiert. Die DSGVO legt fest, dass personenbezogene Daten nur dann für bestimmte Zwecke verwendet werden dürfen, wenn die betreffende Person explizit ihre Zustimmung dazu gegeben hat. Der Data Scientist muss also immer prüfen, welche Daten für eine Machine Learning Lösung verwendet werden dürfen und dafür auch alle späteren Nutzungsmöglichkeiten abschätzen. Allerdings ist es für den Data Scientist nicht immer leicht einzuschätzen, was erlaubt ist und was nicht. Wie Prof. Dr. Nikolaus Forgó von der Universität Wien eindrucksvoll darlegte, lassen sich die juristischen Regelungen aus der DSGVO oft nur schlecht auf aktuelle technische Fragestellungen anwenden und es ergeben sich viele Grauzonen.

Haben Sie Fragen zu Themen aus dem Blog-Artikel oder interessieren sich für Data Science Anwendungen in Ihrem Unternehmen? Wenden Sie sich dazu gerne jederzeit an das Schickler Data Science Team: datasciene@schickler.de(Link)

Die German Data Science Days(https://www.gdsd.statistik.uni-muenchen.de/index.html) werden jährlich als zwei-tägige Konferenz an der Ludwig-Maximilians-Universität München ausgetragen. Ihr Ziel ist es Data Scientists aus dem deutschsprachigen Raum zu versammeln und den Austausch zwischen Wissenschaft, Industrie und Wirtschaft zu fördern. Die Vorträge beschäftigen sich mit aktuellen Trends und Herausforderungen im Bereich Data Science. Für Schickler nahmen die beiden Data Scientists Amr Rekaby Salama und Ole Martin an der Konferenz teil.

Der NOVA Innovation Award geht in die dritte Runde

Der BDZV und SCHICKLER suchen wieder die innovativsten Ideen der deutschen Verlagsbranche

Gemeinsam mit dem Bundesverband Deutscher Zeitungsverleger (BDZV) prämiert SCHICKLER 2019 zum dritten Mal in Folge die herausragendsten Innovationen der deutschen Zeitungsverlage mit dem „NOVA – Innovation Award der deutschen Zeitungen“. Wie in den vorangegangenen Jahren werden hierbei Preise für „Produktinnovation“, „Vermarktungsinnovation“ und „Neues Geschäftsfeld“ vergeben.

„Die Branche befindet sich in einem kreativen Umbruch. Wir wollen Verlagen eine Plattform geben, Innovationen sichtbar zu machen und zu teilen. In den letzten drei Jahren haben über 50 Verlage teilgenommen und insgesamt eine dreistellige Anzahl an Innovationen eingereicht. Das zeigt, dass die Branche innovativ ist und die Plattform des NOVA Innovation Awards annimmt“, so Rolf-Dieter Lafrenz, geschäftsführender Partner bei SCHICKLER.

Die Bewerbungsphase läuft ab dieser Woche bis zum 17.05.2019. Auf dem BDZV-Zeitungskongress am 24.09.2019 prämieren eine Experten-Jury aus der Publisher- und Startup-Szene sowie Rolf-Dieter Lafrenz die besten Innovationen.

Mehr Informationen zum NOVA – Innovation Award erhalten Sie unter www.nova-award.de.

Kontakt: Daniel Lehmler, Tel. 0172-5486702, d.lehmler@schickler.de

Schickler Media Index: Das geben Unternehmen 2019 für die Medienkanäle TV, Print, Digital & Co aus

Quelle: Pixabay

Der Werbemarkt wächst weiter – wenn auch etwas schwächer. Das zeigt der Schickler Media Index, eine der umfassendsten Statistiken über den deutschen Werbemarkt. Neben den klassischen Gattungen sind nahezu alle Formen digitaler Werbung enthalten, sowie Messen und Sponsoring.

Wir schätzen, dass im Jahr 2018 der Gesamtnettoumsatz um 3,3 Prozent auf fast 47,3 Milliarden Euro gestiegen ist. In 2019 hält der Trend der letzten Jahre weiter an, auch wenn das Wachstum etwas schwächer ausfallen dürfte.

Ungebremst ist der Trend, dass Unternehmen ihre Budgets in die direkte Kommunikation zu ihren Kunden erhöhen. Dazu gehören alle Wege des Corporate Publishing, insbesondere die digitalen Kanäle. App-Entwicklung, Corporate Social Media, die Erstellung von Corporate Videos und die Weiterentwicklung von Corporate Websites profitieren davon.

Online-Werbung wächst auch weiter, allerdings langsamer – mit Ausnahme der Werbung auf mobilen Endgeräten. Wir erwarten für mobile Werbung weiterhin ein deutliches Wachstum.

Die Print-Werbeträger entwickeln sich weiterhin rückläufig – wie in den letzten Jahren. Wir erwarten, dass stärkere Investitionen in neue Produkte und in die Vermarktung der Verlage diesen Trend verlangsamen – auch wenn dies noch nicht in diesem Jahr in den Gesamtmarktzahlen zu sehen sein dürfte. Wir sehen vor allem in der Zusammenarbeit mit regionalen Kunden bei einigen regionalen Verlagen schon vielversprechende Wege.

Für den Media Index wertet SCHICKLER zahlreiche Quellen aus. Der Index umfasst die Ausgaben für alle Formen kommerzieller Kommunikation und zeichnet daraus ein Gesamtbild des Marktes.

Mehr zu den Studienergebnissen lesen Sie hier.