UKW vs. DAB+: Die Zukunft des Digitalradios in Deutschland

Ist DAB+ die Zukunft des Radios? Oder haben 5G, Smartspeaker & Co. die Übertragungstechnologie längst überholt? Und welchen wirtschaftlichen Effekt haben DAB+ und die immer wieder diskutierte UKW-Abschaltung für Radiosender?

DAB+ – „Digital Audio Broadcast“ – steht für die digitale statt der analogen UKW-Übertragungstechnologie. Das „+“ steht dabei für einen weiterentwickelten Standard – denn digitales Radio gibt es tatsächlich schon seit einiger Zeit. Entwickelt wurde die erste Version des Digitalradios bereits in den 90er Jahren. 2011 wurde die weiterentwickelte Version DAB+ vorgestellt. Mit einer nochmals verbesserten Audioqualität und geringeren Sendekosten soll sie UKW den Kampf ansagen. Die Vorteile, die digitales Radio mit sich bringt sind vielfältig: verbesserte Audioqualität, geringere Übertragungskosten und mehr Sender. Anders als bei UKW gibt es für DAB+-Sender fast unbegrenzt Übertragungskapazitäten. Sie bietet den Hörern eine größere Auswahl an Programmen. Zudem eröffnet DAB+ den Hörern weitere Mehrwertdienste, beispielsweise blendet es Album-Cover der jeweiligen Songs ein.

Deutschlandweit wurden bis heute fast 12 Millionen DAB+-fähige Geräte verkauft. Alleine im Jahr 2017 waren es 1,3 Millionen (Quellen: Arbeitsgemeinschaft der Landesmedienanstalten, HEMIX). Damit ist der Verkauf von DAB+-Radios im Vergleich zum Vorjahr um 11 Prozent gewachsen. Demnach haben inzwischen knapp 16 Prozent aller Deutschen Zugang zu einem DAB+-fähigen Gerät – Tendenz steigend. Die Mehrheit setzt allerdings nach wie vor auf analoges Radio – was die Reichweite von UKW mit 95 Prozent zeigt. Zudem laufen bisher lediglich 7 Prozent der Autoradios über DAB+ (Quelle: Die Medienanstalten, Digitalisierungsbericht 2017). Um die Vielfalt der verschiedenen Sender zu fördern und Kosten zu sparen, kommt immer wieder die Diskussion einer UKW-Abschaltung auf. Private Radiosender fürchten, dass sie damit in naher Zukunft deutlich an Hörern verlieren würden und so auch weniger Erlöse aus Werbung erzielen könnten. Möglicherweise könnten Hörer ohne DAB+-Gerät eher auf ein Radio verzichten, statt ein Gerät mit der neuen Technologie zu kaufen.

Die Schickler Unternehmensberatung hat in einer eigenen Studie untersucht, wie eine UKW-Abschaltung sich auf die wirtschaftlichen Effekte von privaten Radiosendern auswirkt. Die Ergebnisse präsentierte Schickler-Berater Dr. Christoph Mayer auf den Medientagen München. Aus der Studie geht hervor, dass eine Abschaltung von UKW für private Radiosender erst dann tragbar sein wird, wenn DAB+ eine Reichweite von ca. 90 Prozent erreicht. Basis der Berechnungen sind die Kosten und Einnahmen realer Radiosender in Deutschland, die stündlich zwischen 20.000 und 1 Million Hörer haben und so eine Bandbreite an privaten Radiosendern repräsentieren. Um zu prognostizieren, wann DAB+ eine Reichweite von 90 Prozent erreicht, nutzt die Studie verschiedene mathematische Modelle, die zu unterschiedlichen Verlaufsszenarien für die DAB+-Reichweite in Deutschland führen (Abbildung 1).

Abbildung 1: Szenarien für die Entwicklung der DAB+-Reichweite in Deutschland

  • Ländermodelle Norwegen und Großbritannien: Das Ländermodell überträgt die Entwicklung von DAB+ in den vergangenen zehn Jahren in Großbritannien und Norwegen auf Deutschland (Abbildung 2).

    Abbildung 2: DAB+-Reichweite Deutschland, Norwegen und Großbritannien

    Basis für das Modell lieferte die Beobachtung, dass der Stand von DAB+ in Deutschland momentan etwa dem Stand in Norwegen und Großbritannien vor zehn Jahren entspricht. Bei näherer Betrachtung allerdings erscheint ein Vergleich mit Norwegen unrealistisch: politische Abläufe in Deutschland und Norwegen unterscheiden sich grundlegend. Einen weitaus tragbareren Vergleich liefert Großbritannien: politisch und technologisch ähnliche Rahmenbedingungen ermöglichen einen direkten Vergleich. Demnach hat Deutschland im Jahr 2039 eine DAB+-Reichweite von 90 Prozent entwickelt.

  • Durchdringungsmodell: Das zweite Szenario beruht auf dem Bass-Diffusionsmodell. Das mathematische Modell untersucht den Verlauf der Durchdringung neuer Technologien am Markt und wendet es auf DAB+ an. Demnach ist die Reichweite von DAB+ in Deutschland frühestens ab 2033 groß genug, um UKW abzuschalten, ohne dass es die Überlebensfähigkeit privater Radiosender bedroht.
  • Erneuerungsmodell: Diesem Szenario liegt die Erneuerungsrate von Radiogeräten in Haushalten und Autos in Deutschland zu Grunde. Sie steigt deutlich, wenn UKW abgeschaltet ist. Das wiederum beeinflusst den Verkauf von DAB+ stark. Das Erneuerungsmodell sagt für 2036 eine Entwicklung der Reichweite auf 90 Prozent voraus.

Die Modelle vereint, dass die Reichweite von DAB+ erst in ferner Zukunft hoch genug sein wird, um für private Radiosender eine tatsächliche Alternative zu UKW darzustellen. Um die Konsequenzen einer zeitnahen UKW-Abschaltung abschätzen zu können, berechnet die Studie zusätzlich die Umsatzverluste der Radiosender bei einer Abschaltung im Jahr 2030, 2025 und zum jetzigen Zeitpunkt (Abbildung 3).

Abbildung 3: Umsatzverluste durch UKW-Abschaltung in Abhängigkeit vom Zeitpunkt der Abschaltung

Bei einer Abschaltung von UKW im Jahr 2018 müssen die untersuchten Sender mit einem Umsatzverlust von durchschnittlich über 60 Prozent rechnen.  Auch 2025 kostet eine Abschaltung noch mehr als 25 Prozent des Umsatzes.

Die Studie zeigt deutlich, dass eine vorschnelle Abschaltung von UKW die Existenz vieler Radiosender bedroht. Dem politischen Ziel von DAB+, nämlich eine größere Vielfalt an Sendern zu schaffen, könnte also schnell ein Sterben von Radiosendern folgen. Auch die eng gefasste Gegenüberstellung UKW vs. DAB+ hat sich in der Realität bereits überholt. Neue Technologien wie Smartspeaker, 5G Broadcast Mode und Co. führen zu einer Vielzahl neuer Übertragungswege. Radiosender müssen sich darauf einstellen, sämtliche Übertragungswege zu bespielen – denn am Ende entscheidet der Hörer.

Die vollständige Studie kann beim VBRA heruntergeladen werden, der auch einen Bericht zur Veranstaltung auf den Medientage München bereitstellt.

“Andere Kunden kauften auch…” – wie Recommender-Systeme zu mehr Umsatz führen

Amazon generiert 35% seines Umsatzes und Netflix 75% der Reichweite seiner Inhalte ausschließlich durch die Nutzung von Recommender-Systemen! Lernen Sie im folgenden Artikel, was Recommender-Systeme sind, was für Einsatzmöglichkeiten sich für Recommender-Systeme in Medienunternehmen bieten und welche Chancen durch ihre Nutzung realisiert werden können.

Was sind Recommender-Systeme?

Kunden oder Nutzer stehen häufig vor einer großen Auswahl an Produkten oder Inhalten. Ihre Kauf- oder Nutzungsentscheidung hängt dann maßgeblich davon ab, dass sie die für sie interessanten Produkte und Inhalte möglichst schnell und mit geringem Aufwand herausfiltern können.  Dabei helfen Recommender-Systeme (dt. Empfehlungsdienste oder Vorschlagssysteme). Das sind algorithmenbasierte Systeme, die für jeden Kunden automatisiert die Produkte auswählen können, die ihn mit hoher Wahrscheinlichkeit interessieren. Die Systeme lernen aus historischen Verkaufsdaten, Kunden- und Produktinformationen, für welche Kunden welche Produkte oder Inhalte besonders interessant sind. Sie erstellen automatisiert für jeden Kunden Rankings und können so den Prozess der optimalen Zuordnung von Kunde und Produkt bzw. Inhalt unterstützen.

Abbildung 1: Prinzipielle Funktionsweise von Recommender-Systemen

Amazon und Co. – die Großen machen es vor

Prominente Unternehmen zeigen, was für ein enormes Potential Recommender-Systeme bieten: Amazon zum Beispiel generiert 35 Prozent seines Umsatzes über Käufe, die durch Produktvorschläge ausgelöst wurden. 75 Prozent der Filme und Serien bei Netflix werden gesehen, weil sie das hauseigene Recommender-System vorgeschlagen hat. Die Online-Werbeeinnahmen von Medienunternehmen skalieren hauptsächlich mit der Reichweite und Nutzungsdauer von Online-Inhalten. So zeigt insbesondere das Netflix-Beispiel, welche Chancen Recommender-Systeme Medienunternehmen bieten, ihre Umsätze zu steigern. Heutzutage nutzen die meisten Menschen täglich Suchmaschinen wie Google. Sie sind im Wesentlichen nichts anderes als riesige Recommender-Systeme, die zu Suchbegriffen passende Webseiten vorschlagen. Die meisten Kunden von Medienhäusern sind zudem mit Vorschlagssystemen aus dem Onlinehandel und von Unterhaltungsplattformen wie Netflix, Youtube und Spotify bestens vertraut – und schätzen deren Vorzüge. Folglich ist das Risiko, dass eigene Systeme wenig oder schlecht angenommen werden, verhältnismäßig gering.

Abbildung 2: Artikelvorschlagssystem von Amazon

Die Einsatzbereiche in Medienhäusern sind vielfältig

Gerade in Medienhäusern ist mit Recommender-Systemen viel möglich: So können zum Beispiel Cookies oder User-Accounts tracken, welche Nutzer welche Inhalte auf Online-Nachrichtenseiten lesen. Basierend auf diesen Informationen können dann automatisiert nutzerspezifische Inhalte vorgeschlagen werden – so dass für den Nutzer beispielsweise am Ende eines Artikels weitere für ihn interessante Artikel verlinkt sind oder individuelle Startseiten für ihn erstellt werden. Weiterhin können Recommender-Systeme dabei helfen, welche Nutzer welche Werbung über Pop-Ups oder Banner zu sehen bekommen. Werbung, die mit hoher Wahrscheinlichkeit für den Nutzer relevant ist, kann die Click-Through-Raten und damit auch die Werbeeinnahmen massiv erhöhen. Im Kundenservice können Recommender-Systeme automatisiert Lösungen für eingehende Anliegen vorschlagen. Sie können dann entweder direkt an den Kunden gesendet werden oder den Service-Mitarbeiter bei der Kundenberatung unterstützen. Weiterhin stehen Mitarbeiter in der Verkaufsorganisation von Medienhäusern täglich vor der Entscheidung, an welche Kunden sie mit welchen Produkten herantreten. Oft entscheiden sie dann basierend auf persönliche Erfahrungen. Ein Recommender-System kann die Erfahrungen aller Mitarbeiter für die gesamte Organisation zugänglich machen, den Mitarbeitern bei der Entscheidung helfen und neue Zusammenhänge aufdecken (Vgl. Christoph Mayer, Künstliche Intelligenz und Maschinelles Lernen: Hintergrund, Anwendungsfälle und Chancen für Medienunternehmen, erschienen in MedienWirtschaft 03/2018).

Immer niedriger: die technischen Hürden

Obwohl man den Einsatz hochentwickelter Machine-Learning-Methoden, wie sie bei Recommender-Systemen verwendet werden, hauptsächlich mit führenden Technologie-Unternehmen aus dem Silicon Valley verbindet, sind die Hürden für die Einführung von Recommender-Systemen überraschend niedrig. Als Datengrundlage reichen bereits einfache Aufzeichnungen darüber, welcher Kunde in der Vergangenheit welche Produkte gekauft bzw. welche Inhalte konsumiert hat. Die Einbeziehung weiterer Kunden- und Produktinformationen kann die Qualität von Recommender-Systemen zusätzlich verbessern. Schickler-interne Untersuchungen basierend auf realen Datensätzen haben aber gezeigt, dass bereits ausschließlich auf der Verkaufshistorie trainierte Systeme sehr gute Ergebnisse liefern können. Zudem können Systeme variabel aufgesetzt werden, so dass neu verfügbare Kunden- und Produktdaten später ergänzt werden können. Zusätzlich dazu, dass die benötigten Daten oft schon vorhanden sind, wird auch das Aufsetzen der Algorithmen immer einfacher. Zum einen gibt es mittlerweile eine sehr hohe Verfügbarkeit von Machine-Learning APIs, die viele vorgefertigte Programmbausteine beinhalten und somit die Entwicklung entsprechender Recommender-Systeme massiv beschleunigen können. Zum anderen stehen Cloud-Services wie Amazon Web Services für einen flexiblen und kostengünstigen Betrieb dieser Systeme zur Verfügung.

Fazit: Ergreifen Sie die Chancen

Medienhäusern bieten sich durch den Einsatz von Recommender-Systemen vielseitige Möglichkeiten um Umsätze zu erhöhen und Prozesse effizienter zu gestalten. Zusätzlich können dabei die Kundenzufriedenheit durch ein individuelleres und gezielteres Angebot gesteigert und Mitarbeiter in ihrer Arbeit entlastet und unterstützt werden. Die oben genannten Anwendungsbeispiele umfassen nur einen Ausschnitt potentieller Einsatzmöglichkeiten von Recommender-Systemen. Viele weitere Anwendungen insbesondere auch unter Einbeziehung weiterer Data-Science Methoden sind denkbar. Im Zeitalter der Daten sind, zumindest unter der Voraussetzung von entsprechender Datenverfügbarkeit und Integrierbarkeit von automatisierten Lösungen in bestehende Systeme, weiteren Anwendungen kaum Grenzen gesetzt.

Wenn Sie neugierig geworden sind, Fragen haben oder einfach mehr wissen möchten, steht Ihnen das Schickler Data-Science-Team gerne zur Verfügung: datascience@schickler.de

Das SCHICKLER Strategieforum 2018: Sind Künstliche Intelligenz und Machine Learning die Wunderwaffen der Zukunft für Medienunternehmen?

Teil 2: Neue KI-Geschäftsmodelle und maschinenerlerntes Sprachverständnis

 

Technologie führt zu neuen Geschäftsmodellen – ein erfolgreiches Beispiel

Rolf-Dieter Lafrenz und Tom Krause, CEO und CTO des innerhalb von SCHICKLER geborenen Start-ups cargonexx, gaben einen praxisbezogenen Einblick in das technologiebasierte Geschäftsmodell, die Entwicklung unter Unsicherheit und appellieren an den Mut der Unternehmer.

Cargonexx revolutioniert den LKW-Transport mit Künstlicher Intelligenz, wobei diese definiert wird als Kombination aus Automatisierung, Intelligenz und maschinellem Lernen. Das Geschäftsmodell reduziert die Transaktionskosten und erhöht die Auslastung der LKWs. Künstliche Intelligenz in Form von selbst-lernenden Algorithmen optimiert Touren, sagt Preise voraus und generiert auf Basis wachsender Daten ein intelligentes Transport-Netzwerk. Über die Plattform ergibt sich eine Win-Win-Situation für Verlader (bessere Preise, Zeitersparnis) und Frachtführer (mehr Umsatz, weniger Arbeit). Auch die Gesellschaft und die Umwelt profitiert: weniger Verkehr durch bessere Auslastung und eine Reduzierung des CO²-Ausstosses sind die Folge. Zukünftig ist gepaart mit autonom fahrenden LKWs sogar ein völlig autonomes Transport-Ökosystem möglich.

Wertvolle Hinweise, wie die Umsetzung von neuen Geschäftsmodellen mit Künstlicher Intelligenz kostenseitig nicht zu einem Fass ohne Boden werden, hatte Tom Krause für die Teilnehmer am Beispiel cargonexx parat.  Um Risiken einzuschränken sollten bewiesene Methoden und Ansätze aus dem Start-up-Umfeld wie z. B. die Lean-Methode zum Einsatz kommen. Mit dem Vorgehen „Build – Measure – Learn“ wird vorhandene Unsicherheit wissenschaftlich reduziert. Dazu entwickelt man definierte Hypothesen in kleinen Features (MVP = minimal viable product) um die Hypothese dann zu bestätigen. Entscheidend ist das Lernen und Adjustieren mit echten Kunden, denn der Erfolg hängt davon ab, ob der Kunde den gewünschten Mehrwert erzielt.

Die Strukturierung der Problemstellung und eine auf Automatisierung ausgerichtete Prozessanalyse waren die Grundlage für das Machine Learning bei cargonexx. Die Analyse der Probleme in der Prozesskette vom Verlader zum Frachtführer verknüpft mit den Anforderungen der Player liefert Informationen für die Automatisierungsansätze zur Problemlösung (z. B. zeitintensive Angebotserstellung, Preisvergleiche und Abwicklung). Über immer wieder automatisch neu strukturierte Entscheidungsbäume mit ständig wachsendem Dateninput lernt die Maschine z. B. Freikapazitäten und Preise vorherzusagen und trainiert bzw. verbessert sich mit jeder Entscheidung.

Rolf-Dieter Lafrenz stellte nach dem interessanten und tiefen Blick in die KI-Werkstatt auch fest, dass nicht jeder Entscheider dieses Wissenslevel erreichen muss – wichtig ist es, den Nutzen der Technologie zu verstehen. Denn nur die Technologie führt zu neuen Geschäftsmodellen und neuen Märkten. Er schloss mit dem Appell, mehr Mut zu zeigen, breiter zu denken und neue Geschäftsansätze auszuprobieren.

 

Know your Customer – das Verständnis der Sprache im Kontext

Prof. Dr. Heiko Beier, Geschäftsführer von der moresophy GmbH und Professor für Medienkommunikation setzt seinen Schwerpunkt auf Cognitive Computing und das echte Verstehen von Sprache und Kontext durch Künstliche Intelligenz.

Im Zuge der DSGVO wird deutlich, dass die Nutzung der persönlichen Daten des Kunden für Werbezwecke zunehmend schwierig wird. Die Alternative ist kontextbezogener Content, d.h. eine Nutzung der aktuellen Interessen des Users in Echtzeit. Ich treffe den User in einem Kontext mit dem er sich jetzt gerade beschäftigt – und es ist dafür keine Profilbildung oder Zustimmung notwendig.

Bedingung hierfür ist das Verständnis der Sprache und in welchem Kontext sie verwendet wird. SRA (Semantic Relevance Advertising) schafft es, anhand der Sprache und des Umfeldes dem User ein optimales Werbeangebot zu unterbreiten. Maschinen können heute dieses Verständnis zu lernen. Nicht nur das Wort, sondern die Bedeutung ist dabei entscheidend. Zusätzlich lernen die Algorithmen zu verstehen, was für die User wichtig ist und wie sie sich ausdrücken – hier liegt der Schlüssel. Dies stellt den feinen aber relevanten Unterschied zwischen einem einfachen Keyword und dem echten Verständnis der Sprache dar.

Einsatzbereiche sind z. B. in der automatisierten Dialogsteuerung im Service möglich. Das automatische Verstehen von Kundenkommunikation im richtigen Kontext ermöglicht zudem die Ausspielung von passenden Werbeangeboten in z. B. themenbezogenen Foren.

Fazit: KI kann durch das Verständnis von Sprache und Kontext perfekte Umfelder mit Echtzeit-User-Interesse identifizieren.

 

Historie, Perspektiven, Geschäftsmodelle, Methoden und Anwendungsmöglichkeiten – das SCHICKLER Strategieforum 2018 beleuchtete verschiedene Dimensionen des Themas Künstliche Intelligenz zum Thema. Vielen Dank an die Referenten und Teilnehmer – wir freuen uns auf das nächste Strategieforum 2019!

 

 

Das SCHICKLER Strategieforum 2018: Sind Künstliche Intelligenz und Machine Learning die Wunderwaffen der Zukunft für Medienunternehmen?

Teil 1:
KI-Trends und Googles Machine-Learning-Erfahrungen

Roboter begrüßen freundlich am Eingang und übergeben Namensschilder, selbstlernende Sprach-Applikationen informieren im Dialog über die Agenda und den Tagesablauf. Die Sitzplätze werden von einem Algorithmus zugewiesen, der die individuellen Anforderungen und Interessen der Strategieforum-Teilnehmer berücksichtigt.

So hätte er sein können – der Empfang zum diesjährigen SCHICKLER Strategieforum 2018 mit dem Thema „Künstliche Intelligenz“. Aber es blieb persönlich und durch den herrlichen 360-Grad-Blick aus der 20. Etage des Atlantik-Hauses über das sonnige Hamburg auch „natürlich“.

„KI wird für die Menschheit wichtiger als Elektrizität und Feuer“, sagt der Google-CEO. Nicht nur die 40 Milliarden US-Dollar Investitionen im letzten Jahr, sondern auch die Rekordteilnehmerzahl von mehr als 50 Entscheidern aus der Medienbranche am Strategieforum spiegelte die Relevanz des Themas „Künstliche Intelligenz“ wider.

Um einen strategisch ganzheitlichen Blick auf das Thema zu bekommen, boten die Keynote-Speaker in diesem Jahr einen Mix aus Theorie und Praxis sowie branchenfremden und medienbezogenen Einsatzfeldern.

 

Haben wir eine Chance im weltweiten KI-Wettbewerb?

 

Prof. Dr. Alois Knoll, Lehrstuhlinhaber für Künstliche Intelligenz an der TU München, zeigte die Anfänge der Künstlichen Intelligenz auf und gab Einblicke in die wissenschaftliche Entwicklung, deren Möglichkeiten sich mit steigender Rechnerleistung stetig erweitern. Im Fokus der Wissenschaft steht das menschliche Gehirn – das Verständnis der Komplexität und die „Übersetzung“ in Technologien ist das Ziel eines europäischen Flagship-Projektes namens „Human Brain Project“.  Die dazugehörige Neurorobotics-Plattform hat zum Ziel, Gehirn- und Robotermodelle für kognitive Experimente zu vereinen (www.neurorobotics.net).

Und wo steht Deutschland bzw. Europa im weltweiten Wettbewerb? Insbesondere mangels Investitionswillen und fehlendem Datenvolumen (siehe DSGVO) können wir den Vorsprung und das exponentielle Wachstum von KI in USA und China nicht aufholen. Aber: wir können uns auf die nächste KI-Welle vorbereiten und diese systematisch „mitreiten“.

Die Trends in dieser nächsten KI-Welle werden geprägt sein von

  • Individualisierung und Privatheit („private AI“),
  • Fokussierung auf bestimmte intellektuelle Leistungen in verbesserter Echtzeit („narrow AI“)
  • Leistungsfähigen Algorithmen auf kleineren Datensätzen („small big data“) und
  • Nutzung von KI auf Spezialarchitekturen mit geringem Energieverbrauch („embedded AI“).

Voraussetzung dafür ist allerdings, dass in Deutschland und Europa die Investitionen in Künstliche Intelligenz durch die Unterstützung von Start-ups sowie die Schaffung von neuen Ökosystemen massiv erhöht werden – das Potenzial ist auf jeden Fall vorhanden. Entscheidend wird sein, wie wir es schaffen, Bedarf und Angebot, Anforderungen und Ideen sowie last but not least Unternehmen und Start-ups zusammenzubringen.

 

Googles Erfahrungen mit Machine Learning in Online-Marketing-Einkaufssystemen

 

Heutige Werbung muss für den Verbraucher relevant und unterstützend sein. Dies ist der Ausgangspunkt für die Nutzung von Machine Learning im Online Marketing, sagt Meinolf Meyer, Head of Sales Google Marketing Platform. Technologie und spezielles Wissen über den Kunden eröffnet Möglichkeiten, automatisch Werbung im richtigen Moment, für die passende Person mit der richtigen Message zu kaufen und auszuspielen.

Als Vertreter einer der großen weltweiten Player bezüglich Künstlicher Intelligenz teilte Meinolf Meyer mit den Teilnehmern Erfahrungen, die Google mit Machine Learning auf ihrer Online Marketing Plattform gemacht hat.

Das Futter für die eingesetzten Machine-Learning-Algorithmen sind verschiedene Datenpunkte in vier Clustern. Diese Signale sind z.B. Informationen über

  • „Audience“: wer (Alter/Geschlecht), wann (Wochentag/Tageszeit) und wo (Geodaten)
  • „Content“: welcher Kanal bzw. welches technische Umfeld
  • „Creative“: welcher Werbetyp (Banner, Video, …)
  • „Technology“: welches Device wird genutzt

Voraussetzung dafür ist allerdings, dass in Deutschland und Europa die Investitionen in Künstliche Intelligenz durch die Unterstützung von Start-ups sowie die Schaffung von neuen Ökosystemen massiv erhöht werden – das Potenzial ist auf jeden Fall vorhanden. Entscheidend wird sein, wie wir es schaffen, Bedarf und Angebot, Anforderungen und Ideen sowie last but not least Unternehmen und Start-ups zusammenzubringen.

Machine Learning verarbeitet diese Signale und hilft dabei die richtige Zielgruppe zu finden, Kampagnenerfolge zu messen und z. B. durch A/B-Testing die richtige Botschaft für die Zielgruppe zu ermitteln. Eine spezielle Anwendung ist das Smart Bidding, mit der bei jeder Online-Marketing-Auktion auf Basis von Milliarden von Informationen der optimale Gebotswert für die gewünschte Conversion ermittelt wird.

Die Erfahrung von Google zeigt, dass aktuell noch nicht der volle Umfang der Möglichkeiten genutzt werden kann, da relevante Daten für die Signale entweder nicht vorhanden oder nicht konsolidiert sind, weil sie bei verschiedenen Playern bzw. Agenturen verteilt vorliegen.

Fazit: Auch wenn teilweise die notwendige Voraussetzung der Datenverfügbarkeit noch nicht erfüllt ist – Machine Learning führt zu einer signifikanten Erhöhung der werberelevanten KPI’s auf der Google Advertising Plattform und kann Effizienz und Performance für Werbetreibende steigern.

 

…Fortsetzung folgt in Teil 2….