3Data Science und künstliche Intelligenz – der Schlüssel zum Erfolg?

Marc Beierschoder · Benjamin Diemann · Michael Zimmer

Das Thema Data Science und künstliche Intelligenz ist derzeit in aller Munde und wird häufig als Wundermittel für eine Vielzahl von unternehmerischen Fragestellungen und Anwendungen propagiert. Das Potenzial hierzu ist durchaus vorhanden. So können durch Data Science und KI die Empfehlungen verbessert und neue Anwendungen wie selbstfahrende Autos unterstützt werden. Zudem können unter anderem durch Chatbots und Prozessautomatisierung die Kosten reduziert werden.

In diesem Beitrag wird der Nutzen von Data Science und KI kritisch hinterfragt. Des Weiteren werden aktuelle Herausforderungen deutscher Unternehmen beim Einsatz von Data Science und KI und gängige Organisationsformen für Data Science vorgestellt. Der Beitrag schließt mit Beispielen aus der Automobilindustrie, anhand derer die Grundlagen des Beitrags konkret verdeutlicht werden.

3.1Zwischen Euphorie und Pragmatismus

Data Science (vgl. Kap. 1) und künstliche Intelligenz (KI) elektrisieren in den letzten Jahren viele Menschen und das Potenzial scheint keine Grenzen zu kennen. So sind selbstfahrende Autos mit neuen Geschäftsmodellen für Mobilitätsanbieter oder Chatbots bereits heute – zumindest teilweise – Realität. Dieser Optimismus ist begründet, erfordert aber auch eine kritische Betrachtung. Viele Data-Sciencebasierte Anwendungen, die aktuell in den Medien besprochen werden, sind zwar kein reines Wunschdenken, aber eben auch noch keine den Menschen ersetzende Realität. Selbstfahrende Lkws funktionieren beispielsweise auf leeren Highways sehr gut, in Großstädten sind wir aber derzeit noch weit vom selbstfahrenden Auto entfernt. Gerade die Fehleranfälligkeit ist bei Bilderkennungsverfahren zurzeit noch nicht zu verachten. So erkennen Algorithmen in einem gelb-schwarzgestreiften Bild einen Schulbus.1

In diesem Kapitel wird anhand eines konkreten Beispiels aufgezeigt, unter welchen Rahmenbedingungen der Einsatz von Data Science im Allgemeinen und KI im Speziellen zum Erfolg führen kann.

Es ist zunächst einmal wichtig zu verstehen, dass die Technologien, die heute als KI bezeichnet werden (oft liest man auch im Deutschen die Abkürzung AI – Artificial Intelligence), nicht völlig neu sind, sondern sich über mehrere Jahrzehnte entwickelt haben (vgl. Kap. 1).

KI-Methoden wie Bilderkennung und Natural Language Processing sind erst durch die Weiterentwicklungen der vergangenen Jahre möglich geworden. Viele Anwendungsfälle sind aber mitnichten auf die neuesten Entwicklungen in diesem Bereich angewiesen. Oft liefert eine konventionellere statistische Methode ebenso gute Ergebnisse.2 Zumal diese sich oft wesentlich einfacher und kostengünstiger anwenden lässt.

Dagegen bedeutet die nachhaltige Einführung von KI-Methoden häufig ein nicht zu unterschätzendes Investment in Personal und Technologien, dem ein nicht minderer Ertrag gegenüberstehen sollte. Um hier abwägen zu können, müssen Ziele und Erfolgskontrolle klar definiert sein, doch genauso ist auch ein gewisses Maß der ergebnisoffenen Erprobung neuer Technologien sinnvoll (vgl. Kap. 13).

Jenseits der Fragen technischer Implementierung braucht es ebenso ein Bewusstsein für die arbeitsalltäglichen Weiterungen, die der Einsatz von künstlicher Intelligenz nach sich zieht. Denn: Selbst ein guter Business Case kann scheitern, wenn kein Wandel gelingt. In der einen oder anderen Form bedeutet Digitalisierung immer, Dinge zu ändern. Wird nach einer Einführung nach wie vor unverändert weitergearbeitet, kann keiner der erhofften Vorteile realisiert werden. Daher ist es wichtig, sehr genau zu bedenken, wie Wandel in der eigenen Organisation gelingen kann.

Es gibt also einiges, das in Betracht gezogen werden sollte, bevor man sich blindlings in ein verklärtes Utopia der künstlichen Intelligenz begibt.

3.2Wann ist Data Science und KI das Mittel der Wahl?

Prinzipiell ist es durchaus berechtigt, neue Technologien erst einmal frei zu erproben sowie ihre Möglichkeiten und potenziellen Anwendungen auszuloten. Häufig ist das sogar schon mit recht überschaubarem Aufwand möglich.3 Sollen Prototypen aber in einen Regelbetrieb integriert werden, sind häufig reifere Werkzeuge, ergänzende Frameworks und zugehörige Governance-Strukturen erforderlich. Die hieraus resultierenden hohen Investitionssummen erfordern in Unternehmen in der Regel aber wiederum eine Kosten-Nutzen-Betrachtung als Richtungsgeber.4

Mit Blick auf die Business Cases lassen sich daher Data Science & KI-Anwendungsfälle in zwei Hauptzielkategorien einteilen: Ertragssteigerung und Kostensenkung. Im Interesse einer positiven und messbaren Entwicklung sollten von Beginn an konkrete Ziele und nachvollziehbare Qualitätskriterien festgelegt werden. Ertragssteigerung kann in diesem Fall nicht nur eine verbesserte Empfehlung sein, sondern auch der Wandel des Unternehmens zu einem neuen Data-Sciencegetriebenen Geschäftsmodell. Als Beispiel können hier Automobilhersteller fungieren, die sich weg vom Fahrzeughersteller und hin zum Mobilitätsanbieter wandeln.

Aktuelle Studien [Deloitte 2017]5 zeigen, dass Unternehmen im Zuge der Ertragssteigerung mit künstlicher Intelligenz ihre bestehenden Produkte primär verbessern wollen (vgl. Abb. 3–1). Aber auch die Entwicklung neuer Produkte und die Erschließung neuer Märkte stehen im Fokus. Im Zuge der Kostensenkung geht es um die Optimierung der Geschäftsprozesse, um eine verbesserte Entscheidung und die Reduzierung des Personalaufwands durch Automatisierung. Vor dem Hintergrund dieser weit gefächerten Antworten sollte ein Unternehmen genau überlegen, nach welchen Kriterien es seinen Erfolg für Data-Sciencebasierte Anwendungen bemisst und welche Prioritäten der Vorstand verfolgt. Eine sehr innovative Idee ist somit in der Theorie zwar vielleicht genau das Richtige, in einem kostenintensiven Umfeld können die hohen Investitionssummen aber leicht scheitern, wenn nicht die richtigen Erfolgskennzahlen im Vorfeld ausgewählt wurden.

image

Abb. 3–1Hauptvorteile für Unternehmen [Deloitte 2017; Abb. 4]

Die Relevanz eines Business Case lässt sich stark vereinfacht an folgendem fiktiven Beispiel verdeutlichen. Gesetzt den Fall, ein Uhrenhersteller will ein innovatives Verfahren der Bilderkennung zur Reduzierung seines Ausschusses (Kostenreduktion) einführen. Das System kostet 500.000 Euro und hat eine Erkennungsrate von 50%, so wird sich das in Tabelle 3–1 dargestellte Szenario 2 erst nach 25 Jahren amortisieren. In aktuellen Data-Science- & KI-Projekten wird häufig ohne Business Case gerechnet. Auf den ersten Blick mag der Aufwand gering erscheinen. Ist der daraus gezogene Nutzen aber zu gering, ist es sinnvoller, die Ressourcen in positivere Business Cases zu investieren.

 

Szenario 1:
ohne Diagnosesystem

Szenario 2:
mit Diagnosesystem

Preis
Rohwerke

3.000.000

3.000.000

Preis
weitere Bauteile

2.000.000

2.000.000

Regulärer Arbeitsaufwand

4.000.000

4.000.000

Zusätzlicher Aufwand Defekte

40.000

20.000

Kosten
Diagnosesystem

500.000

Einnahmen durch Verkauf

12.000.000

12.000.000

Gewinn

2.960.000

2.480.000

Tab. 3–1Rechenbeispiel für Einführung eines Bilderkennungssystems

Künstliche Intelligenz ohne sorgfältige vorherige Prüfung ihrer Nutzbarkeit und Rentabilität zu implementieren, kann bedeuten mit Kanonen auf Spatzen zu schießen. Ist sie allerdings als Investition in einen bewussten Kontext integriert, kann sie auch eine Chance, ein Wegbereiter für Größeres sein und eine neue Herausforderung an Qualitätsmaßstäbe darstellen. In diesem Fall wird aber als KPI nicht der reine Gewinn im Vordergrund stehen. Im Uhrenbeispiel wäre dies der Fall, wenn eine Uhrengruppe bei einer kleinen Marke die neue Technologie erproben will und diese dann später für alle Marken einsetzt.

3.3Realistische Erwartungen und klare Herausforderungen

Data Science und KI wird von vielen Vendoren in praktisch alle Branchen ungeachtet von Kosten-Nutzen-Analysen als Allheilmittel verkauft. Vermeintlich ungeahnte neue Möglichkeiten tun sich den Unternehmen hier auf und ihre Überfülle verstellt oft einen realistischen Blick auf die Herausforderungen, die sie mit sich bringen6:

Ein maschinell lernender Algorithmus verspricht nicht weniger als automatisierte und eigenständige Lösungen. Auf Basis der ihm zur Verfügung stehenden Daten erkennt er selbsttätig Muster und kann Ableitungen bilden. Durch diese variantenreichen Kombinationen wird neues Wissen kreiert. Doch genau hier ist auch seine entscheidende Grenze – denn neues Wissen ist nicht gleichbedeutend mit neuen Ideen. Menschliche Kreativität hat sich bisher noch nicht in Algorithmen nachbilden lassen und so ist echte Innovation gegen die Möglichkeiten maschinellen Lernens, sprich gegen Optimierungen, abzugrenzen.7

Es schließt sich eine weitere Problematik an. Die Qualität der Ergebnisse, die der Algorithmus ausgibt, ist nur so gut wie die Qualität der Daten, mit denen er arbeitet. Jeder Fehler, jede Inkonsistenz, jede Schwachstelle wird weitergegeben und führt zu fehlgeleiteten, verzerrten Ausgaben, die im schlechtesten Fall falsche Entscheidungen nach sich ziehen. Automatisierung und intelligente Systeme bergen eine trügerische Sicherheit, die nie unterschätzt werden darf und daher umso mehr zu gewissenhafter Datenarchitektur und Datenmanagement anhalten sollte. Eine wesentliche Anforderung bei der Implementierung eines maschinell lernenden Algorithmus besteht in der Bereitstellung und im Aufbau von zuverlässigen und leistungsfähigen Infrastrukturen, Prozessen und Kompetenzen. Sie bedingen nicht nur eine stabile Skalierbarkeit und ein dauerhaft reibungsloses Operieren, sondern auch die Einhaltung und Gewährleistung rechtlicher Bestimmungen.

Prozess- und strukturorientierte Implementierung

Der Einsatz von Analytics-Technologien bedeutet nicht, dass die Strukturen eines Unternehmens von Grund auf umgekrempelt werden. Es lässt sich gut klein starten. Wenn sich die ersten Erfolge eingestellt haben, wächst nicht nur das Vertrauen, sondern auch das Verständnis für die Reichweite der Möglichkeiten und so können mit der Zeit weitere Schritte in Angriff genommen werden.

Eine Standardlösung für jedes Unternehmen und jeden Anwendungsfall gibt es ohnehin nicht. Sie müssen immer an die aktuellen Gegebenheiten und Voraussetzungen wie auch die gewünschten Ziele individuell angepasst werden. Aufgabenbereiche und Ressourcen müssen gegeneinander abgewogen werden und entscheiden über die jeweilige strukturelle Arbeitsweise im Einsatz der Analytics-Technologien.

Optimale Ergebnisse liefern die implementierten Technologien, wenn zudem externe Datenquellen eingebunden werden. Sie sorgen dafür, dass die Analysen profunder und damit noch verlässlicher werden. Dies gekoppelt mit ihrer Arbeitsgeschwindigkeit in Echtzeit senkt die Kosten für Entscheidungsfindungen dauerhaft und nachhaltig.

Bei der Operationalisierung von Data-Science-Einheiten im Unternehmen lassen sich wie im Zuge der BI auch unterschiedliche Formen von virtuellen Einheiten bis hin zu zentralisierten Einheiten abbilden (vgl. Abb. 3–2; [Zimmer 2015]).

image

Abb. 3–2Die unterschiedlichen Einsatzformen externer Analysten

Ein derzeit in der Praxis weitverbreiteter Ansatz, um die Organisation von Data Science im Unternehmen zu unterstützen, sind Shared Services. Dies bezeichnet die zentralisierte und gegebenenfalls sogar ausgelagerte Zusammenführung von Prozessen verschiedener Abteilungen. Der Rückgriff auf solche Kompetenzzentren ist häufig geboten, wenn für einige Funktionen die Fähigkeiten von entsprechend hochspezialisierten Analysts von mehreren Einheiten benötigt werden.

Shared Services lassen sich beispielsweise für Folgendes nutzen:

Der Umfang an Services im Umfeld der Data Science lässt sich vereinfacht in die in Tabelle 3–2 beschriebenen Kategorien Insight-, Advisory-, Enabling- und Production-Services kategorisieren:

Insight-Services (erkenntnisorientiert)

  • Durchführung von Analysen, um sinnvolle Ansatzpunkte aufzudecken und passende Analytics-Modelle entwickeln zu können
  • Aufbau von unternehmensinternen Kompetenzen für Self-Service-Reports, Dashboards und Datenanalysen
  • Erfolgskontrollen
  • Innovationen
  • Datenanalyse und neue Erkenntnisse

Advisory-Services (beratungsorientiert)

  • Etablierung von Standards und Richtlinien für Arbeitsbereiche, die Datenanalysen durchführen
  • Bereitstellung einer zentralen Anlaufstelle mit Analytics-Experten für komplexere Funktionen
  • Wissensmanagement
  • Zusammenarbeit
  • Datenmanagement

Enabling-Services (effizienzorientiert)

  • Definition und Priorisierung von Analytics-Projekten
  • Terminologiemanagement für eine teamübergreifend konsistente Datenhandhabung
  • Aufzeigen und Einführung neuer Technologien
  • Anforderungsmanagement
  • Service Level Management
  • Lösungsentwicklung

Production-Services (instandhaltungsorientiert)

  • Unterstützung bei Support-Anfragen der Endnutzer und Lösung auftretender Probleme (bspw. bei kritischer Datenqualität in Quellsystemen) oder Dirigieren an zuständige Abteilung
  • Serviceeinführung
  • Problemmanagement
  • Zugangsmanagement

Tab. 3–2Servicekategorien

3.4Aus der Praxis

Die Effekte erster Ordnung, die sie nach sich ziehen, sind vor allem die Optimierung von Geschäftsprozessen sowie die durch personalisierte Angebote verbesserten Verkaufs- und Absatzmöglichkeiten. Das führt schnell zu gesteigerten Einnahmen. Diese Fakten helfen Analytics-Bereichen naturgemäß, gute Überzeugungsarbeit dafür zu leisten, Analytics initial in ein Unternehmen zu integrieren. Doch allzu schnell verengt genau das auch den Blick auf den weiteren Nutzen solcher Technologien. Jenseits des unmittelbaren finanziellen Zugewinns gibt es nämlich auch noch den – nebenbei bemerkt deutlich langfristigeren Effekt – einer gesteigerten Kundenzufriedenheit, die wiederum zu einem loyalen, großen Kundenstamm führt. Personalisierte Angebote sollten vor allem auch als Serviceleistung im Interesse des Kunden verstanden werden. Sie können ihm – positiv gesehen – großes Herumsuchen ersparen, Neugier und Lust auf ein neues Produkt wecken und es kann – negativ gesehen – vermieden werden, dass sich ein Kunde von zu vielen, weil ungezielten Angeboten eventuell sogar genervt vom Unternehmen abwendet. Je mehr also der Gewinn für den Kunden bei der Umsetzung von Analytics bedacht wird, desto nachhaltiger wirken sie sich aus.

3.4.1Die Automobilbranche als Beispiel

3.4.1.1Machen Sie Ihren Kunden ein Angebot, das sie nicht ausschlagen können

Die Umstellung von Geschäftsprozessen und der nachhaltige Einbezug von Analytics verändert vieles: die Herangehensweise an Marketingmaßnahmen, den Kundenkontakt, die Angebotsplanung und vieles mehr. Personalisierte Angebote an die richtigen Kunden zur richtigen Zeit sind die Parameter, die helfen können, eine Geschäftsstrategie erfolgreich umzusetzen. Im Fall der Automobilindustrie steht beispielsweise herstellerübergreifend die Verbesserung der Verkaufsstrukturen und des Kundenmanagements im Fokus. Ziel ist hier, bei gleichbleibenden (personellen und zeitlichen) Ressourcen automatisierte, maßgeschneiderte Lösungen, heißt Angebote, für jeden einzelnen Kunden zu finden und dadurch die Kundenbindung zu verbessern, die Kaufwahrscheinlichkeit zu erhöhen und letztlich den Ertrag zu steigern. Gleichzeitig sollen die Kundendaten der Automobilhersteller in Wissen transformiert werden und so sowohl gezieltere Ansprachen ermöglichen als auch die Kundenzufriedenheit steigern. Beides sind zwei Seiten einer Medaille, einer Lösung. Bevor die jedoch in den Blick genommen werden kann, muss zunächst die Problemstellung konkretisiert werden.

Absatzmöglichkeiten sind vielfältig, sie effizient zu nutzen gestaltet sich jedoch schwierig, da viele Variablen einbezogen werden müssen. Es stellen sich folgende Fragen: Wer sind meine Kunden? Wie kann ich identifizieren, wer mit hoher Wahrscheinlichkeit als Nächstes ein bestimmtes Modell fahren wird? Wie kann ich diese Kunden in meiner Marketingkampagne priorisieren? Was muss ich tun, um den Kunden für ein neues Auto zu begeistern? Was muss ich wann investieren, um ihn zu einem Kauf zu bewegen? Hinsichtlich des Angebots schließlich stehen natürlich diese Fragen im Vordergrund: Was macht ein Angebot für meine Kunden besonders attraktiv? An welcher Stelle kann ich den Verkaufsprozess unterstützen und fördern? Welche Informationen sind meinen Kunden wichtig? Wo und wann kann ich einen neuen Kaufvertrag abschließen und wie sorge ich langfristig dafür, dass der Kunde zufrieden ist und in Zukunft wieder kauft? Letztlich ist es immer günstiger, einen zufriedenen Bestandskunden zu einem Neugeschäft durch Data-Science-basierte Anwendungen zu animieren, anstatt einen Neukunden zu gewinnen. Dies gilt insbesondere, da für Bestandskunden Kundendaten und Datenschutzeinwilligungen bereits vorliegen.

Im Dickicht dieser zahllosen verschiedenen Konstellationen kann ein Mensch ohne größeren Aufwand keine optimale Entscheidung mehr treffen. Hier können Analytics-Methoden genutzt werden, um dem Entscheider genau die richtigen Informationen zur Verfügung zu stellen. Die Zauberworte an dieser Stelle lauten Customer Life Value, Kundensegmentierung, deskriptive Evaluierungen, Szenariokalkulationen, datengetriebene Expertenempfehlungen und Vorhersagemodelle für erwartbares Kaufverhalten.

Es gilt also die Verkaufs- und Marketingabteilungen der Automobilhersteller gezielt mit Advanced Analytics zu unterstützen und die Absatzaktivitäten nachhaltig zu steigern. Dafür wurden von uns drei strategische Hauptbausteine definiert:

  1. Die Identifizierung von Stammkundschaft
    Oberstes Ziel ist es, anhand verschiedener Kriterien aus dem kompletten Vertragsportfolio, Stammkundschaft von Laufkundschaft zu differenzieren. Speziell die Stammkunden sollen mit besonderen Kundenbindungsangeboten angesprochen werden.
  2. Die Erstellung personalisierter Angebote
    Es werden Algorithmen implementiert, die Vorhersagen über künftiges Kaufverhalten ausgeben können, wie etwa die höchste Wahrscheinlichkeit eines Kunden, ein bestimmtes Automodell mit einem Standardfinanzierungsvertrag zu kaufen. Sie bilden die Grundlage, um einem Kunden das für ihn attraktivste und perfekt auf ihn passende Angebot vorschlagen zu können.
  3. Optimierung von Finanzprodukten und Marketingkampagnen
    Es gilt, das volle Potenzial von Verkauf und Marketing zu erschließen, d.h. Kampagnen oder Kundenwert so zu nutzen, dass Kundenanreize maximiert und die Kundenzufriedenheit über den kompletten Kundenlebenszyklus gesteigert wird.

In diesem Fall werden die Vertriebsmitarbeiter in ihrer Arbeit unterstützt. Letztlich werden dadurch Aufwände in den eigenen Niederlassungen der Hersteller oder unabhängiger Händler eingespart und die Chance auf ein Neugeschäft mit Bestandskunden erhöht.

3.4.1.2Spinning the Customer Life Cycle – Schaffen Sie mehr als eine Runde?

Bei unseren oben genannten drei Kernpunkten spielt der Kundenlebenszyklus eine besondere Rolle (vgl. Abb. 3–3). Er beschreibt, welche Stufen ein Kunde durchläuft, wenn er einen Kauf zunächst erwägt (»Attract«), dann tätigt (»Acquire«), schließlich das Produkt benutzt (»Develop«) und diesem oder dem Service gegenüber loyal verbunden bleibt (»Retain«). Die Beziehung zum Kunden sollte darauf abzielen, diesen Kreislauf so zu managen, dass er wiederholt(!) funktioniert und dauerhaft Kundenzufriedenheit und Profitabilität erhöht werden.

image

Abb. 3–3

Customer Life Cycle:

Attract: Potenzielle Kunden werden identifiziert, ihre Aufmerksamkeit erregt & über Angebote informiert.

Acquire: Aus Interessenten werden Kunden.

Develop: Kunden werden durch personalisierte Angebote stärker an das Unternehmen gebunden.

Retain: Aus Lauf- wird Stammkundschaft.

Zur Frage, wie bzw. wann man diesen Zyklus wiederholt in Gang setzen kann, sei auf unser Beispiel verwiesen: Maschinell lernende Algorithmen zur Mustererkennung, die idealerweise auch noch die aktuelle Marktdynamik und Marketingkampagnen mit einbeziehen, sind in der Lage, den richtigen Zeitpunkt zu ermitteln, wann ein Kunde ein neues Angebot erhalten sollte. So lässt sich mithilfe von Predictive Analytics vorhersagen, wann bei Kunden, die gerade ihr Auto finanzieren, der Punkt eintritt, wo der Wiederverkaufswert des Autos die Höhe der noch ausstehenden Zahlungen übertrifft.

Grundlage für diese Analysen ist bei vielen Automobilherstellern ein Hadoopbasierter Data Lake, der große Mengen konsistenter Kunden-, Vertrags- und Autodaten (dazu gehören auch zusätzliche Ausstattung oder Transaktionsdaten) vereint. Aus diesen Datenquellen können die Algorithmen etwa den Marktwert von Gebrauchtfahrzeugen einschätzen. Die Vorhersage kann dann mit Modellen in Spark industrialisiert werden. Bevor das Vorhersagemodell zur Anwendung kommt, muss es sich aufgrund der IT-Regularien großer Konzerne zuvor als Prototyp in einer Testumgebung erfolgreich bewährt haben, um danach in der produktiven Hadoop-Umgebung entsprechend skaliert bereitgestellt zu werden. Gegenüber konventionellen Tabellenmethoden bietet ein solches Vorgehen mit Lake und Modell zahlreiche Vorteile. Es kann mehr Variablen verarbeiten, kann verschiedene Datenquellen zusammenfassen, ist weniger fehleranfällig, trifft präzisere Aussagen und kann flächendeckender eingesetzt werden.

Komponenten auf dem Weg zu personalisierten Massenangeboten

Wie bereits besprochen müssen für personalisierte Angebote im Automobilbereich viele Faktoren einbezogen und viele Möglichkeiten gegeneinander abgewogen werden. Um die Synthese aus all diesen Variablen bilden zu können, braucht es entsprechend nicht nur eine Analyse, sondern ein Geflecht verschiedener Analysen (vgl. Abb. 3–4). Jede für sich gibt Aufschluss über eine bestimmte Frage. Die Antworten darauf können danach zueinander in Bezug gesetzt und zu einem passenden Angebot verschmolzen werden.

image

Abb. 3–4Personalisiertes Angebot: Das nächstbeste Auto – Das nächste Finanzierungsmodell – Die Wahrscheinlichkeit eines Neuwagenkaufs – Der Restwert eines Gebrauchtwagens – Upselling – Welche Kampagne eignet sich für welche Autoserie.

Das nächstbeste Auto

Um zu bestimmen, welches Auto ein Kunde wahrscheinlich als Nächstes kaufen wird, bietet es sich an, neben den Kundendaten selbst vor allem historische Daten über frühere Vertragsabschlüsse auszuwerten. Voraussagen werden auf Konstruktionsebene eingeschränkt, also z.B. ein hochtouriges Auto für einen sportlichen Fahrer. Mithilfe der hier generierten Informationen sollte der Kunde mit einem passenden Angebot begeistert werden, um die Wahrscheinlichkeit eines wiederholten Autokaufs zu erhöhen (und damit den Kundenlebenszyklus ein wiederholtes Mal in Gang zu bringen). Aus technischer Sicht sind hier maschinell lernende Algorithmen zielführend, die das Kaufverhalten anhand historischer Vertragsdaten analysieren. So können sogar Neukunden ohne Vertragshistorie Empfehlungen gegeben werden. Um die Empfehlungen für einen Kunden nach persönlicher Präferenz zu sortieren, ist ein Random-Forest-basiertes Klassifikationsverfahren ein probates Mittel.

Das nächste Finanzierungsmodell

Vor dem Hintergrund eigener Finanzinstitute der Automobilhersteller ist auch das Finanzierungsmodell des nächstbesten Autos ein wichtiger Faktor für Automobilhersteller. Basierend auf der Autowahl soll mithilfe von Analytics das passende Finanzierungsmodell gefunden werden. Dafür ist es essenziell, zu wissen, welche Faktoren den Kunden ein bestimmtes Finanzierungsmodell bevorzugen lassen. Indem das für ihn, seine Bedürfnisse und seine Autopräferenz bestpassendste ausgesucht wird, steigt nicht nur die Kundenzufriedenheit, sondern auch die Konversionsrate. Wie beim vorherigen Fall ist auch hier ein Random-Forest-Modell ein Mittel der Wahl. So konnten einige Hersteller hiermit eine Vorhersagegenauigkeit von mehr als 75% erreichen.

Die Wahrscheinlichkeit eines Neuwagenkaufs

Hätte der Kunde als Nächstes lieber einen Gebraucht- oder einen Neuwagen? Hat man eine Antwort auf diese Frage, lassen sich Marketingmaßnahmen und Umsatzziele wesentlich konkreter planen. Die Wahrscheinlichkeit, mit der sich ein Kunde für eine der beiden Seiten entscheidet, sollte auch im Hinblick auf die Differenzierung von Lauf- und Stammkundschaft einbezogen werden. In diesem Anwendungsfall können wie beim nächstbesten Auto Vorhersagemodelle mit maschinell lernenden Algorithmen auf Basis historischer Daten genutzt werden.

Der Restwert eines Gebrauchtwagens

In einem eigens entwickelten statistischen Modell konnte die Genauigkeit von herkömmlichen Richtwerttabellen deutlich übertroffen und der aktuelle Verkaufswert eines Gebrauchtwagens präzise bestimmt werden. Diese Steigerung hat sich als wertvoller Beitrag zur Profitabilität des Business Case herausgestellt.

Der Nettokaufpreis wird als Näherungsvariable für eine Bestimmung des Transaktionspreises genutzt, während Informationen über Kilometerstand und Wagenalter von qualitativ hochwertigen Daten ausgehend abgeleitet werden.

Implementierung: Die Bestimmung des Autowertes beruht auf dem Nettokaufpreis. Zur Verbesserung der Vorhersagen wurde ein Modell implementiert, das die Preismuster des kompletten Automobilportfolios (auf Basis unterschiedlicher Parameter wie Laufleistung) erlernt und eine sehr geringe Fehlerquote aufweist. Zur Überprüfung der Ergebnisse wurde eine GUI zur Validierung durch menschliche Experten umgesetzt.

Upselling

Ein wichtiger Baustein der Absatzsteigerung ist Upselling. Hier ist es zielführend, durch die hierfür implementierten Algorithmen nicht nur die Wahrscheinlichkeit, mit der ein Kunde auf ein teureres Auto umsteigen möchte, zu berechnen, sondern auch den Preis, den er bereit ist, für sein nächstes Auto zu zahlen. Neben diesen absoluten Werten geht es genauso um die Frage nach den kundenseitig motivierenden Faktoren für ein solches Upgrade. Mit diesem Wissen können wiederum Marketing- und Verkaufstätigkeiten zielgerichteter und auf den individuellen Kunden angepasst stattfinden. Auch in diesem Fall empfehlen sich Algorithmen, die selbstständig von historischen Daten lernen, also vom bisherigen Kaufverhalten des Kunden und seinen daraus ersichtlichen Wünschen und Bedürfnissen.

Welche Kampagne sich für welche Autoserie eignet

Das Ziel dieser Analyse ist die Zuordnung und Ermittlung des besten Kampagnen-Sets für eine Fahrzeugserie. Alle existierenden Marketingkampagnen inklusive ihrer spezifischen Charakteristiken und Regeln für Anwendungsfälle werden in Kombination mit den möglichen Finanzierungen und Autos erfasst. Das beste Angebot für eine bestimmte Baureihe basiert auf der Kombination aller möglichen Kampagnen und korrespondierender Finanzierungsmodelle. Um dem Marketingbereich eine Spielwiese bereitzustellen, kann hierfür zusätzlich eine Echtzeitberechnung mit Visualisierung der jeweiligen Raten und Ergebnisse umgesetzt werden. In Abbildung 3–5 ist exemplarisch eine Architektur mit aktuellen Webtechnologien wie HTML5, CSS, JS und OpenUI5 abgebildet.

Wie wir am Beispiel der Automobilhersteller sehen konnten, sind Analytics-Lösungen vor allem eines: komplex! Es führt einmal mehr vor Augen, wie aufwendig und damit investitionsintensiv der Einsatz solcher Technologien sein kann. Doch es zeigt auch, was es bedeutet, Kundenbindung und Ertragssteigerung in Form einer besseren Serviceleistung miteinander zu verschmelzen und damit nachhaltig zu gestalten.

Entscheidend bleibt schlussendlich vor allem die Einsicht, dass für den erfolgreichen Einsatz von künstlicher Intelligenz deutlich mehr bedacht werden muss als die reinen Modelle.

image

Abb. 3–5Abschließender kurzer Blick in die Architektur

3.5Fazit

Data-Science-basierte Anwendungen sind in der Praxis mittlerweile weit verbreitet. Das Potenzial dieser Anwendungen scheint grenzenlos. Um nachhaltig durch Data Science und KI neue Geschäftsmodelle zu erschließen, die Kosten zu senken und den Ertrag zu erhöhen, ist aber eine differenzierte Betrachtung des Nutzens von Data-Science-basierten Anwendungen im Unternehmen erforderlich. Viele auf den ersten Blick einfachen Anwendungsfälle erfordern zugrunde liegende Datenbasen mit einer hohen Qualität, neue Anwendungen, Technologien und die Schulung der Mitarbeiter. Ein zunächst kostengünstiger Use Case kann vor diesem Hintergrund schnell eine große Investition erfordern. Deshalb ist es auch im Bereich der Data Science erforderlich, die Investments bewusst mit Proof of Values und Business Cases zu beleuchten. Nur die bewusste Investition in ausgewählte Anwendungsfälle ermöglicht Unternehmen, ihre häufig eingeschränkten personellen sowie finanziellen Ressourcen möglichst positiv für die Zukunft einzusetzen. Als mahnendes Beispiel kann hier eine internationale Großbank gelten, bei der kurzfristig ein Data-Science-Bereich mit zehn hochbezahlten Scientists aufgebaut wurde, ohne eine geeignete Datenbasis oder Infrastruktur zu besitzen. Binnen eines Jahres konnte dieser Bereich keinen einzigen Use Case implementieren und hat letztlich keinen Nutzen für die Bank geschaffen.