Category

Allgemein

Gruppenstudie PRICE.AI

By | Allgemein

Testen Sie alle ihre Preise zu skalierbaren Kosten

Viele Hersteller und Händler müssen hunderte oder tausende Preise managen. Etablierte Preismessmethoden, wie etwa Conjoint, sind dafür in diesem Maßstab zu teuer. Einfache Methoden wie PSM sind hingegen zu ungenau.

Price.AI setzt in einer Online-Befragung von potentiellen Kunden eine sogenannte „Implizit-Befragung“ ein, um unbewusste Zahlungsbereitschaften zu messen. Dies ist der wissenschaftlich etablierte Weg, um unbewusste Assoziationen offen zu legen. Wir wenden dies auf die zu testende Preisrange (Default: 7 Preispunkte) an. Auf Basis einer 5-minütigen Online-Befragung errechnet unser Algorithmus eine validierte Preis-Absatz-Funktion und die gewinnmaximale Preisspanne.

Die Gruppenstudie

  • Startet Anfang Juni 2018
  • Teilnahmeinteresse bis 17. Mai bekunden.
  • Ihr Input: In unserem Excel-Template notieren Sie Produktbeschreibung, die zu testenden Preispunkte, den Name der zu zeigenden Produktabbildungsdatei und wählen die zum Produkt gehörende Screener-Frage.
  • Sie erhalten: Eine Preis-Absatz-Funktion in Excel je Produkt sowie ein Excel-Tool, in dem durch Angabe der Produktselbstkosten eine Preis-Gewinn-Funktion berechnet und dargestellt wird.
  • Teilnahmekosten: 350 Euro je zu testendes Produkt zzgl. 950 Euro Setup-Kosten (Mengenrabattstaffel auf Anfrage).

Weitere Hintergrundinformationen gibt Ihnen gern Dr. Frank Buckler.
Eine Email genügt: buckler@success-drivers.com

Nachgewiesen: Welche Kreativtechniken Ihre Verkaufszahlen steigern

By | Allgemein

Einladung: Wir nehmen Anfragen zur Studienteilnahme ihrer Marke bis 31. Januar 2018 entgegen

Unsere Gruppenstudie „Creative.AI“ hat in 2017 in sechs verschiedenen Produktkategorien offengelegt, wie Kreativtechniken und Emotionale Trigger in den Kategorien wirken und welche Ansätze Verkaufszahlen kurz und langfristig treiben.

In 2018 erweitern wir diesen Ansatz, indem wir nicht lediglich den Zusammenhang zur Kauf-Intention herstellen. Intention und Kauf korrelieren im Mittel zwar mit guten 0.5. Je nach Produktkategorie und Messansatz variiert die Korrelation jedoch zwischen 0,15 und 0,9. Wir werden für Ihre Kategorie  die konkrete Wirkung auf tatsächliche Käufe nachweisen, den Wirkzusammenhang offenlegen und damit die Prognoseleistung maximieren.

Mit ihrer Teilnahme an der Gruppenstudie profitieren Sie von folgenden Besonderheiten:

  • Sie testen Ihre Spots an einer Zielgruppe, die sich in einer konkreten Kaufphase befinden anstatt Personen zu befragen, die mehrheitlich sich gerade nicht mit dem Kauf dieser Kategorie befassen.
  • Sie weisen den kurz- und langfristigen Sales-Impact von Kreativtechniken (z.B. Promi, Sprecher, Brand Song oder 100 andere), Emotionale Trigger (Indulgence, Family Love oder 130 andere) und ausgelösten Emotionen (Freude, Überraschung, Trauer, etc.) empirisch nach.
  • Sie erhalten Insights, die die emotionale Wirkung ihrer Spots erfassen, die Wirkung der objektiven Werbeinhalte nachweisen und so die Bedeutung der kreativen Stellschrauben verstehen helfen.

Wie wir vorgehen

  1. Copytest von Werbespots in einer Onlinebefragung. Dabei testen wir eine ganze Bandbreite an Wettbewerbsspots, um vielfältige Varianz an Erfolgshebeln zu erhalten. Die getesteten Spots werden mit einer objektivierten Inhaltsanalyse profiliert und so erfasst, welche Kreativtechniken Einsatz finden.
  2. Kaufintention mit verbesserten Methoden messen; wissenschaftlich überprüft und auf dem neuesten Stand.
  3. Re-kontaktieren der Probanden und ermitteln von Käufen und deren Kontextinformationen
  4. Treiberanalyse (selbstlernend, KI-basiert) um die kausale Bedeutung der kreativen Stellgrößen zu ermitteln.

Ihre Teilnahmekosten hängen in erster Linie von der Erreichbarkeit Ihrer Zielgruppe und der Kaufhäufigkeit ab. Der Teilnahmepreis startet schon ab 5 TEUR je getestetem Werbespot.

Der Zeitplan: Melden Sie ihr Interesse bis 31. Januar 2018. Die finale Vereinbarung wird bis 28. Februar 2018 geschlossen. Die Feldphase findet im März und April statt. Die deskriptive Testergebnisse erhalten Sie im April, die Gesamtergebnisse im Ende Mai.

Kontakt: Dr. Frank Buckler, buckler@success-drivers.com

Der Bauplan für erfolgreiche Werbung

By | Allgemein

Kreativität folgt keinen Regeln. Richtig. Doch will sie erfolgreich sein, benötigt sie klare Leitplanken – so wie die Kreativität von Architekten durch die Gesetze der Statik geleitet wird. Was wirkt nun – „Promis?“, „Voice-Over?“, „Welche Musik?“, „Gemeinschaft oder Genuss?“, „Problem oder Lösung?“ – Es gibt hunderte solche Fragen auf die es nun klare Antworten gibt.

KONKRETE LEITLINIE FÜR ERFOLGREICHE WERBUNG – BISLANG FEHLANZEIGE

75% des Werbeerfolgs hängt nicht vom Budget oder Mediaplan, sondern von der „Qualität“ der Kreation ab. Es ist jedoch weitgehend unklar was genau eine gute Werbung ausmacht.

Die Folge: Nur 16% von Werbespots werden aktiv erinnert und nur ein Drittel aller Kreationen schaffen es einen attraktiven ROI zu erzielen.

Andererseits weisen viele erfolgreiche Kampagnen einen ROI mit dem Faktor 10 und mehr auf. Wo kann man sein Geld besser investieren als in solche Werbung? Nirgends, wenn -und nur wenn- man den Bauplan erfolgreicher Werbung kennt.

DIE LÖSUNG: PROFILING KREATIVER TAKTIKEN

Es gibt eine Vielzahl von Testverfahren für Werbung. Copytest-Befragungen, Eyetracking, EEG-Gehirnstrom-Messungen und vieles mehr. All diese Methoden sind gut, nützlich und wichtig.

Zwei Dinge machen sie jedoch nicht: Sie messen nur Reaktionen auf Werbung, nicht jedoch die Wirkung einzelner Gestaltungsparameter. Sie erheben Daten, die für sich allein keine ursächlichen Rückschlüsse zulassen. Beispielsweise wird jede Coke-Werbung tendenziell besser in allen Parametern abschneiden – unabhängig davon wie gut die Werbung selbst ist.

Die nun pilotierte Lösung kombiniert drei moderne Ansätze zu einem:

  1. Copytest-Befragung, die auch die emotionale Wirkung von Werbung misst.
  2. Quantitative Inhaltsanalyse: Experten sezieren jede Werbung und kodieren dabei die verwendeten Creative Vehicles (Celebrity, Humor und 90 andere) und Emotional Triggers (Genuss, Familie, Gemeinschaft und 130 andere).
  3. Ursächlichen Erfolgsbeitrag jeder Taktik ermitteln: Hier werden selbstlernende Algorithmen der Künstliche Intelligenz eingesetzt, um nachzuweisen, was wirkt und was nicht.

Die Erfolgsfaktorenanalyse macht messbar, wie valide der ermittelte „Bauplan für erfolgreiche Werbung“ ist. Im Vergleich zu den bislang besten Modellen erklärt dieses 3,1 mal besser wie Werbung wirkt. Dutzende augenöffnender Erkenntnisse unserer Studie belegen dies. Hier drei Beispiele:

Die Studie zeigt, dass Emotionen der Schlüssel für Wirkung ist. Selbst rationale Botschaften werden erst verarbeitet, wenn Emotionen geweckt werden. Jedoch sind nur bestimmte Emotionen produktiv andere wieder äußerst destruktive.

Weiter zeigt die Studie, dass in jeder Produktkategorie andere emotionale Grundbotschaften wirksam sind. Hinzu kommt – die dabei in ihrer Branche üblichen Botschaften sind meist nicht effektiv – genauso wie die „Gemeinschaft“-Botschaft bei alkoholischen Getränken, die „Vertrauen“-Botschaft bei Finanzdienstleister oder die „Relief“-Botschaft bei Medikamenten.

Auch häufige Techniken wie Celebrities oder Voice-Over sind i.d.R. nicht effektiv. Vielmehr sind es ganz bestimmte sehr alte Taktiken, die wahre Wunder wirken.

Diese und dutzende andere Erkenntnisse werden in Zukunft Werbung grundlegend verändern.

AHA-MOMENTE DANK DREIFACHER ERKLÄUNGSKRAFT

Die Erfolgsfaktorenanalyse macht messbar, wie valide der ermittelte „Bauplan für erfolgreiche Werbung“ ist. Im Vergleich zu den bislang besten Modellen erklärt dieses 3,1 mal besser wie Werbung wirkt. Dutzende augenöffnender Erkenntnisse unserer Studie belegen dies. Hier drei Beispiele:

Die Studie zeigt, dass Emotionen der Schlüssel für Wirkung ist. Selbst rationale Botschaften werden erst verarbeitet, wenn Emotionen geweckt werden. Jedoch sind nur bestimmte Emotionen produktiv andere wieder äußerst destruktive.

Weiter zeigt die Studie, dass in jeder Produktkategorie andere emotionale Grundbotschaften wirksam sind. Hinzu kommt – die dabei in ihrer Branche üblichen Botschaften sind meist nicht effektiv – genauso wie die „Gemeinschaft“-Botschaft bei alkoholischen Getränken, die „Vertrauen“-Botschaft bei Finanzdienstleister oder die „Relief“-Botschaft bei Medikamenten.

Auch häufige Techniken wie Celebrities oder Voice-Over sind i.d.R. nicht effektiv. Vielmehr sind es ganz bestimmte sehr alte Taktiken, die wahre Wunder wirken.

Diese und dutzende andere Erkenntnisse werden in Zukunft Werbung grundlegend verändern.

SO SETZEN SIE DIE METHODE BEI SICH UM

Der schnellste Einstieg ist der Quick-Audit, den Success Drivers kostenfrei anbietet. Weiterhin ist der in der Studie verwendete Copytest ein preiswerter Einstieg. Mit Hilfe des in der Studie ermittelten Bauplans, werden anhand des Copytests konkrete Verbesserungsfelder aufgezeigt.

Mittelfristig liegt es nahe, eigene Kategorie-spezifischen „Deep Dive“ Studien durchzuführen und so eigenes spezifisches Know-how aufzubauen. Nutzung von Abverkaufsdaten beworbener Produkte ermöglich es im Model die absatzsteigernde Wirkung einer Anzeige präzise vorherzusagen.

Die beste Forschung trägt aber nur dann Früchte, wenn Sie in gute Kreativ-Strategien übersetzt wird und sowohl das Marketing Management als auch die Kreativagentur voll dahinter steht. Genau dafür haben wir spezifische Workshop-Konzepte entwickelt. Hier nutzen wir unsere Datenbank aus über 60.000 profilierten Beispielspots, um diverse Spielarten bestimmter emotionaler Grundbotschaften und anderer Kreativparameter illustrieren zu können.

Mehr Details zu den Ergebnissen zeigt dieser Vortragsmitschnitt:

BrandGrowth.AI: Eine erprobte, evidenzbasierte Strategie für mehr Wachstum Ihrer Marke

By | Allgemein

BrandGrowth.AI: Eine erprobte, evidenzbasierte Strategie für mehr Wachstum Ihrer Marke

In den letzten Jahren lieferte Neuroscience den wissenschaftlichen Beweis. Das Ergebnis menschlicher Entscheidungen ist im Gehirn bereits ein bis sieben Sekunden, bevor es dem Menschen bewusst wird, nachweisbar. Gut 90% unserer Entscheidungen kann durch unbewusste Emotionen, Einstellungen und Instinkten erklärt werden. Doch noch immer fokussieren die meisten Werbeanzeigen etwaigen Produktnutzen und sonstige USP‘s. Die Folgen sind weitreichend.

Konsumenten treffen wöchentlich tausende Wahlentscheidungen und sind tausenden Werbekontakten ausgesetzt. Es ist weder praktisch möglich noch für Menschen relevant, all diese zu verarbeiten und zu verstehen oder gar „eine Beziehung“ mit einer relevanten Anzahl an Marken davon einzugehen.

Die vor Jahrzehnten entwickelten wissenschaftlichen Modelle von Ehrenberg und Bass gehen von einem anderen Konsumentenbild aus – mit Erfolg. Sie sagen das Konsumentenverhalten und damit die Marktstruktur sehr präzise vorher. Große empirische Studien haben in den letzten Jahrzehnten dies in den hunderten Produktkategorien kulturübergreifend bestätigt.

Ehrenberg und Bass: Ein Meilenstein in der Marketingforschung

In seinem Buch “How Brands Groth” hat Byron Sharp – der aktuelle Director des Ehrenberg-Bass Institutes- anhand überreifender empirischer Studien dargelegt, welche weitreichenden Folgen das neue Konsumentenverständnis für praktische Marketingstrategien besitzt.

Er beweist, dass der Fokus auf dem Gewinnen neuer Kunden effektiver ist, als der des Bindens Bestehender. Cola Cola macht mehr als 50% seines Umsatzes mit Kunden, die nur 2 bis 3 mal im Jahr Coke kaufen. So gut wie jede Marke macht einen relevanten Umsatzanteil mit vielen, wenig gebundenen Kunden – dem „Long-Tail“. Hier liegt ein enormes Wachstumspotential.

Sharp belegt empirisch auch, dass Positionierung auf Basis emotionaler Differenzierung überschätzt ist und zeigt, dass es beim Branding, um viel grundlegendere Dinge geht. Es geht darum

  • Prägnant wahrgenommen und verankert zu sein, um im Moment der Entscheidung in die Auswahl zu gelangen,
  • Durch Wecken der richtigen Emotionen dafür zu sorgen, dass Werbeinhalte verarbeitet werden und es geht darum
  • Konsistent zu bleiben, damit das Markenbild über die Zeit gestärkt statt verwässert wird.

Als drittes weist Sharp nach, dass es darauf ankommt in jeder Hinsicht die Marke „verfügbar“ zu halten, um das volle Potential auszuschöpfen. „Make it Easy to Buy“ heißt das Motto. Das beinhaltet nicht nur die Verbreitung im Handel für FMCG-Produkte, sondern auch deren Sichtbarkeit dort oder dem Vermeiden von diversen z.T. im Nachhinein trivial wirkenden Kaufhindernissen.

BrandGrowth.AI: Success Drivers’ Lösung für mehr Wachstum Ihrer Marke

Wir haben unsere erprobten Analytics-Lösung im Wachstumspaket „BrandGrowth.AI“ zusammengestellt. Es beinhaltet die zentralen Schritte, die wir im Markt existierenden Marken empfehlen, um ihre Position langfristig zu stärken und Wachstum zu generieren.

1. Be Broad – Bearbeiten Sie ein möglichst großes Potential

Schritt 1 – Define your playground

Ist Head&Shoulders ein Shampoo oder ein Männer-Anti-Schuppen-Shampoo? Die Marke wird von Männern und Frauen gekauft, die zudem zu großem Teil keine relevanten Schuppenprobleme haben. Mit selektivem Targeting wäre die Marke nicht die weltweit meistverkaufte Shampoo-Marke. Doch wie findet man das richtige Ausmaß, die geeignete Definition des „Spielfelds“? Genau dafür gibt es Methoden wie die Überschneidungsanalyse, die hier helfen.

Wenn sie glauben ihre Marke besitzt einen echten USP, dann wäre dies ein Anlass darüber nachzudenken, das Kategorie-Verständnis zu erweitern oder zu wechseln. Warum? Rationale Entscheidungsprozesse sind eher bei der Auswahl der Produktkategorie und weniger in der Auswahl von Marken zu finden.

Schritt 2 – Finden Sie ihr Set an Category Entry Points

Sie fahren mit Ihrem Auto an einem McDonalds vorbei, haben aber noch nicht gefrühstückt. Wenn die Marke nicht bei Ihnen als Frühstücksoption abgespeichert ist, so fahren sie in der Regel einfach weiter ohne zu bemerken, dass es eine Option gewesen wäre. Haben Sie sich schon einmal gefragt, warum Tomatensaft fast ausschließlich im Flugzeug getrunken wird? Das Flugzeug ist (aus unbekannten Gründen) ein zentraler Category Entry Point (CEP) für Tomatensaft.

Marken wachsen wenn sie mit einer steigeneden Anzahl an CEPs assoziiert werden. Wir identifizieren qualitativ für sie potentielle CEPs, messen deren Bedeutung mit impliziten Messmethoden und stellen fest, inwieweit ihre Marke heute bereits mit dem CEP assoziiert wird?

Schritt 3 – Category.AI – Find your category drivers

Für die Käufer einer Kategorie gilt es den kleinsten gemeinsamen Nenner zu finden, der es ermöglicht so viele Käufer wie möglich zu überzeugen. Unsere AI-basierte Treiberanalyse deckt die zentralen Hebel jeder Produktkategorie mit Hilfe einfacher Markenbefragungen auf.

Hier finden wir, dass der zentrale Treiber für die Bier-Kategorie, dass Erfrischungserlebnis ist. Wir entdecken, dass in der Kategorie Hautreinigung der Duft, als zentraler Kaufindikator fungiert. Wir weisen nach, dass eine Bank sich in aller erster Linie um ihre Kompetenzreputation im Bereich Finanzierung und Anlage kümmern sollte.

Diese Kerntreiber sind der Leuchtturm für ihr Marketing. Zu weilen wirkt es zu trivial, dass ein Bier erfrischt, ein Shampoo gut riecht und eine Bank gut berät. Es ist daher oft die Regel statt die Ausnahme, dass Marken sich von diesem Leuchtturm zu weit entfernen.

Diese Fallstudie am Beispiel der Marke SONOS illustriert das Vorgehen.

2. Build Brand – Maximieren Sie die “mentale Verfügbarkeit”

Markenbildung hat zum Ziel, die mentale Verfügbarkeit zu stärken, indem es Gedächtnisstrukturen im Zusammenhang mit der Marke stärkt. Dies erreichen Verantwortliche durch einzigartige Markenelemente (Logo, Farben, Figuren, Melodien, Geschichten und Assoziationen), die konstant über Jahre und Jahrzehnte verwendet werden. Diese Verankerung gelingt jedoch erst dann, wenn es gelingt mit Werbeinhalten emotional zu involvieren – oder wenn die Marke in emotional involvierenden Kontexten gezeigt wird (Stichwort Sponsoring).

Schritt 4 – Creative.AI – Identify the DNA of successful advertising:

Unsere Lösung Creative.AI ist daraus ausgerichtet herauszufinden, welche emotionalen Archetypen und Kreativtechniken in der Lage sind emotional positiv zu involvieren und damit eine tiefere Verankerung der Markenelemente zu bewirken. Mehr über Creative.AI finden Sie hier

Viele großangelegte Studien belegen, dass mindestens 70% des Effektes von Werbung davon abhängt, wie gut diese gemacht ist. Der evidenzbasierten Optimierung kreativer Inhalte kommt daher eine entscheidende Bedeutung zu.

Erst wenn dieser Schritt vollzogen wurde, ergibt es Sinn die Verteilung von Marketingbudgets genauer zu optimieren:

Schritt 5 – Media.AI – Mediaplanung mit maximaler Reichweite

Nach aktuellem Stand der Forschung liefert der erste Werbekontakt den höchsten ROI, sodass wiederholte Kontakte nur dann sinnvoll sind, wenn sich keine alternative Zielgruppen finden, die ähnlich gut reagieren. Wie Sharp nachwies zeigt Werbung gerade bei Gelegenheitskäufern (long tail) die größte Hebelwirkung, nicht unbedingt in der „Kernzielgruppe“.

Demnach zielt gute Mediaplanung weniger auf trennscharfes Targeting, sondern darauf, kostenminimal Reichweite unter den potentiellen Käufern der Kategorie zu erzielen. Media.AI erhebt (stichprobenartig) die individuellen Medianutzungsprofile der Kategorie-Käufer und findet mit Optimierungsalgorithmen der Künstlichen Intelligenz, die reichweitenmaximale Kombinationen von Medienkanälen, -typen und Schaltzeiten bei bestehendem Budget.

Schritt 6 – Mix.AI – Mix Modeling im digitalen Zeitalter

Marketing Mix Modeling ist eine etablierte Methode. Sie bedarf jedoch einem Update. Im digitalen Zeitalter bedingen sich Kanäle immer mehr. Ein TV-Spot generiert Adword Klicks – ein indirekter Effekt dem Rechnung getragen werden muss. AI-basierte Treiberanalysen bilden nicht nur diese indirekten Beziehungen ab, sondern finden ebenfalls verborgene Verbund- d.h. Interaktionseffekte zwischen Kanälen. Mehr zu unserem MMM-Ansatz.

Schritt 7 – SLC-Brand Tracker: Die 3 zentralen KPIs immer im Blick

Brand Tracker messen heute vor allem das Brand Image, um zu überprüfen, ob die Marke noch definitionsgemäß wahrgenommen wird. Viel entscheidender ist es jedoch zu tracken, wie prägnant, „likable“ und kontinuierlich die Markenführung ist:

  • Prägnanz (Brand Salience): Sie misst wie viele Ankerpunkte, die Marke besetzt um erinnert und im Bedarfszeitpunkt abgerufen zu werden. Um die Prägnanz einer Marke optimal zu messen, muss ein eigenes Messinstrument entwickelt werden, dass alle Marken-„Cues“ abtestet.
  • Sympathie: Ist die Marke positiv besetzt und wird sie mit dem Grundnutzen der Kategorie assoziiert?
  • Kontinuität: Setzt die Markenkommunikation an existierenden Gedächtnismustern an oder verwässert sie indem sie Neue aufbaut?

3. Reach out – Maximieren Sie die “physische Verfügbarkeit”

Wir verstehen unter “physischer Verfügbarkeit”, dass die Marke im Bedarfszeitpunkt im Wahrnehmungsfeld des Konsumenten ist und dabei gewisse Knock-Out-Kriterien erfüllt (z.B. gesuchte Packungsgröße, Preiskategorie, etc.). Der Verbreitungsgrad im Handel ist hier nur eine offensichtliche Komponente von vielen.

Schritt 8 – RNB.AI: Identifizieren Sie die Gründe NICHT zu kaufen

Marken deren scheinbare Erfolgsursachen die „Convinience“ ist, haben meist bestimmte Knock-Out-Kriterien eliminiert. Leuchtende Beispiele sind Paypal, Google Search oder das iPhone. Interessanterweise ist es für Marketingexperten im Vorhinein keineswegs offensichtlich was genau diese Kriterien sind. Es bedarf genauerer Nachforschung. Wir empfehlen hierfür einen zweistufigen Ansatz

  1. Qualitative Forschung: Tiefeninterviews, Fokusgruppen oder Communities
  2. Quantitative Exploration: Unser AI-basierte Treiberanalyse liest aus einer dafür durchgeführten quantitativen Befragung, welche Kriterien tatsächliche „Show-stopper“ sind.

Der Ansatz ist sowohl für eine aktuelle Produktkategorie am Markt als auch für Neuproduktkonzepte gedacht und erprobt.

Schritt 9 – Sales.AI: Maximieren sie die Schlagkraft am POS

Die Schlagkraft am POS lässt sich durch vielfältige Maßnahmen steigern: Displays, In-store Möbel, Demo-Events, Verkäufertrainings, Preis-Promotions, u.v.m.. Doch deren Wirksamkeit ist nicht unmittelbar in den Daten abzulesen. So haben einige Maßnahmen langfristige (Training) und andere kurzfristige (Preis-Promotions) Effekte. Sales.AI baut einen geeigneten Datensatz auf und bewertet den ROI dieser Verkaufsförderungsmaßnahmen.

Schritt 10 – Price.AI: Finden Sie Preispunkte die mehrheitsfähig sind und langfristig die Erträge maximieren

Ein zu tief angesetzter Preispunkt gefährdet das langfristige „Überleben“ eines Produkts – ein zu hoch angesetzter Preis reduziert die faktische Verfügbarkeit und verhindert, dass das volle Ertragspotential ausgeschöpft wird. Der Preis ist nicht nur der am einfachsten zu ändernde Marketingparameter, er ist bekanntermaßen auch der mit der größten Ertragswirkung.

Price.AI setzt auf einer impliziten Messung der Preisbereitschaft auf und modelliert Ursachen, Bedingungen und Stellhebel der Zahlungsbereitschaft. Dies ermöglicht ein valides Finden und Managen langfristig optimaler Preispunkte.

The BrandGrowth.AI Audit – Find out what works for you

BrandGrowth.AI ist eine Zusammenstellung von Tools die an den bedeutendsten Stellschrauben für Markenwachstum ansetzen. Sie liefert Fokus, höchste Validität und Durchblick im Dschungel methodischer Möglichkeiten.

Wir bieten Neukunden einen kostenfreien Audit-Workshop indem wir mit Ihnen individuell beleuchten, was für Sie konkret zu tun ist um Ihre Marke auf die nächste Ebene zu heben. Mit etwas Glück ergeht es Ihnen danach wie T-Mobile USA, die 4 Jahre nach der Durchführung von Category.AI ihren Marktanteil verdoppelten und heute Rekordgewinne einfahren.

Wie T-Mobile-USA durch Causal Machine Learning den Marktanteil verdoppelte

By | Allgemein

Wie T-Mobile-USA durch Causal Machine Learning den Marktanteil verdoppelte

Was kann man einer Marke raten, die ein qualitativ schlechteres Produkt hat, in einem weitgehend commoditisierten Markt operiert und seit Jahren massive Verluste einfährt? Der Weg aus der Miesere scheint einem im Sumpf festsitzenden Münchhausen zu gleichen. Unsere Analysen waren die entscheidende Informationsbasis für eine beispiellose Erfolgsgeschichte in der sich der Marktanteil in nur 4 Jahren verdoppelte und heute Gewinne überborden. Lesen Sie wie ähnliche Effekte auch bei Ihnen möglich sein werden.

Der geniale Frontalangriff

Wir schreiben das Jahr 2013. T-Mobile-USA war so gut wie zum Tode geweiht. Jahre massiver Verluste lagen hinter ihr. Doch der Mutterkonzern fand keinen Käufer für die ungeliebte Tochter. John Legere übernahm als CEO die Führung des Unternehmens und erhielt von der Zentrale Narrenfreiheit. Schlimmer konnte es ja nicht mehr werden.

Seine Strategie war es alle Hebel in Gang zu setzen, sodass sich Kunden wieder für T-Mobile entschieden. Er reduzierte die Preise, löste die Vertragsbindung auf und gab Top-Smartphones einfach kostenlos dazu. Das Ganze umrahmte er mit einer Kommunikationsstory „The Un-Carrier“ in der er T-Mobile als Robin Hood der Mobilfunkunternehmen feierte.

Die Kundenzuwächse ließen nicht lang auf sich warten. Allein blieb die Frage zurück: Warum kommen die Kunden eigentlich zu uns? Ist es der Preis, die Vertragsbindung, die Smartphones oder die emotionale Anziehungskraft der neuen Positionierung? Herkömmliche Methoden gaben widersprüchliche Antworten. Man konnte jede Antwort erhalten, wenn man die Insights nur entsprechend filterte. Kommt Ihnen das bekannt vor?

Kausales Machine Learning im Einsatz

T-Mobile kam mit dieser Frage auf Success Drivers zu, denn die Frage des Warum, die Frage nach dem zentralen Erfolgsursachen ist unser Spezialgebiet. Konventionelle Korrelations- und Regressionsanalysen hatten bislang keine überzeugenden Antworten liefern können.

Wir setzen auf einer landesweiten Befragung von Kunden und Nichtkunden auf. In dieser maßen wir die Bereitschaft zu T-Mobile zu wechseln, die Wahrnehmung des Markenimage, inwieweit die neue Positionierung bereits gelernt wurden und vor allem die Einschätzung der Zielkunden bzgl. der zentralen Kaufkriterien wie Netzqualität, Preis, Vertragsbindung, Service oder Devices.

Mit diesen Daten führten wir eine Universelle Strukturmodellierung durch – ein Verfahren des Kausalen Machine Learning. Diese zeichnet sich durch drei bestechende Eigenschaften aus:

  1. Misst Kausalität nicht Korrelationen und vermeidet so die klassische Scheinerkenntnisse.
  2. Deckt Indirekte Effekte auf und ist so im Gegensatz zu klassischen Treiberanalysen und Regressionsansätze den wahren Gesamteffekt zu beziffern
  3. Ist selbstlernend und modelliert dadurch bislang unbekannte Nichtlinearitäten und Interaktionen.

Die Bedeutung der Erkenntnisse sind immens

Die Erkenntnisse der Analyse waren vielfältig. Die bedeutendste und zugleich überraschende Einsicht war diese:

Weder das Thema Preis, Vertragsbindung noch Top-Geräte hat einen massiven direkten Einfluss auf den Kauf. Es war die „Robin Hood“-Positionierung, die die Kunden anzog. Die Preisgestaltung, fehlende Vertragsbindung oder Gerätezugaben waren lediglich Hebel die die Wahrnehmung dieser Positionierung befeuerten.

Wir empfahlen statt in einem weiteren Preiskampf das Wachstum zu erhalten, kreativ neue Wege zu suchen und umzusetzen, welche die Positionierung weitere belegen. Genau dies war dann der Pfad des Unternehmens in den kommenden Jahren. T-Mobile bot etwa Kunden der Wettbewerber an, die Wechselgebühr bei vorzeitiger Kündigung zu übernehmen.

“Success Drivers provided us the confidence to advise our business partners on the most effective and efficient means for sustaining our brand momentum.” lässt sich der Director Consumer Insights, T-Mobile USA zitieren.

Learnings

Das Fallbeispiel zeigt, die zentrale Bedeutung eines präzisen Verständnisses darüber, aus welchen Beweggründen Kunden in ihrem Markt handeln wie sie handeln.

Branchenwissen von Experten ist eine notwendige jedoch keine hinreichende Voraussetzung, denn die vielen, zeitgleich wirkenden Ursache-Wirkungsbeziehung kann ein Mensch nicht „im Kopf“ dechiffrieren. Kausale Künstliche Intelligenz kann helfen, wie das Beispiel eindrucksvoll zeigt.

Das Beispiel zeigt auch, wie die konventionelle Statistik in solchen realen Fragestellung oft nicht ausreicht. Denn unsere Märkte sind komplex und intransparent. Erfolgsursachen beeinflussen sich gegenseitig (indirekte Effekte), wechseln ihre Bedeutung je nach Kontext (Interaktion) und je nach Ausprägung (Nichtlinearität). Maschinelle Lern-Algorithmen können hier das Management unterstützen, wertevolle Informationen aus dem Ozean an Daten zu extrahieren.

Sie haben Fragen? Lassen Sie mich es wissen!

Frank Buckler

p.s. Weiterführendes zu NEUSREL und die Universelle Strukturmodelierung finden Sie hier.

Datenqualität bereinigen durch Machine Learning

By | Allgemein

Datenqualität bereinigen durch Machine Learning

Neue, wirksamere Wege zum Vermeiden von Bad Response Effekten, Sampling-Bias, und schwankenden KPI’s.

Manche Befragte klicken sich in Windeseile, manche erratisch durch den Fragebogen. Die Stichprobe einer Befragung ist oft weit weg von einer Zufallsauswahl. Übermäßig Quotierung verschärft das Problem statt zu lösen. Interne Auftraggeber fragen sich des Öfteren, warum ein NPS (oder andere KPI‘s) gefallen oder gestiegen ist und finden keine sinnvolle Begründung. Zweifel in die Datenqualität kann das Vertrauen in eine ganze Studie zu nicht machen. Doch es gibt neue Wege dem zu entgegnen.

Das Beispiel Bad Response Effekte

Viele Marktforscher haben ihre eigenen „praktischen“ Regeln entwickeln, dem zu entgegnen. Zu kurze Befragungszeiten oder zu viele Zustimmungen führen zum Ausschluss eines Befragten. Es werden auch gelegentlich Testfragen eingeführt, um zu prüfen ob ein Befragter „aufpasst“.

Das Problem: Was genau ist die richtige Befragungszeit bei der ein Fall ausgesondert werden sollte? Bei welcher Zustimmungsquote unterscheidet sich ein Fan von einem unehrlichen Befragten? Was genau sagt die Testfrage wirklich über das Befragungsverhalten der Person?

Die Antwort auf diese Frage ist unbekannt und ist mit herkömmlichen Mitteln kaum aus den Daten zu beantworten.

Selbstlernende Analysemethoden – auch unter dem Trendwort „Machine Learning“ bekannt, bieten die Möglichkeit unbekannte, komplexe Zusammenhänge zwischen Indikatoren und ihren Auswirkungen aus Daten zu erlernen.

Bad Response Indikatoren sind etwa die Interview-Dauer, die Antwort auf eine Trick/Konsistenzfrage oder die Anzahl gleicher Antworten hintereinander u.v.m. Der Trick versucht nun nicht mehr eine Bedeutung (= Einfluss) dieser Indikatoren auf die Ergebnisse (willkürlich) anzunehmen, sondern den kausalen Einfluss aus den Daten herauszulesen. Dies ist mit Machine-Learning-basierenden Ursache-Wirkungsanalysen (insb. NEUSREL) möglich. Die Analyse ergibt beispielsweise folgende Ergebnisse. In dem Plot sieht man, dass die Kundenzufriedenheit extrem für Interviewlängen untern einer bestimmten Minutenzahl in die Höhe schießen (Skala ist hier auf 100 normiert).

diagrammsatisfaction

Das ermöglicht es uns sinnvolle Entscheidungsregeln abzuleiten. Daneben sehen Sie einen Scatterplot der gleichen Variablen und sehen einen anderen Zusammenhang. Eventuell sind die Speeder jüngere Menschen, die perse unzufriedener mit dem Anbieter sind. Das Machine Learning liefert also kausal bereinigte Erkenntnisse statt die üblichen Scheinkorrelationen.

Werden die Daten für eine Treiberanalyse verwendet, empfiehlt es sich sogar die suspekten Fälle gar nicht auszusondern. Dadurch dass die Bad Responses durch die Indikatorvariablen gut beschrieben sind, rechnet eine Machine-Learning-basierte Treiberanalyse (insb. NEUSREL) die Bad Response-Effekte einfach raus. Das Aussondieren von Fälle würde mit Verfälschungseffekte einhergehen, die nicht nachprüfbar sind.

Das Beispiel Sampling-Bias

Stichprobenverzerrungen treten beispielsweise durch sich nicht-zufällig unterscheidende Teilnahmebereitschaften der Probanden auf. Indem Sie Indikatoren für diese Teilnehmerbereitschaft messen –etwas Alter, Geschlecht, Einkommen oder auch „Mitteilungsdrang“-  können Machine-Learning-basierte Ursache-Wirkungsanalysen den Zusammenhang zwischen Indikator und Antwortverhalten bestimmen. Wenn Sie nun beispielsweise zu wenige Senioren im Sample haben, kennen Sie nun genau die Verzerrung dadurch auf jede Frage und können Sie korrigieren.

Für die Verwendung der Daten in Treiberanalysen genügt es gute Indikatoren für den Sampling-Bias Teil des Treibermodells zu machen, denn dieses rechnet alle Bias-Effekte automatisch heraus. Dies erlauben jedoch nur Machine-Learning-basierte Treiberanalyse (insb. NEUSREL). Somit wird eine zu starke Quotierung vermieden, die selbst neue Quotierungs-Bias erzeugen.

Das Beispiel Schwankende KPI‘s

Wenn Werte von KPI’s wie NPS, TRIM, etc. sich unerklärbar von Welle zu Welle ändern, kann das zwei Ursachen haben:

  1. Eine oder mehrere zentrale Ursache des Treibers hat/haben sich geändert. Dem kann man nur dann auf den Grund gehen, wenn man mit Treiberanalysen verstehen lernt, was wirklich das KPI treibt.
  2. Die beschriebenen Verzerrungen wie etwas Bad Response oder Sampling Bias haben sich zwischen den Wellen geändert. Etwas mehr Senioren, etwas mehr Männer, etwas weniger Probanden mit „Mitteilungsdrang“ – es gibt viele Ursachen dafür. Diese können einzig und allein dadurch kontrolliert werden, dass wir wie oben beschrieben Indikatoren für Verzerrungen mit messen.

Um den wahren unverzerrten KPI Wert über alle Befragten zu ermitteln, benötigt man ein Treibermodel, dass möglichst präzise den KPI anhand der Treiber, der Kontextvariablen und der Indikatoren für Verzerrungen vorhersagen können. Verfahren wie NEUSREL sind universell einsetzbar egal wie die Variablen verteilt sind oder Nichtlinearitäten in sich tragen. In der Regel erzielen sie zudem 20-80% höhere Erklärungsgüte als herkömmliche lineare Modelle.

Das Treibermodell wird dann zur Simulation genutzt. Ändert man die Werte der Indikatorvariablen so, dass der Standardmittelwert entsteht, dann liefert das Treibermodel Schätzwerte für jeden Befragten, die dann aggregiert den korrigierte KPI ergibt.

Fazit

Machine-Learning-basierte Ursache-Wirkungsanalysen bieten neue Möglichkeiten Datenqualität zu verbessern. Sie führen zu einer konsistenten objektiven Behandlung von Bad Response und Sampling-Bias. Sie führen zu plausibleren, weniger erratischen Änderungen von KPI’s zwischen Wellen und einen nachprüfbaren Qualitätscheck der Feldorganisation. Als schönen „Nebeneffekt“ erhält man durch das Modeling ein Verständnis für Erkenntnisse die sie ohne dem nicht hätte: Einblicke in die kausalen Zusammenhänge ZWISCHEN den Daten – Aussagen darüber, welche Bedeutung Marketingaktionen oder Kundeneinstellungen besitzen. Die selbstlernende NEUSREL-Treiberanalyse macht‘s möglich.

p.s. Weiterführendes zu NEUSREL und die Universelle Strukturmodelierung finden Sie hier.

Retouren-Quoten senken mittels Kausalanalysen.

By | Allgemein

Wie der führenden Retourenforscher Professor Walsh durch Kausalanalysen effektiven Hebeln zum Senken der Retourenquote auf die Spur kam.

Die extrem hohen Retouren-Quoten im eCommerce sind ein ungelöstes Problem. Ein Problem das besonders durch die knappen Margen brisant bleibt. Herkömmliche BI-Analyseergebnisse stellten sich in der Vergangenheit sehr oft als irreführend heraus. Den Grund nennt man „Scheinkorrelation“.

So stellten wir beispielweise fest, dass quergestreifter Kleidung weniger zurückgesendet wurde. Eine klassische Scheinkorrelation: denn die Querstreifen kamen vor allem bei preiswerten Produkten vor, deren Retourenquote i.d.R. geringer war. Unter sonst gleichen Umständen werden quergestreifte Waren MEHR -nicht weniger- zurückgesendet. Eine Erkenntnis, die Sie nur durch Kausalanalysen ermitteln können.

Der Retouren-Versteher

Genau aus diesem Grund hat Professor Walsh von der Universität Jena mit seinem Forscherteam seit Jahren auf den Einsatz von Kausalanalysen gesetzt. In diversen Studien identifizierte er damit für die Branche neue Erkenntnisse.

So deckte er in der im Harvard Business Manager erschienen Studie auf, dass sich der Einsatz von Sanktionen und Retourhürden langfristig nicht auszahlt. Und er zeigte einen klaren strategischen Weg auf: Die Retourenquoten sinken mit der Möglichkeit das Produkt vor dem Kauf genauer kennenzulernen. Virtuelle TryOn’s, Avatare und konkrete Produktbewertungen von Peers sind enorme Hebel. Letzteres ist ein Hebel mit extrem hohen ROI, da das Invest vergleichsweise gering ist.

Selbstlernende Kausalanalyse deckt auf

Mit seiner aktuellen Studie setzte das Forscherteam, um Gianfranco Walsh noch einen drauf. Sie identifizierten durch kausalanalystische Betrachtung von Befragungsdaten von Konsumenten, dass allein die kundenbezogene Reputation eines Anbieters einen signifikanten Einfluss auf die Retourenquote hat.

Diese Reputation wird bestimmt durch folgende Komponenten: Kundenorientierung, Guter Arbeitgeber, Finanziell Solide, Wahrgenommene Produktqualität und Gesellschaftliche Verantwortung. Obwohl dieses Maß als sehr abstrakt erscheinen mag, ermöglicht das neue Kausalmodell, sehr präzise beispielsweise den Effekt einer schlechten Presse (z.B. bezüglich Kundenorientierung) zu messen und die Auswirkungen auf die Marge zu quantifizieren.

„Es gibt zudem eine Reihe von unternehmensindividuellen Retourenhebel. Die ermitteln Sie am erfolgreichsten durch eine selbstlernende Kausalanalyse – so wie es NEUSREL ermöglicht“ empfiehlt Walsh.

p.s. Weiterführendes zu NEUSREL und die Universelle Strukturmodelierung finden Sie hier.

Kausalanalyse – die bessere Treiberanalyse

Kausalanalyse – die bessere Treiberanalyse

By | Allgemein

Treiberanalysen: Marketingverantwortliche und Marktforscher, die in Daten die wirksamsten Maßnahmen zu finden hoffen, sind mit dutzenden statistischen Methoden konfrontiert.

Vor vielen Jahrzehnten würden regressionsbasierte Techniken in „Treiberanalysen“ umbenannt, um deutlich zu machen, worum es hier geht: nämlich herauszufinden, welche Faktoren den Erfolg treiben. Natürlich gibt es hier heute neuere, wirkungsvollere Methoden. Firmen können sich teure Fehler ersparen, indem sie von der Treiberanalyse zur Kausalanalyse wechseln. Lesen Sie hier, warum!

Das Problem mit Treiberanalysen

Treiberanalysen waren ein wichtiger Schritt, um Firmen vor Scheinkorrelationen und damit verbundenen riskanten Fehlern zu bewahren. Tatsächlich beschreibt der Begriff im Wesentlichen die Regressionsanalyse oder ähnliche ökonometrische Techniken und besitzt damit deren Limitationen.

Unflexibel

Regressionstechniken bewerten die Parameter einer festen Formel, welche die Wirkung bestimmter Faktoren auf das Ergebnis berechnet. Innerhalb dieses Modells (=Formel) gibt es die Annahme, dass die Faktoren voneinander unabhängig sind. Das heißt, dass die Parameter – unabhängig von der Situation – stets die gleichen sind.

Beispielsweise führt die Zugabe einer Flasche Wasser zu einem bestimmten Wachstum eines Baumes, unabhängig davon, wie viel Wasser der Baum bereits erhalten hat oder ob er ausreichend Sonne erhält. Wie das Beispiel zeigt, können solche Annahmen ziemlich unrealistisch sein. Die Techniken sind nicht in der Lage, Annahmen anhand empirischer Daten zu ändern und berücksichtigen zumeist nicht die nichtlinearen Eigenschaften der Realität.

Nur direkte Effekte

Darüber hinaus entstammen Regressionstechniken einer einfachen Welt: Faktoren wirken auf das Ergebnis – und Punkt. Wenn eine TV-Kampagne Google AdWords-Anzeigen auslöst, und die Klicks auf diese Anzeigen den Verkauf in die Höhe treiben, würde die Regressionsmethode dem „TV-Faktor“ einen geringeren Wirkungsparameter zuteilen, weil die Methode die Verkäufe perfekt mit Google AdWords erklären kann.

Aber in den meisten Fällen in der Praxis beeinflussen die Faktoren einander, so wie das Fernsehen auf AdWords wirkt. Wenn Analysten dies nicht berücksichtigen, messen diese nicht die volle Wirkung, sondern nur die unmittelbare Wirkung.

Treiberanalysen sind einfach nicht mehr der aktuelle Stand. Sie wurden von UNILEVER erstmals in den 1920er Jahren verwendet. Das heißt, es gibt sie schon fast ein Jahrhundert lang! Firmen benötigen eine methodologische Aktualisierung, um im 21. Jahrhundert wettbewerbsfähig zu sein.

Warum eine Lösung der Treiberanalyse-Probleme so wichtig wäre

Was wäre, wenn wir die volle und nicht nur die unmittelbare Wirkung bemessen könnten? Wenn wir Daten durch ein selbstlernendes System analysieren könnten? Eines dass realistische, aber unbekannte Eigenschaften wie Sättigungseffekte oder moderierende Faktoren entdeckt. Dann könnten wir deutlich realistischer verstehen, was den Erfolg antreibt und warum Kunden sich für eine bestimmte Marke entscheiden.

Wichtiger noch: Wir wären nicht länger genötigt, unrealistische Annahmen oder schlecht begründete Hypothesen zu erstellen. Wir hätten wirkungsvollere Empfehlungen für die Optimierung von Verkaufs- und Marketingmaßnahmen.

Die Lösung: Die selbstlernende Kausalanalyse

Die Wurzeln der Kausalanalyse reichen ebenfalls hundert Jahre zurück. Alles begann mit experimentellen Testdesigns. Neben der Tatsache, dass die Tests vieler geschäftlicher Faktoren viel zu teuer sind, sind die meisten realen Experimente mit einem weiteren Problem konfrontiert:

Es gibt weitere Ergebnistreiber, die nicht perfekt kontrolliert (d.h. konstant gehalten) werden können (z. B. durch perfekt randomisierte Tests). Daher wird selbst in Experimenten eine Art „Treiberanalyse“ benötigt, um die Wirkung von Faktoren, einschließlich der experimentellen Maßnahmen, bemessen zu können.

Die klassische Kausalanalyse

In den 1960er und 70er Jahren wurde die Regression um Pfadmodelltechniken erweitert („Structure Equation Modeling“ – SEM, „Partial Least Squares“ – PLS), die nicht nur die direkten, sondern die gesamte Wirkung von Beweggründen messen.

Später, in den 1990er Jahren, wurden Bayessche Netze (oder gerichtete azyklische Graphen – „Direct Acyclic Graphs“) entwickelt, die über SEM und PLS hinaus in der Lage sind, (in einfachen Netzwerken) die kausale Wirkungsrichtung zwischen den Variablen in den Daten zu erkennen.

Das Zeitalter des Machine Learning

All diese Methoden haben die gleiche Einschränkung: Es sind keine selbstlernenden Systeme, und die Forscher sind gezwungen, ein fixes Modell anzunehmen. Meist wird Linearität und die Unabhängigkeit der Faktoren vorausgesetzt (erinnern Sie sich an das Baum-Beispiel!).

Durch den von der NEUSREL-Software implementierten Universelle Strukturmodellierung wurde dies 2008 geändert. USM ist ein echter Durchbruch für praktische Anwendungen, da konventionelle Kausalanalysen bislang Annahmen erforderten, die in einem unternehmerischen Kontext von niemandem gerechtfertigt werden könnten.

Die gute Nachricht: Die selbstlernende Kausalanalyse ist erwiesen, verlässlich, erprobt und getestet

Seit 2008 gab es hunderte Praxisprojekte, die mithilfe der Universellen Strukturmodellierung und NEUSREL durchgeführt wurden. Viele renommierte Wissenschaftler haben die Methodik bestätigt, dutzende Artikel wurden veröffentlicht und angesehene Marken wie Audi, Deutsche Bank, L’Oréal, P&G, Unilever und viele weitere setzen diese Techniken wirksam ein.

Diese Firmen verstehen um bis zu 300 Prozent besser, warum die Kunden so reagieren, wie sie reagieren. Sie gelangen zu völlig neuen Einsichten. Sie erkunden Nichtlinearitäten und entdecken Sättigungseffekte und Optima in ihren Daten. Sie lernen, wie Faktoren und Bedingungen interagieren und wie sich Zielgruppen natürlich in Segmente unterteilen lassen.

Vorallem aber entdecken sie diese Insights, ohne vorher zu vermuten. Das ermöglicht es den Firmen, eine enorme Lernkurve zu erreichen.#

p.s. Weiterführendes zu NEUSREL und die Universelle Strukturmodelierung finden Sie hier.

Conjoint-Analyse: Preis- & Produkt-Optimierung unter Verwendung holistischer Conjoint-Analyse

Conjoint-Analyse: Preis- & Produkt-Optimierung mit Holistischer Conjoint-Analyse

By | Allgemein

Es ist ein offenes Geheimnis in der Branche: Conjoint-Analyse-Softwares liefern oft seltsame Ergebnisse, die die Analysten dazu veranlassen, Datensets und Analyse-Parameter zu optimieren, damit die Ergebnisse plausibel erscheinen. Nur das ist kein Verfahren, das zu korrekten Ergebnissen führt. Dieses Phänomen ist ein deutliches Zeichen dafür, dass mit den heutigen Conjoint-Analyse-Ansätzen noch immer etwas nicht stimmt.

Das Problem bei der Conjoint-Analyse

Es wurden viele fortschrittliche Conjoint-Analyse-Ansätze entwickelt: Es gibt ACA („Advanced Conjoint Analysis“, die partielle Feature-Profile ermöglicht), CBC („Choice Based Conjoint“, das statt Präferenz nun eine Wahlentscheidung abfragt) oder CSC („Constant Sum Conjoint“, das eine Verteilung der Auswahl ermöglicht).

Das Grundprinzip von Conjoint ist es, mehrere Auswahlexperimente durchzuführen, wobei die Beweggründe (d. h. die Produkt-Features) je Abfrage geändert werden. Aus praktischen Gründen ist es nicht möglich, alle denkbaren Feature-Kombinationen bei einem Befragten zu bemessen. Und hier entsteht das Problem, wenn die Fallzahl nicht extrem groß angelegt sind. Genau dies ist aus ökonomischen Beweggründen fast immer der Fall.

Ein Beispiel macht es klar

Stellen Sie sich eine Studie vor, bei der die aktuellen Konsumenten einer Lebensmittelmarke sich mit größerer Wahrscheinlichkeit für diese Marke entscheiden, einfach weil sie sie bereits probiert haben. Nur das Feature „hat es bereits probiert“ ist nicht Teil des Conjoint-Experiments. Sind die Features randomisiert, wird es Features oder Feature-Kombinationen mit einem höheren Anteil an Personen geben, die das Produkt bereits probiert haben.

Nachdem die aktuellen Konsumenten das Produkt auch ziemlich wahrscheinlich kaufen würden, wird die Conjoint-Analyse „denken“, dass die Features mit die den aktuellen Konsumenten mehr gezeigt wurden von einer höherer Bedeutung sind als dies tatsächlich der Fall ist. Das Problem ist weder durch Quotierung noch durch andere Vorabmaßnahmen lösbar, denn meist kennen wir nicht alle „Störfaktoren“ vorab.

Warum eine Lösung des Conjoint-Analyse-Problems so wichtig wäre

Wäre es möglich, alle beeinflussenden Faktoren eines Conjoint in Betracht zu ziehen, hätten Marktforscher mehrere Vorteile:

  • Erstens, würde es das Vertrauen in die Gültigkeit der Ergebnisse stark erhöhen. Es gäbe mehr Vertrauen darauf, dass die abgeleiteten Empfehlungen funktionieren.
  • Eine Analyse aller relevanten Faktoren würde ein holistisches Bild des Entscheidungsprozesses ermöglichen. Es würde sich nicht nur auf die Auswahlentscheidung fokussieren, sondern auch die Wirkung von Produkt-Features und Preisen auf das Markenimage sowie die Markenbekanntheit, -erwägung, -loyalität oder -empfehlung bemessen. Denn all diese Variablen wären Teil des Modells.
  • Und letztlich wäre eine solche Studie eine einheitliche Quelle für die verschiedensten Informationsbedürfnisse. Sie könnte zur Markenpositionierung und Segmentierung dienen und bei Fragen zur Customer Journey nützlich sein.

Die Lösung: Holistische Conjoint-Analyse

Für eine Holistische Conjoint-Analyse müssen wir mehrere Informationselemente einholen:

  • Mehrere Auswahlaufgaben pro Befragtem mit randomisierten Feature-Profilen
  • Das Markenimage und die Einstellung dazu
  • Daten über das eigentliche Interesse wie Kaufabsicht, Bereitschaft zur Informationseinholung, Markenerwägung
  • Daten zu den Befragten, darunter Demografien, ihre Situation und Geschichte. Sind sie bereits Kunden? Sind sie auf der Suche nach Schnäppchen? Sind sie sich über die Kosten im Klaren? All die Dinge, die sich auf das gewünschte Ergebnis auswirken können.

Die alles entscheidende Frage ist: „Wie können wir herausfinden, welche Veränderungen das Ergebnis verbessern könnten?“ Bei konventionellen Methoden ist das Problem, dass sie auf die Parameter eines bekannten Modells hin konstruiert sind.

Was es jedoch braucht, ist eine Methode, die anhand der Daten ein zuvor unbekanntes Modell erstellt, ein Modell, das indirekte Kausalwirkungen miteinschließt und Nichtlinearität oder die unbekannten interaktiven Zusammenhänge nicht vernachlässigt. Genau das ist die Stärke des „Universelle Struktural Structure Modeling“, das die NEUSRELTM Software bietet.

Die gute Nachricht: Die holistische Conjoint-Analyse ist erwiesen, verlässlich, erprobt und getestet

Wir haben dutzende Studien über die Gültigkeit von holistischen versus konventionellen Conjoint-Analysen verglichen und festgestellt, dass der Wert der Gültigkeit, was die Erklärungskraft betrifft, zwischen 25 % und 85 % angestiegen ist. Die Ergebnisse zeigen typischerweise eine höhere Plausibilität und ermöglichen perfekte Empfehlungen hinsichtlich der Preisgestaltung und Produktoptimierung, die natürlich zur Positionierungs-, Segmentierungs- und Marketingstrategie-Beratung passen, da sie aus einer einzigen Datenquelle und einem einzigen Kausalmodell stammen.

p.s. Weiterführendes zu NEUSREL und die Universelle Strukturmodelierung finden Sie hier.

Copy-Tests: Wie Kausalanalyse in Copy-Tests die Werbewirksamkeit verbessern

Copytest / Pretest: Wie Kausalanalyse Werbewirkung maximiert

By | Allgemein

Copytest: Zahlreiche Studien haben gezeigt, dass sich rund 70 % der Werbewirkung weder durch die Höhe der investierten Ausgaben, noch durch den gewählten Medien-Mix erklären lassen. Stattdessen dreht sich alles um effiziente Creatives. Aber wie lässt sich eine wirkungsvolle Anzeige erstellen? Selbst hier sind rund 30 % Kunst und 70 % exakte Wissenschaft. Dieser Artikel behandelt eine erwiesene, auf Copytests basierende Methode, die Werbewirksamkeit von Werbemitteln deutlich steigert.

Das Problem bei Copytests

Copytests sind gängige Verfahren, und doch erfüllt ein Großteil der Kampagnen nicht die Erwartungen. Was stimmt hier also nicht? In den vergangenen Jahren erhielt das Copytest-Instrumentarium viele interessante Untersuchungsmethoden hinzu.

Eye-Tracking-Systeme, Hautwiderstandsprüfungen, Neuromarketing mit EEG- und fMRT-Messungen, Gesichtsemotions-Coding und Implizierte Reaktionstests (IRT) sind gute Methoden, um herauszufinden, was der Zielkunde von einer Anzeige hält und wie es ihm dabei geht.

Aber etwas fehlt hier

Bei der Interpretation dieser Messungen meinen Sie zu wissen, wie die Messung mit dem Ergebnis, das Sie zu beeinflussen versuchen, in Verbindung steht. Aber das ist nicht der Fall. Keine einzige Messung kann Erfolg garantieren. Darüber hinaus kann sich die Art und Weise, wie die Komponenten miteinander interagieren, je nach Bereich, Produkt oder Situation unterscheiden.

Eine Werbung kann stimulierend sein, jedoch gibt es Produkte und Situationen, wo diese Eigenschaft genau die falsche ist. Bislang bauen alle Erhebungen auf reinen Vermutungen darüber, wie die Kennzahlen mit dem eigentlichen Ziel in Verbindung steht.

Warum eine Lösung des Copytest-Problems so wichtig wäre

Würden wir die geheime Formel entschlüsseln, mit der wir aufgrund der Daten aus den Copytests die Ergebnisse wie eine Kaufabsicht oder eine Markenerwägung vorhersagen könnten, wären wir in der Lage, Creatives so zu optimieren, das das bestmögliche Ergebnis erzielt würden.

Wir könnten für jede Marke ein individuelles Handbuch mit Dos and Don’ts beim Anzeigendesign erstellen. Ein solches Handbuch wäre unsere Leitplanke auf dem kreativen Weg der Werbewirkung.

Die effiziente Lösung: Copytests mit Kausalanalysen ausgewertet

Für einen modellbasierten Copytest müssen wir während eines Copytests mehrere Informationselemente einholen:

  • Daten über die unmittelbare Wirkung eines Copytests – neue Messansätze wie IRT und Facial Coding können hier eine kostengünstige und bedeutende Rolle spielen.
  • Informationen darüber, wie die unmittelbare Wirkung die Einstellung gegenüber der Marke verändert und wie sie die Erinnerung an die Anzeige bzw. deren Wiedererkennung erhöht.
  • Daten über das eigentliche Interesse wie Kaufabsicht, Bereitschaft zur Informationseinholung, Markenerwägung
  • Informationen zu den Befragten, darunter Demografien, ihre Situation und Geschichte. Sind sie bereits Kunden? Waren Sie auf der Suche nach Schnäppchen? Kennen sie die Kosten? All die Dinge, die sich auf das gewünschte Ergebnis auswirken können.

Die alles entscheidende Frage ist: „Wie können wir herausfinden, welche Veränderungen das Ergebnis verbessern könnten?“ Bei konventionellen Methoden ist das Problem, dass sie auf die Parameter eines bekannten Modells hin konstruiert sind.

Was es braucht, ist eine Methode, die anhand der Daten ein zuvor unbekanntes Modell erstellt, ein Modell, das indirekte Kausalwirkungen miteinschließt und Nichtlinearität oder die unbekannten interaktiven Zusammenhänge nicht vernachlässigt. Genau das ist die Stärke des „Universelle Strukturmodellierung“, das die NEUSRELTM Software bietet.

Die gute Nachricht: Kausalanalyse-basierte Copytests sind erwiesen, verlässlich, erprobt und getestet

Die Ergebnisse der kausalanalyse-basierten Copytests öffnen regelmäßg Marktforschern und Marketeers die Augen: Bei einer jüngsten Studie wurde eine Getränkewerbung analysiert. Sie hatte eine starke Wirkung und jeder Betrachter mochte sie. Leider schaffte sie es nicht, die Konsumenten zum Handeln zu bewegen. Wir haben herausgefunden, dass der Werbespot nicht-zielführende Gefühle weckt, und somit die Ausrichtung der Kreation geändert werden musste, um stimulierende Gefühle zu wecken.

Wir konnten zudem in den Kausalanalyseergebnissen sehen, dass in der Werbung die Markenverankerung fehlte – besonders auch am Ende des Spots, um die Erinnerung daran zu verbessern. Der optimierte Werbespot brach alle Rekorde und wurde zur leistungsstärksten Werbung in der Geschichte dieser Marke.

Sie fragen sich ob alternative Ansätze zu ähnlichen Empfehlungen geführt hätten? Der grundlegende Unterschied zwischen diesem und jedem anderen Ansatz ist: Wir wissen und können an Fakten (statistisch) nachweisen, dass unsere Empfehlungen die Hauptfaktoren bei der Maximierung von Marktergebnissen sind. Können dies andere Ansätze auch? Mit der selbstlernenden Kausalanalyse ersetzen Sie das „Hoffen“ mit „Wissen“.#

p.s. Weiterführendes zu NEUSREL und die Universelle Strukturmodelierung finden Sie hier.