Forschung
Synthetische Befragte
Hauptergebnisse
Effizienz mit Grenzen: KI bietet erhebliche Vorteile bei der Optimierung von Marktforschungsprozessen, senkt Kosten und liefert schnelle, umfassende Erkenntnisse. Allerdings fehlt ihr die Tiefe und Nuancierung echter Verbrauchermeinungen.
Mainstream-Bias: KI neigt dazu, bekannte Marken und Mainstream-Meinungen zu bevorzugen, wodurch die Perspektiven von Early Adopters oder Nischenmärkten oft übersehen werden. Dies kann zu einem eingeschränkten und potenziell verzerrten Bild des Verbraucherverhaltens führen.
Ergänzung, kein Ersatz: Während KI hilfreiche Orientierung bieten kann, fehlt ihr die Präzision und Vielfalt für fundierte Verbraucheranalysen. Sie eignet sich daher eher als unterstützendes Tool und nicht als Ersatz für menschliche Befragte.
Generative KI revolutioniert das Marketing, insbesondere die Marktforschung. Von der Analyse von Social-Media-Stimmungen bis zur Codierung von Umfrageantworten – KI könnte die Art und Weise, wie wir Verbraucher verstehen, grundlegend verändern. Doch kann sie wirklich menschliche Erkenntnisse simulieren? Und wie verlässlich sind ihre maschinell generierten Antworten?
Ein aufkommendes Konzept ist der Einsatz „synthetischer Befragter“, bei dem KI anstelle realer Personen Umfragen beantwortet. Dies wirft jedoch wichtige Fragen auf: Sind die gewonnenen Erkenntnisse präzise genug, um Geschäftsentscheidungen darauf zu stützen? Vor allem bergen Verzerrungen und unzuverlässige Daten erhebliche Risiken für Unternehmensstrategien.
Diese Studie untersucht, ob KI-generierte Antworten tatsächlich menschliches Feedback ersetzen können. Das Potenzial ist groß, doch Vorsicht ist geboten: Das Verständnis der Stärken und Grenzen generativer KI ist entscheidend, um zu bewerten, ob sie ein wertvolles Instrument für tiefere Verbraucheranalysen ist – oder lediglich eine Abkürzung zu fehlerhaften Daten.
Methode: Vergleich von echten und KI-generierten Antworten
Um zu prüfen, ob KI menschliche Einsichten simulieren kann, entwickelte ein Forscherteam des NIM drei Umfragen zu verschiedenen Themen und verglich die Antworten von 500 realen US-Konsumenten mit denen von 500 KI-basierten Befragten. Diese wurden mithilfe von OpenAIs GPT-4 mit standardisierten Parametern erstellt.
Da GPT-4 auf großen Mengen amerikanischer Daten trainiert wurde, konzentrierten wir uns auf US-Befragte, um möglichst realitätsnahe KI-Antworten zu erhalten. Die Umfragen befassten sich mit Meinungen zu Softdrinks, Sportmarken und politischen Einstellungen in den USA.
Für jeden echten Befragten erstellten wir einen KI-„digitalen Zwilling“, der anhand von 10 demografischen Variablen – etwa Ethnie, Geschlecht, Wohnort und Beruf – die gleichen Eigenschaften nachbildete. So wurde sichergestellt, dass die KI-Antworten mit vergleichbaren Profilen generiert wurden. Zudem erhielt die KI vorangegangene Antworten, um menschliches Erinnerungsvermögen zu simulieren und eine konsistente Beantwortung zu gewährleisten.
Studie 1: Softdrink-Präferenzen – Wie gut stimmen KI-Antworten überein?
Unsere erste Umfrage untersuchte, wie sich KI-generierte Antworten von realen Konsumenten bei der Bewertung von Softdrink-Marken unterscheiden. Es wurden acht Marken analysiert: vier bekannte (Coca-Cola, Sprite, Pepsi, 7-Up) und vier weniger bekannte (Dry, Moxie, BlueSkye, Orangina).
Bei allgemeinen Fragen, etwa zu Kaufkriterien, stimmten KI- und menschliche Antworten weitgehend überein. Eine auffällige Abweichung: Die KI zeigte sich gesundheitsbewusster als der durchschnittliche Befragte.
Bei markenspezifischen Fragen traten jedoch deutliche Unterschiede auf. Während die KI bekannte Marken in der Bekanntheit korrekt einschätzte, überschätzte sie deren Kaufwahrscheinlichkeit erheblich und unterschätzte die Kaufbereitschaft für weniger bekannte Marken. Zudem gab die KI durchweg positivere Bewertungen ab als die menschlichen Befragten und zeigte weniger Variabilität in ihren Antworten.
Ein statistischer Vergleich zeigte, dass menschliche Gruppen untereinander konsistent antworteten, während sich die KI-Antworten bei 75 % der Fragen signifikant von den echten Verbraucherantworten unterschieden.
Fazit: Die KI kann allgemeine Konsumtrends widerspiegeln, doch bei spezifischen Markenpräferenzen und Kaufentscheidungen wird sie unzuverlässig.
Studie 2: Sportmarken – KI bevorzugt große Namen und übersieht Details
Ein ähnliches Muster zeigte sich in unserer Umfrage zu Sportmarken. Während sich KI und Menschen bei allgemeinen Kaufkriterien wie Preis, Komfort und Material einig waren, überbewertete die KI Faktoren wie Langlebigkeit und übersah Aspekte wie Kundenservice.
Bei markenspezifischen Fragen zeigte sich erneut, dass die KI bekannte Marken systematisch überschätzte und weniger bekannte unterschätzte. Die KI-Bewertungen waren insgesamt positiver und weniger differenziert als die der Menschen.
Unsere Analyse ergab signifikante Unterschiede in 80 % der Fragen – die menschlichen Antworten waren untereinander konsistenter als die der KI.
Studie 3: US-Wahlen – KI zeigt politische Voreingenommenheit
Unsere dritte Umfrage untersuchte, wie sich KI-Meinungen über die US-Wahlen 2024 von realen Wählermeinungen unterscheiden. Die KI wurde mit aktuellen politischen Nachrichten versorgt, um ein realistisches Meinungsbild zu erzeugen.
Ergebnis: GPT zeigte eine deutliche Präferenz für die Demokratische Partei. Die KI bewertete Joe Biden und die Demokraten durchweg positiver als menschliche Befragte. Wäre die KI ein Wähler, hätte sie Biden mit überwältigender Mehrheit unterstützt, während menschliche Antworten deutlich gespalten waren.
Beim Rückblick auf die Wahl 2020 stimmten KI- und menschliche Antworten weitgehend überein, jedoch überschätzte die KI Bidens damalige Wählerbasis. Auch sagte sie eine unrealistisch hohe Wählerloyalität voraus – 100 % für Trump und 89 % für Biden –, während Menschen niedrigere Loyalitätswerte angaben.
Fazit: Die KI war politisch voreingenommen und zeigte weniger Meinungsvielfalt als echte Wähler, insbesondere bei der Vorhersage zukünftigen Wahlverhaltens.
Zentrale Erkenntnisse
Für Marketing-Experten bietet KI spannende Möglichkeiten: Sie kann Prozesse beschleunigen, Kosten senken und große Datenmengen effizient auswerten. Die Antworten von GPT-4 wirken oft glaubwürdig und konsistent, was für die Identifikation übergeordneter Trends nützlich ist.
Doch Vorsicht ist geboten. Obwohl KI menschenähnliche Antworten simulieren kann, fehlen ihr oft die Nuancen realer Verbrauchermeinungen. Ihre Tendenz, bekannte Marken zu bevorzugen, weniger variierende Antworten zu geben und positive Meinungen zu verstärken, kann zu verzerrten Ergebnissen führen. Besonders problematisch: KI ignoriert häufig die Perspektiven von Early Adopters und Nischenmärkten, die oft Innovationen vorantreiben.
Das größte Problem: GPT unterschätzt die Komplexität menschlichen Verhaltens. Seine Antworten sind oft übermäßig konsistent und neigen dazu, populäre oder positive Meinungen zu überbetonen. Dies kann zu Fehleinschätzungen in der Marktforschung führen.
Für Verbraucher könnte KI personalisiertere und flexiblere Marketingstrategien ermöglichen. Gleichzeitig besteht jedoch das Risiko, dass KI-generierte Daten Kundenpräferenzen falsch interpretieren und zu weniger relevanten Angeboten führen.
Für die Gesellschaft stellt die Nutzung von KI in der Marktforschung ethische Herausforderungen dar. Verzerrungen – insbesondere bei politischen oder sozialen Themen – können Stereotype verstärken und bestimmte Gruppen benachteiligen. Zudem könnten traditionelle Marktforschungsberufe durch KI ersetzt werden, was neue Qualifikationen und ethische Richtlinien erfordert, um eine faire und unvoreingenommene Nutzung sicherzustellen.
4o
Projektteam
- Dr. Carolin Kaiser, Head of Artificial Intelligence, NIM, carolin.kaiser@nim.org
- Dr. Vladimir Manewitsch, Senior Researcher, NIM, vladimir.manewitsch@nim.org
Kooperationspartner
- René Schallner, Chief Founding Engineer, ZML
Publikationen
- Kaiser, C.; Manewitsch, V., Schallner, R., Steck, L: KI liebt große Namen. planung&analyse 04/2024.
- Kaiser, C., Manewitsch, V., Schallner, R., & Steck, L. (2024). Generative AI in Market Research. Can AI really simulate real people in surveys, and can it also provide reliable insights? NIM Insights Research Magazin Vol. 6 - The AI Transformation
Kontakt