Stellungnahme zum Coronavirus und Hygienekonzept bei Live Events

von Dr.Volker Bilgram & Prof. Dr. Johann Füller

Gefühle und Emotionen entscheiden darüber, welche Innovation Erfolg hat und welche nicht. Auch das beste Feature, die neueste Technologie und ein objektiv überlegenes Produkt sind keine Garanten für den Erfolg im Markt. Entscheidungen werden oft nicht rational getroff en als Ergebnis kognitiver Durchdringung und bedachter Prozesse, sondern intuitiv, schnell und emotional. Diesen häufig auch als Bauchgefühl bezeichneten „Shortcut“ in der Entscheidungsfindung zu verstehen gilt als heiliger Gral in der Verhaltensforschung und als Schlüssel für ein tiefes Verständnis für Konsumenten.

Die Erkenntnis der Bedeutung von Emotionen ist keine neue. In der Werbebranche werden Werbebotschaften seit Jahrzehnten auf ihre emotionale Wirkung bei der Zielgruppe getrimmt, die Marktforschung experimentiert mit neurowissenschaftlichen Ansätzen, Designer nutzen die Anziehungskraft emotionaler Produkte in ihrer Gestaltung und im Zuge der digitalen Transformation entwickeln Heerscharen von UX Designern nicht nur Features, sondern ganzheitliche Erlebnisse rund um Produkte und Services. Was sich geändert hat sind die verfügbaren Technologien und damit einhergehende Vorteile bei Präzision, Geschwindigkeit und Skalierung. Künstliche Intelligenz und insbesondere die Möglichkeiten durch das Trainieren neuronaler Netze (sogenanntes Deep Learning) haben in den vergangenen Jahren für enorme Fortschritte beim maschinellen Erkennen und Verarbeiten von Emotionen gesorgt.

Warum Emotionserkennung bislang noch nicht recht klappte

Das Manko bisheriger Bemühungen, Emotionen stärker in den Mittelpunkt unternehmerischen Handelns zu stellen, ist relativ einfach zu beschreiben: Emotionen sind schwer zu erfassen. Bei explizitem Fragen nach emotionalen Zuständen beeinflusst man aufgrund der Bewusstmachung massiv den aff ektiven Zustand der befragten Person (Beispiel: Eine Person in grundsätzlich entspanntem Zustand kann durch die Nachfrage in einer eher artifi ziellen Befragungssituation und die dadurch ausgelösten kognitiven Prozesse an Entspanntheit einbüßen). Durch Beobachtung gelingt die Erhebung von Emotionen, jedoch nur mit der nötigen psychologischen Ausbildung und Erfahrung und bei relativ hohem Zeitaufwand. Eine Skalierung ist bei der manuellen Analyse beinahe ausgeschlossen (Beispiel: Ein Psychologe beobachtet eine Person und deren Regungen, Mimik und Gestik während eines Interviews). Eine direkte Erhebung mittels apparativer Verfahren, die z.B. elektromagnetische Aktivität neuronaler Prozesse messen, ist meist mit einem nicht unerheblichen komplexen Aufbau (Anbringung von Sensoren am Kopf, Verkabelung etc.) verbunden, der nur unter Laborbedingungen und damit nicht im Feld möglich ist.

Die Vorteile von KI bei der Emotionserkennung

Neue Ansätze wie etwa die Emotion Analytics Technologie des HYVE Startups TAWNY machen das Erfassen und Verstehen von Emotionen einfacher, schneller, leicht skalierbar und bisweilen sogar präziser. So braucht es kein KI Vorwissen, um die Anwendung zu nutzen, und eine einfache Smartphone-Kamera reicht aus, um Videos zu erstellen, die sich für die Analyse durch die KI eignen. In wenigen Schritten können dann auch große Datensätze in kurzer Zeit analysiert werden. Während das Ziel von KI in vielen Anwendungen zunächst einmal ist, ähnlich gute Ergebnisse zu erzielen, wie sie auch ein Mensch erreichen könnte, kann die KI bei der Emotionserkennung sogar feine Nuancen erkennen, die dem Menschen verborgen sind. Z.B. ist es dem Algorithmus möglich, die Herzfrequenz einer Person überaus akkurat lediglich auf Basis der Videoaufnahmen des Gesichts zu bestimmen und in sein Modell zu integrieren. Für das menschliche Auge nicht wahrnehmbare Farbveränderungen der Haut sowie minimale Bewegungen im Rhythmus des Herzschlags werden dabei als Variablen in das Modell einbezogen.

Wie macht man Maschinen empathisch

KI-basierte Emotionserkennung kann Input-Daten (z.B. Videoaufnahmen, Sensordaten) einen laut Algorithmus wahrscheinlichen affektiven Zustand (z.B. glücklich, traurig, wütend) als Output zuordnen. Dazu ist der Algorithmus in der Lage, weil er mit sehr vielen Input-Output-Paaren trainiert wurde, also z.B. mit Videoaufnahmen von glücklichen und von unglücklichen Personen. Statt dem Algorithmus zu erklären, wann ein Mensch glücklich oder unglücklich ist (z.B. Mundwinkel nach oben oder unten), überlässt man diese Aufgabe beim Deep Learning dem Algorithmus selbst. Mit sehr vielen Trainingsdaten baut er sich ein immer besseres Modell, das zu bestimmen versucht, ob eine Aufnahme z.B. einen gerade glücklichen Menschen zeigt. Die benötigten Trainingsdaten können unter anderem durch Experimente erhoben werden, in denen die Bedingungen so manipuliert werden, dass die Versuchsperson verschiedene affektive Zustände erlebt. Setzt man die Versuchsperson z.B. unter Druck, indem man sie ein schwieriges Level bei Tetris spielen lässt, lassen sich Videoaufnahmen erheben, die Menschen in Stresssituationen zeigen. TAWNY arbeitet mit verschiedenen Modellen, um Stimmungen, Emotionen und Zustände zu beschreiben. Ein sehr intuitiv verständliches Modell ordnet dabei Zustände in eine Matrix mit den Dimensionen Valenz (negativ – positiv) und Erregung (gering – hoch) ein und kann so beispielsweise Zustände wie die Euphorie und Freude eines Fußballfans oder die Wut eines Kunden im Gespräch mit einem wenig intelligenten Chatbot einer Hotline verorten (siehe Abbildung).

Wie setzen wir KI-basierte Emotionserkennung in der Praxis ein?

Grundsätzlich bietet der „Emotion Layer“, der zusätzlich zu den explizit erhobenen Daten wie z.B. der Zufriedenheit mit einem Produkt erhoben wird, eine zusätzliche implizite Erkenntnisebene. Die zusätzlichen emotionsbezogenen Daten erlauben es, besonders relevante Sequenzen überhaupt erst zu identifizieren, andere Daten einzuordnen und Muster zu erkennen, welche Emotionen einen Effekt auf abhängige Variablen (z.B. der Kaufwahrscheinlichkeit oder andere Verhaltensweisen) haben. Typische Anwendungsfälle im Innovationskontext sind Prototypen- und Produkttests, explorative Interviews oder Customer Journey Analysen. Ein Beispiel aus der Innovationspraxis: Für einen Kunden in der Kosmetikbranche entwickelten wir einen digitalen Prototyp und wollten diesen mit potenziellen Anwendern verproben. Im Rahmen einer „Thinking-aloud“ Session wurden Probanden gebeten, beim Ausprobieren des Prototyps sowie beim Lösen von typischen Aufgabenstellungen laut mitzudenken. Die Session wurde mittels Kamera aufgezeichnet und das Video anschließend von der KI analysiert und in einem Dashboard übersichtlich dargestellt. Für das Innovationsteam sehr hilfreich war, dass auch schwache und wenig nach außen gezeigte positive, freudige Sequenzen ebenso wie Stresssituationen und Unbehagen leichter registriert werden konnten. Aussagen des Probanden können durch die zusätzlichen Informationen bekräftig, bei Widersprüchen aber auch hinterfragt werden. Durch das Aufdecken von Dissonanzen können Spannungszustände in der User Experience vermieden und damit die Akzeptanz für Produkte gesteigert werden. Durch die Aggregation von Emotionen mehrerer Probanden über bestimmte Phasen der User Experience bekommt der Innovationsforscher auch ein gutes Bild davon, welche Aspekte der Lösung (z.B. Features) noch überarbeitet werden sollten und welche bereits ein gutes Kundenerlebnis bieten. Im direkten Vergleich können so auch verschiedene Varianten in A/B Tests verglichen und isolierte Attribute auf ihren Einfluss auf den Gemütszustand der Probanden untersucht werden. Analysiert man die Valenzkurven von Probanden beim Betrachten einer Produktpräsentation in Form eines Videos, so können bereits Durchschnittswerte wertvolle Hinweise geben. Die Phasen starker Steigung vor einem Maximum weisen auf Schlüsselsequenzen hin, in denen besonders emotional aufgeladene Produktattribute vorgestellt oder ton- bzw. bildgewaltige Narrative in dem Produktfilm eingesetzt wurden. Kritische Momente werden so schnell anhand von Ausschlägen, Minima/Maxima und Mustern im Zusammenspiel von Valenz und Erregung entdeckt und können im Detail analysiert werden. Benchmarks mit vergleichbaren Lösungen helfen zudem, die Ergebnisse der Emotionserkennung einzuordnen und zu relativieren.

Was ist die Zukunft von KI-basierter Emotionserkennung?

KI demokratisiert die Emotionsforschung. Was in der Vergangenheit mit erheblichem Aufwand und komplexen apparativen Aufbauten verbunden war, ist heute nur ein paar Klicks entfernt. Wenngleich die Modelle der Algorithmen bereits heute gut funktionieren, befinden wir uns auch hier erst am Anfang der Entwicklung. Das kontinuierliche Lernen der Algorithmen wird die Leistungsfähigkeit und Genauigkeit der Emotionserkennung in Zukunft rasant steigern. Auch für die Emotionserkennung gilt: wer Zugang zu großen und vor allem gelabelten Datenmengen hat, hat einen immensen Wettbewerbsvorteil und damit einhergehend die Verantwortung für die Definition und Einhaltung ethischer Prinzipien. Darüber hinaus werden Algorithmen domänenspezifisch Muster und Zusammenhänge zwischen Emotionen und relevantem Anwenderverhalten lernen. KI wird damit im Stande sein, auf Basis der gezeigten Emotionen Vorhersagen zu machen, ob ein Konsument beispielsweise eine Applikation kaufen wird. Der emotionale „Fingerabdruck“ einer User Experience wird so zum Key Performance Indicator für Innovationen.

Dr. Volker Bilgram, Managing Director, HYVE Innovate GmbH
Prof. Dr. Johann Füller, Lehrstuhl für Innovation und Entrepreneurship, Universität Innsbruck, CEO, HYVE AG