Forschung
Mimikanalyse
Mit der automatischen Mimikanalyse können emotionale Reaktionen in Echtzeit erfasst werden. Das Instrument kommt ohne störende Verkabelung aus, man braucht lediglich eine Webcam, und die Ergebnisse sind intuitiv verständlich. Die Mimikanalyse ist eine ideale Ergänzung zu herkömmlichen Befragungen, um auch solche emotionalen Reaktionen zu erkennen, die Befragte nicht bewusst bemerken, nicht erinnern und nicht artikulieren können oder wollen. Mit der Mimikanalyse lässt sich so beispielsweise der kreative Prozess der Werbefilmgestaltung objektiv bewerten, unterstützen und optimieren.
Ein Forschungsprojekt, das den Innovationspreis der Deutschen Marktforschung gewann
Emotionen sind spontane Reaktionen, beispielsweise auch auf Werbespots oder Produkte. Und weil Emotionen stets auch eine soziale Funktion haben, spiegeln sie sich im Gesichtsausdruck wider. So erkennen unsere Mitmenschen, was wir gerade empfinden.
Die Mimikanalyse kann Emotionen in Echtzeit erfassen, ohne Verzerrungen durch nachträgliche Befragungen oder störende Verkabelung. Um die emotionalen Reaktionen auf Werbung oder Produkte in Erfahrung zu bringen, sind lediglich Webcam und Internetverbindung notwendig.
Für die Mimikanalyse werden wichtige Gesichtsregionen wie Augen und Mundwinkel detektiert und Veränderungen in diesen Regionen im Hinblick darauf, wie angenehm bzw. unangenehm das gerade Erlebte empfunden wird, interpretiert.
Die Methode hat das NIM gemeinsam mit dem Fraunhofer IIS in Erlangen und Emotionspsychologen der Universität Genf entwickelt. Sie erkennt kleinste Veränderungen im Gesicht, misst die Bewegungen und gleicht sie auf Pixelniveau mit den mimischen Ausdrücken ab, die in der Datenbank hinterlegt sind.
Die Mimikanalyse des NIM hat 2012 den Innovationspreis der Deutschen Marktforschung gewonnen.
Kooperationspartner
- Dr. Jens Garbas
- Prof. Dr. Klaus Scherer, Universität Genf
- Dr. Marcello Mortillaro
Publikationen
- Scherer, K. R., Mortillaro, M., Dieckmann, A., Unfried M., & Ellgring, H. (2021). Investigating appraisal-driven facial expression and inference in emotion communication. Emotion, 21(1), 73-95.
- Seuss, D., Hassan, T., Dieckmann, A., Unfried, M., Scherer, K. R., Mortillaro, M., & Garbas, J. (2021). Automatic Estimation of Action Unit Intensities and Inference of Emotional Appraisals. IEEE Transactions on Affective Computing.
- Scherer, K. R., Ellgring, H., Dieckmann, A., Unfried, M., & Mortillaro, M. (2019). Dynamic facial expression of emotion and observer inference. Frontiers in Psychology, 10, 508.
- Garbas, J. U., Ruf, T., Unfried, M., & Dieckmann, A. (2013). Towards robust real-time valence recognition from facial expressions for market research applications. Proceedings of the Humaine Association Conference on Affective Computing and Intelligent Interaction, 570–575.
- Seuss, D., Hassan, T., Dieckmann, A., Unfried, M., Scherer, K. R., Mortillaro, M., Garbas, J., (2021). Automatic Estimation of Action Unit Intensities and Inference of Emotional Appraisals, IEEE Transactions on Affective Computing.
- Scherer, K. R., Mortillaro, M., Dieckmann, A., Unfried M., & Ellgring, H., (2021). Investigating appraisal-driven facial expression and inference in emotion communication, Emotion, 21(1), 73–95.
- Dieckmann, A., & Unfried, M. (2020). Thrilled or Upset: What Drives People to Share and Review Product Experiences?, NIM Marketing Intelligence Review, 12(2), 56–61.
- Seuss, D., Dieckmann, A., Hassan, T., Garbas, J. U., Ellgring, J. H., Mortillaro, M., & Scherer, K. (2019). Emotion expression from different angles: A video database for facial expressions of actors shot by a camera array. Proceedings of the 8th International Conference on Affective Computing and Intelligent Interaction (ACII 2019) (pp. 35–41). Cambridge, United Kingdom.
- Scherer, K. R., Ellgring, H., Dieckmann, A., Unfried, M., & Mortillaro, M. (2019). Dynamic facial expression of emotion and observer inference. Frontiers in Psychology, 10, 508.
- Dieckmann, A., Unfried, M., Garbas, J., & Mortillaro, M. (2017). Automatic analysis of facial expressions in an advertising test with Chinese respondents. GfK Verein Working Paper Series, 5.
- Eyben, F., Unfried, M., Hagerer, G., & Schuller, B. (2017). Automatic multi-lingual arousal detection from voice applied to real product testing applications. Proceedings of the 42nd IEEE International Conference on Acoustics, Speech, and Signal Processing, ICASSP, New Orleans, LA, USA.
- Dieckmann, A., & Unfried, M. (2014). Writ large on your face: Observing emotions using automatic facial analysis. GfK Marketing Intelligence Review, 6(1), 52–58.
- Garbas, J. U., Ruf, T., Unfried, M. & Dieckmann, A. (2013). Towards Robust Real-Time Valence Recognition from Facial Expressions for Market Research Applications, Proceedings of the Humaine Association Conference on Affective Computing and Intelligent Interaction, 570–575. https://ieeexplore.ieee.org/document/6681491
Kontakt