12. Nov. 2025

Emotional AI

Emotionen sind ein wesentlicher Bestandteil unserer zwischenmenschlichen Interaktion. Warum sollte dann nicht auch die Interaktion mit einer KI von einer emotionalen Ebene profitieren? Hier kommt Emotional AI ins Spiel – die Kunst der KI die Emotionen des Gegenübers zu erkennen, sie zu interpretieren und dann auch entsprechend auf diese Emotionen zu reagieren.
1060 x 710 Blümel Daniel

Autor:in

Daniel Blümel

202511 Emotional AI

    Was ist Emotional AI? 

    Zur Einführung ins Thema Emotional AI stelle man sich einen Sprachassistenten vor, welcher anhand der eigenen Stimmmodulation erkennt, in welcher Gefühlslage man sich befindet. Und seine Antworten dann entsprechend anpasst. 

    Emotionen sind ein wesentlicher Bestandteil unserer zwischenmenschlichen Interaktion. Warum sollte dann nicht auch die Interaktion mit einer KI von einer emotionalen Ebene profitieren?  

    So ist Emotional AI ein Schnittpunkt zwischen den 3 Bereichen  

    • Technik, aufgrund der technologischen Komponente der KI,
    • Psychologie, wegen des emotionalen Aspekts, und
    • Ethik, weil die Interaktion auch eine ethische Ausprägung hat. 

    Emotional AI ist also die Kunst der KI die Emotionen des Gegenübers zu erkennen, sie zu interpretieren und dann auch entsprechend auf diese Emotionen zu reagieren. Weitere Begriffe, welche zu Emotional AI synonym verwendet werden, sind Affective Computing oder Emotion AI. 

    Die KI kann an dieser Stelle allerdings keine echten Emotionen empfinden, aber empathisches Verhalten simulieren. Dies geschieht dann durch die Anpassung der Reaktion der KI auf eben diese ermittelte Emotion. 

    Hier ein Vergleich zwischen klassischer (rationaler) KI und Emotional AI: 

    Aspekt Klassische KI Emotional AI / Affective Computing 
    Ziel Logik, Effizienz, Problemlösung Emotionserkennung & passende Reaktionen 
    Fokus Rationale Datenanalyse menschliche Emotionen & Verhalten 
    Reaktionsstil neutral, nüchtern empathisch 
    Datenquellen strukturiert (Zahlen, Texte, Bilder) Emotionale Hinweise (Mimik, Tonfall) 
    Typische Anwendung Diagnostik, Empfehlung, Planung Kundenservice, Gesundheit, Bildung, Assistenz 
    Emotionales Verständnis nicht vorhanden simuliert, nicht echt 

    Man erkennt schnell, dass der Fokus klassischer KIs auf strukturieren Daten und Aussagen liegt. Hier zählen eher die harten Fakten. Bei Emotional AI ist dies etwas anders. Die Emotion des Gegenübers steht hier im Vordergrund. 

    Wie funktioniert Emotional AI? 

    Um die emotionale Lage des Gegenübers zu erkennen, hat eine KI verschiedene technische Möglichkeiten. Zum einen ist es möglich die Mimik des Gegenübers zu analysieren. Des Weiteren ist es auch möglich die Aussprache des Nutzers zu untersuchen. Hier geben beispielsweise Stimmhöhe, Pausen und Lautstärke eine Aussage zur gefühlten Emotion. Ein weiterer Weg, um das Gefühlsleben des anderen zu erkennen, ist die Textanalyse. Dies bietet sich vor allem in Sozialen Netzwerken an. Eine weitere Variante, welche in den letzten Jahren immer mehr Anwendungsmöglichkeiten findet, ist die biometrische Analyse. Hierbei wird die Herzfrequenz, die Hautleitfähigkeit oder die Atemfrequenz durch Wearables wie Smart Watches analysiert. Früher war dies nur unter Laborbedingungen möglich. 

    Wo könnte Emotional AI zum Einsatz kommen? 

    Emotional AI hat verschiedene potenzielle Anwendungsmöglichkeiten. Beispielsweise im Marketing, um Werbung an die jeweilige Stimmung anzupassen und die Reaktion darauf zu messen. Im Gesundheitsbereich könnte sie ebenfalls zur Depressions- oder Stressfrüherkennung eingesetzt werden. Eine weitere Möglichkeit Emotional AI einzusetzen, wäre die Trauerbewältigung. Es gibt bereits Chatbots, welche mit längeren WhatsApp-Chats gefüttert werden können, um danach eine Interaktion mit dem/der Verstorbenen zu simulieren. Auch im Bildungssektor könnte Emotional AI einen Mehrwert bieten, indem eine KI bei den Schüler:innen Unter- und auch Überforderung erkennt. Ein weiterer Anwendungsbereich wäre der Kundenservice. Hier könnten Chatbots Mitgefühl zeigen und sich z. B. entschuldigen, sowie das Gespräch an eine Deeskalationsstelle weitergeben. Auch im Bereich der öffentlichen Sicherheit wäre eine Anwendung von Emotional AI denkbar. Möglich wäre hier die Analyse der Körpersprache und Mimik von Personen am Flughafen oder auf Demonstrationen. Im Arbeitskontext wäre es während Online-Teamsitzungen und Workshops beispielsweise möglich, Aufgaben der Moderation an eine KI zu übergeben, damit diese eingreifen kann, wenn Mitwirkende unaufmerksam werden oder erkannt wird, dass das entsprechende Thema sie zu sehr stresst. 

    Bitte beachten: Der Einsatz von Emotional AI unterliegt technischem, ethischem, sowie im rechtlichem Kontext den Vorgaben der EU. Der EU AI Act verbietet ausdrücklich das Inferenzieren von Emotionen durch KI in den Bereichen Arbeitsplatz und Bildungseinrichtungen ( Art. 5(1)(f)) und stuft KI‑Systeme zur Emotions- oder biometrischen Erkennung in vielen Fällen als „hochrisikoreich“ ein ( Artikel 6(2), Annex III). Dies zieht umfangreiche Anforderungen in Bezug auf Risikomanagement, Transparenz, Datenqualität und menschliche Aufsicht nach sich. Für Anwendungen in der öffentlichen Sicherheit gelten ebenfalls strikte Regeln: ferngesteuerte biometrische Identifizierung ist grundsätzlich eingeschränkt und Identifikationssysteme fallen häufig unter die High‑Risk‑Regelungen des AI Act. Wir sind uns dieser regulatorischen und ethischen Grenzen bewusst und beraten auch unsere Kunden für einen verantwortungsvollen Umgang mit KI.

    Die soeben aufgeführten Anwendungsbeispiele werden in den weiteren Abschnitten des Artikels noch genauer analysiert. 

    Welche Vorteile bietet der Einsatz von Emotional AI? 

    Es ist also ersichtlich, dass mit Emotional AI viele verschiedene Chancen und Potenziale verbunden sind. Durch ihre Integration wird die Interaktion zwischen Mensch und Maschine (HCI) menschlicher und somit für den Menschen angenehmer. Die Wahrscheinlichkeit, dass die Akzeptanz der Anwendung auf Seiten der Anwender:innen steigt, erhöht sich dadurch. Durch die Verwendung im Bereich der psychischen Gesundheit wäre es möglich, Frühwarnsysteme für Depressionen oder Burnout zu etablieren. Des Weiteren wäre es möglich, die persönlichen Erlebnisse der Benutzer:innen auf ihre spezifische Stimmung abzustimmen. Durch die Verwendung von persönlichen KI-gestützten Begleitern könnte man das Risiko von Einsamkeit für Alleinlebende und Senior:innen verringern. So wäre eine emotionale Unterstützung rund um die Uhr möglich. Ein weiterer Vorteil von Emotional AI ist die direkte Reaktionsmöglichkeit auf emotionale Zustände. Der Chatbot im Kundenservice kann also direkt beschwichtigend auf die Frustration der Kund:innen eingehen. 

    Bias, kulturelle Einflussfaktoren und Missbrauch 

    Neben diesen ganzen Anwendungsmöglichkeiten, Chancen und Potentialen, birgt Emotional AI aber auch schwerwiegende Risiken und ethische Herausforderungen. 

    Bias 

    Basierend auf der Datenqualität kann es zu verschiedenen Formen von Biases, also unbewussten Vorurteilen, kommen. Im Bereich der Emotional AI ist der Angry Black Women Bias beispielsweise sehr bekannt. Zu dieser Fehlinterpretation der KI kommt es dadurch, dass die entsprechenden Trainingsdaten weiblicher People of Colour (PoC) überdurchschnittlich häufig mit der Emotion „Wut“ oder „Ärger“ gekennzeichnet sind. Hierdurch neigt die KI dann dazu, beim Erkennen von weiblichen PoC direkt die entsprechende Emotion anzunehmen. Andere Biases wären zum Beispiel, dass Frauen häufiger als „zufrieden“ oder „ängstlich“ erkannt werden, wohingegen eine KI Männer eher als „ernst“ oder „wütend“ beurteilt.  

    Kultureller Bezug 

    Vor diesem Hintergrund ist es wichtig zu berücksichtigen, dass Emotionen einen kulturellen Bezug haben. Robert Plutchik stellte 1980 eine Emotionstheorie auf, die besagt, dass Emotionen einen genetischen Ursprung haben. Diese Annahme bedeutet, dass Emotionen sich bei allen Menschen auf die gleiche Weise äußern. Dieser genetische Ursprung ist der psychologischen Fachwelt aber stark umstritten, was die anderen Anteile seiner Arbeit, zum Beispiel das Rad der Emotionen, nicht minder wichtig werden lässt. Für KI bedeutet dies, dass zur Auswertung einer Emotionsanalyse nicht nur die visuellen, auditiven oder biometrischen Daten ausgewertet werden müssten, sondern auch der kulturelle Hintergrund der entsprechenden Person bekannt sein müsste.

    Rad der Emotionen von Pluchiks

    Missbrauch  

    Zusätzlich handelt es sich bei Emotionen um sehr intime Informationen über eine Person und ein Missbrauch dieser könnte schwerwiegende Konsequenzen haben. Reagiert eine KI auf die emotionalen Impulse des menschlichen Gegenübers, sind wir in den oben bereits geschilderten Anwendungsmöglichkeiten meist von einer wohlwollenden Verwendung ausgegangen. Eine KI könnte aber auch so trainiert werden, dass sie die emotionale Lage des interagierenden Menschen bewusst ausnutzt. Ein Chatbot, der bei Fragen zu Waren behilflich sein soll, könnte auf diese Weise Menschen in labilen Situationen dazu ermutigen mehr zu kaufen, um sich durch den Kauf besser zu fühlen (konsuminduziertes Wohlbefinden). Ähnliche problematische Verwendungen wären hier in der Werbung oder im Bereich der Politik möglich.  

    Abhängigkeiten 

    Wenn wir uns vorstellen, dass Menschen zukünftig emotionale Bindungen zu nicht-menschlichen Systemen eingehen, wäre es auch möglich, dass sich aus diesen Beziehungen Abhängigkeitsverhältnisse ergeben, welche wiederum zu einer weiteren sozialen Isolierung der Person führen können. In Japan beispielsweise sind Beziehungen zu virtuellen Charakteren keine Seltenheit ( Quelle).  

    Anwendung in der Psychotherapie 

    Bei den Anwendungsmöglichkeiten wurde bereits auf eine mögliche Verwendung von KI in der Psychotherapie hingewiesen, auf die an dieser Stelle etwas weiter eingegangen werden soll. Beispiele für bekannte therapeutische Vorgehensweisen sind die 

    • Verhaltenstherapie, bei der der Fokus auf einer aktuellen Problemstellung (z. B. einer bestimmten Form von Angst) und dem Erlernen hilfreicher Verhaltensweisen liegt;
    • systemische Therapie, bei der der Fokus nicht nur auf dem Individuum, sondern auf dem gesamten sozialen System der Person liegt;
    • tiefensychologisch fundierte Psychotherapie, welche die Ursache von psychischen Problemen häufig in unbewussten Konflikten und früheren Erfahrungen sieht. 

    Betrachten wir diese drei Therapiezweige, müssen wir differenzieren, wo der Einsatz von KI sinnvoll erscheint. Die Verhaltenstherapie bietet sich an, da die KI mit möglichen Vorgehensweisen zu bestimmten psychischen Problemen trainiert werden kann. Die systemische Therapie hingegen müsste mit den Daten des sozialen Systems des/der Patient:in trainiert werden, um spezifische Ergebnisse zu liefern. Auch in der tiefenpsychologisch fundierten Therapie, müsste die KI mit den Erlebnissen des Patienten trainiert worden sein, um spezifische Ergebnisse zu liefern. Die beiden letzteren Therapiezweige sind also eher schwierig durch KI zu ersetzen.  

    In Bezug auf die Trauerbewältigung sind Zweifel angebracht, inwiefern es sich bei der Nutzung des oben beschriebenen Chatbots wirklich um Trauerbewältigung oder vielmehr eine Verschleppung des Trauerprozesses handelt. Problematischer würde dies noch, wenn aus Bildern und Videos der Person ein virtueller Avatar erstellt werden würde. Die Interaktion mit dem/der Verstorbenen würde sich dann so anfühlen, wie ein Zoom-Call. Im ersten Moment mag dies für den Trauernden angenehm sein, aber ein gesundes Durchlaufen des Trauerprozesses nach Kübler-Ross (Leugnen, Wut, Verhandeln, Depression und Akzeptanz) ist damit höchstwahrscheinlich nicht möglich.  

    Crowd-Control 

    Auch die Verwendung von Emotional AI in Bereich in denen viele Menschen zusammenkommen, wie zum Beispiel bei Demonstrationen oder am Flughafen, wo es sinnvoll sein kann Einsatzkräfte der Polizei vor möglichen Gefahrenherden zu warnen (Crowd-Control). Wie oben bereits beschrieben kann es im Rahmen von Emotional AI zu Biases kommen, was im Rahmen von Crowd-Control zu höchst problematischen Situationen führen kann.  

    Anwendung am Arbeitsplatz 

    Auch die Verwendung von Emotional AI am Arbeitsplatz kann nicht nur zur Reduktion von Stress eingesetzt werden. Es wäre denkbar, dass eine KI den Mitarbeitenden so lange Arbeit und Aufgaben zuweist, bis sie erste Stress-Symptome erkennt, um ihre volle Arbeitsleistung auszuschöpfen.  

    Rechtliche Einschränkungen

    Wir müssen uns weiterhin immer wieder vor Augen führen, dass die von einer KI vorgespielten Emotionen nicht echt sind. Die KI empfindet keine Emotionen und passt ihre Antworten nur an die erkannte Emotion an. Der EU AI Act schafft notwendige Schranken: Er begrenzt missbräuchliche Nutzungen von Emotional AI und stuft zahlreiche hier beschriebene Einsätze in sensiblen Kontexten als unzulässig oder hochrisikoreich ein.

    Die Zukunft der Emotional AI 

    Wir haben im Verlauf dieses Artikels über verschiedene Anwendungsmöglichkeiten gesprochen. Viele große und namhafte Unternehmen verwenden Emotional AI bereits in ihren Produkten oder bis zu einem gewissen Grad in ihren KI-Modellen.  

    Für die Zukunft dürfen wir auf die Verwendung von Emotional AI in der Robotik gespannt sein. Bereits heute gibt es erst Versuche „soziale“ Roboter in Seniorenheimen zu verwenden, um so ältere Menschen an sozialen Interaktionen teilhaben zulassen. Diese sozialen Interaktionen wirken sich wiederum positiv auf das Allgemeinbefinden aus, auch wenn nicht alle Bewohner:innen von der Interaktion mit einem kleinen Roboter begeistert sind ( Quelle).  

    Weiterhin dürfen wir davon ausgehen, dass sich die Datenbasis für Emotional AI von einer Einzelquelle, wie z. B. Videobildern, Textnachrichten oder Tonaufnahmen, hin zu einer Multimodal-Analyse wandelt. Es werden also nicht mehr nur einzelne Datenquellen verwenden, sondern mehrere, wie z. B. Videobilder und Tonaufnahmen.  

    Für unsere Annahmen müssen wir gar nicht so weit in die Zukunft blicken. Bereits jetzt gibt es bekannte und populäre KI-Modelle, welche Emotional AI implementieren. Eine Analyse von Anthropic hat weiterhin gezeigt, dass der hauseigene KI-Chat-Bot Claude bereits jetzt für soziale Interaktionen verwendet wird ( Quelle). Die emotionale Kommunikation mit einer Maschine ist also nichts, was in den nächsten Jahren passieren wird, sie ist schon im vollen Gange. 

    Liest man sich die wissenschaftlichen Arbeiten in diesem Bereich durch, stolpert man auch häufiger über Aussagen, dass Emotionen zu über 90%iger Wahrscheinlichkeit richtig ermittelt werden konnten. Wie das bei wissenschaftlichen Arbeiten häufig der Fall ist, sollte man aber immer noch einmal ins Kleingedruckte schauen. In diesem Fall ist das Kleingedruckte das Spektrum an Emotionen, die unterschieden wurden. In der Emotionstheorie unterscheidet man gern zwischen Basisemotionsmodellen (hierunter fallen die Modelle von Ekman, Plutchik und Izard), Klassifikationsmodellen (z. B. von Burke, Edell oder M. Richins) und dimensionalen Emotionsmodelle (beispielsweise von Mehrabian oder Russel). Emotionsmodelle unterscheiden je nach dem jeweiligen Modell zwischen 7, 8 oder 10 Emotionen bei den Basismodellen bzw. zwischen 3 oder 16 Emotionskategorien bzw. 2 der 3 Dimensionen bei den dominalen Modellen. Verwendet eine Studie also ein einfacheres Emotionsmodell mit z. B. 5 unterschiedlichen Emotionen (z. B. Freude, Wut, Angst, Trauer, Ruhe), ist die Wahrscheinlichkeit, dass die KI die Emotionen richtig ermittelt, größer, als wenn das Modell 10 Emotionen umfassen würde. Es ist an dieser Stelle also wichtig, den genauen Studienaufbau im Auge zu behalten.  

    Fazit 

    Abschließend bleibt nur zu sagen, dass der Bereich der Emotional AI ein sehr hohes Potenzial hat und auch technisch gesehen überaus spannend ist. Auf der anderen Seite ergeben sich durch seine Verwendung schwerwiegende ethische Herausforderungen und ich hoffe, dass ich die kritischen Seiten in diesen Artikel sachlich und einleuchtend aufgezeigt habe. Auch wenn der EU AI Act viele der Bedenken bereits abdeckt, sollten diese trotzdem aufgezeigt und angesprochen werden. Abschließend möchte ich Ihnen eine Frage mit auf den Weg geben: 

    Wollen wir wirklich Maschinen, die uns „fühlen“? 

    Unterseite

    Sichere KI-Lösungen dank EU AI Act

    Wir unterstützen Sie bei der Implementierung Ihrer KI-Lösungen – sowohl technisch als auch rechtlich. Gemeinsam mit unserem Partner Notos Xperts begleiten wir Sie bei der initialen Compliance und auch bei zukünftigen Anpassungen und Updates Ihrer KI-Systeme. Für sichere und ethisch vertretbare KI-Lösungen für Ihr Unternehmen. 

    Gelbe Sterne der EU-Flagge im Kreis auf dunkelblauem Hintergrund. In der Mitte steht "AI Act".

    Mehr zum Thema KI bei Accso