Emotionale Bots und KI-Assistenten - 28.01.2026
- 28. Jan.
- 5 Min. Lesezeit

Emotionale Bots und KI-Assistenten - 28.01.2026
Wer im Internet je etwas bestellt hat oder auf einer kommerziellen Webseite spazieren ging, hatte wahrscheinlich schon Kontakt mit einem freundlichen Helfer oder einer freundlichen Helferin, die oder der einfache Fragen zu beantworten suchte oder Unterstützung beim Auffinden von Content auf der Webseite anbot. Allzu weit geht die Hilfe nicht, mehr als oberflächliche Antworten konnte ich den Chatbots bisher nicht entlocken. „Dabei kann ich dir gerade nicht helfen …“ las ich häufiger als eine Antwortzeile, die meinen Wissensdrang befriedigt hätte. Das liegt sicher an meinen hochgesteckten Erwartungen. Aber ich bin gewiss nicht der einzige der KI-Assistenten trotz bescheidener Erfahrungswerte ein enormes Entwicklungspotenzial attestiert.
Die meisten KI-Assistenten, die bisher im Einsatz sind, dürften die derzeitigen Möglichkeiten der Künstlichen Intelligenz, vor allem der Large Language Models (LLMs) noch nicht ausgeschöpft haben. Im Falle meines Blogs wäre die Implementierung eines Bots eine Kostenfrage, gleichwohl ein freundlicher Helfer das Erlebnis beim Lesen steigern könnte, indem er kontextuelle Verbindungen zwischen meinen Essays offenlegt, inhaltliche Brücken schlägt oder aufzeigt, wo ich mir widerspreche. Um in einen echten Dialog zu treten, müsste der Bot, den Inhalt des jeweiligen Chats erinnern und in der Lage sein, inhaltlich Bezug darauf zu nehmen. Solche Bots sind schon im Einsatz. Meines Wissens ist noch kein Bot auf dem Markt oder irgendwo sonst im Netz verfügbar, der die Emotionen des Nutzers oder der Nutzerin kognitiv verarbeiten und emotional angemessen reagieren kann. In meinem Essay über Deadbots ging ich stillschweigend davon aus. Natürlich machte ich mich danach im Netz auf die Suche und fand: nichts.
Mögliche Anwendungsfälle von emotionalen Bots, die Gefühle des Nutzers verstehen und emotional antworten, sehen Experten (und ich) im digitalen Marketing und Vertrieb, im medizinischen Bereich, in Lernumgebungen und ganz allgemein im sozialen Bereich als virtuelle Gesprächspartner, virtuelle Freunde als Ersatz für wahre Freunde und Freundinnen, virtuelle Coaches und Berater in fast allen Lebenslagen, in politischer und sonstiger Propaganda, als Deadbots und vieles mehr.
Menschliche Gefühle zu verstehen, kostet selbst uns Menschen sehr viel Rechenkapazität und Energie. Dabei wird verständlich, weshalb Autisten häufig mit Inselbegabungen Aufsehen erregen. Wir äußern Gefühle durch Körperhaltung, Blickkontakt, Gestik, Mimik, Tonfall in der Sprache, der Wortwahl der gesprochen und geschriebenen Sprache, früher in der Anzahl der Rechtschreibfehler (wie in meinem Fall). Wissenschaftler, Psychologen und Philosophen erforschen Emotionen seit Jahrhunderten, benennen sie, ordnen sie menschlichen Gesichtszügen, Gestik, dem Tonfall zu, entwickeln Modelle, arbeiten dabei mit tiefen neuronalen Netzen, Regressionsanalysen und vielem mehr. Irgendwo habe ich gelesen, dass Menschen die Gefühle ihrer Mitmenschen mit einer Trefferquote von ca. 60% richtig einschätzen (ohne Gewähr), der Leser dieses Essays liegt vermutlich bei 98%, ich wahrscheinlich 56,4%.
Ich befürchte, dass Künstliche Intelligenzen in absehbarer Zukunft auf weitaus größere Trefferquoten als Menschen kommen werden, doch die Kosten für die Emotionsanalyse dürften recht hoch sein. Neben dem Verständnis, was der Nutzer oder die Nutzerin will, gewonnen aus der Analyse des „Prompts“, allgemeiner der Spracheingabe, sei es über Mikrofon oder Tastatur, auch noch den emotionalen Zustand der Nutzerin oder des Nutzers korrekt zu erfassen, wird demnach ein teures Unterfangen.
Viele Botbetreiber werden sich im ersten Schritt auf die Analyse der Spracheingabe, mündlich und schriftlich, heute schon eine der Stärken der LLMs, beschränken, um darauf mit einer entsprechenden mündlichen und/ oder schriftlichen Sprachausgabe zu reagieren. In einem nächsten Schritt könnte eine nach den Wünschen des Nutzers ausgewählte, möglichst natürlich wirkende KI-Figur auf die Fragen und Wünsche des Nutzer antworten bzw. sich mit ihm unterhalten. In einer weiteren Ausbaustufe könnte der Bot mit emotionalen Analysefunktionen wie Mimik-, Gestik- und Blickkontakterkennung, Dechiffrierung des Tonfalls, sowie emotionale Sprachanalysefunktionen usw. ausgestattet werden. Die Antworten und Äußerungen der KI-Figur emotional wirken zu lassen, dürfte heutzutage keine große Herausforderung mehr darstellen.
Klassische Chatbots antworten in vordefinierter Weise auf bestimmte Fragen des Nutzers. Sie finden breiten Einsatz auf kommerziellen Webseiten und wickeln einfache Anliegen ab.
Conversational Bots nutzen Künstliche Intelligenz intensiver, analysieren Fragen, Wünsche und Intentionen der Nutzerin oder des Nutzers, erinnern und nutzen dabei den Chatverlauf und treten mit ihr oder ihm in einen Dialog, sodass eine Unterhaltung mit einem höheren Grad an Authentizität und Zufriedenheit entstehen kann. Der kommerzielle Anbieter versteht viel besser, was der Kunde will; der Conversational Bot ermöglicht eine zielgerichtetere Beratung mit einem erfolgversprechenderen Geschäftsabschluss. Anbieter sozialer Apps oder Webseiten halten die Nutzerin oder den Nutzer viel länger auf der Webseite, wenn der Bot den Eindruck erweckt, dass er den Nutzer versteht, wenn er in der Lage ist, Empathie vorzuspielen. Zahlreiche solcher Bots sind bereits auf dem Markt.
Emotionale Bots mit den oben skizzierten Fähigkeiten und insbesondere dann, wenn sie als KI-Figur auftreten, gehen einen Schritt weiter. Sie kommen sehr nahe an Menschen attribuierte Fähigkeiten heran; ohne je müde zu werden, ohne die Fassung zu verlieren, verfolgen sie ihr strategisches Ziel, sei es ein Produkt zu verkaufen, ein politisches Programm, eine Haltung, vordefinierte Denkmuster zu implementieren oder die Nutzerin oder den Nutzer auf der Webseite oder in der App zu halten. Ihr Einsatz ist nicht nur in den oben erwähnten Einsatzfeldern denkbar, sondern auch in der öffentlichen Verwaltung, in der Jurisdiktion, der Schule, in den Universitäten, überall dort, wo Nutzerinnen und Nutzer bisher mit Menschen interagieren. Emotionale Chatbots könnten unsere funktionale Gesellschaft grundlegend verändern. Sie könnten z.B. virtuelle Räume öffnen, in dem sich einsame Menschen zusammenfinden oder verzweifeln, wenn die Illusion im menschlichen Bewusstsein zerbricht.
Wenn wir uns vorstellen, dass die bzw. der Einzelne mit abnehmendem Anteil der Persönlichkeit von der Liebe, über Verwandtschafts- und Freundesbeziehungen, den sozialen Sicherungssystemen, staatlichen Intitutionen, dem Wirtschafts- und Finanzsystem, Vereinen, Parteien, usw. bis hin zu unserer Rolle als Wähler eingebunden ist, was hindert uns, einen emotionalen Avatar als unsere Vertretung in der jeweiligen gesellschaftlichen Konstellation teilnehmen zu lassen.
In einer autoritären Gesellschaft, auf die viele Länder bereits freiwillig zustreben, weil es viele Mitbürger vor der Komplexität der modernen Welt schaudert, viele davor am liebsten die Augen verschließen, anstatt Anstand und Haltung zu zeigen und sich deswegen nach starker Führung sehnen, in einer autoritären Gesellschaft wählt die Autorität die Machthaber, wählt ihre Schergen gezielt aus, verzichtet aber nicht auf die Wahl. Die Autorität will sich auch noch mit einer überwältigenden Mehrheit getragen fühlen vom Willen des Volkes, vom Wille ihrer Avatare. Da spielt es dann keine Rolle, ob es sich um emotionale Bots oder Menschen ohne abweichende Meinungen handelt.
Kommunizieren wir mit emotionalen Bots, geben wir neben unseren persönlichen Daten, ggf. unsere Finanzen, unsere Lebensgewohnheiten, Wünsche, Sehnsüchte, Einstellungen und Vorlieben preis und setzen uns im Gegenzug Indoktrinationsversuchen aller Art aus. Das sollten wir in der schönen, neuen Welt im Hinterkopf behalten. Der emotionale Bot, zeichnet zwar eine genaue Karte unserer Gefühlswelt, speichert sie, verkauft sie vielleicht, fühlt aber selbst nicht mit uns, bleibt kalt. Menschen, die unsere Emotionen lesen und damit spielen, nennt man Psychopathen. Auf den ersten Blick sind sie kaum zu erkennen. Soll man sich freuen, dass sie Konkurrenz bekommen, die ihnen zweifelsohne überlegen sein wird?
In welchen Bereichen werden sich emotionale Bots als erstes durchsetzen? In der Girl- oder der Boyfriend App oder werden sie zuerst auf den kommerziellen Webseiten implementiert? Wenn ich alt und senil bin, wird es mir vielleicht egal ein, dass ich mit einem emotionalen Bot rede; wahrscheinlich werde ich den Unterschied zu einem realen Menschen nicht erkennen. Das wird Kriminellen eine neue Spielwiese eröffnen. Kinder, Jugendliche und labile Menschen gehören ebenso zu den vulnerablen Personengruppen. Ethiker mögen die Chancen und Risiken emotionaler Bots bereits bewerten, eine öffentliche Diskussion habe ich noch nicht wahrgenommen, wie so vieles, was auf der Welt geschieht. Sei es, dass es eine absolute Wahrheit nicht gibt; Lügen sind in der Regel einfacher zu benennen. Emotionale Bots besitzen psychopathisches Potenzial (siehe oben) und werden uns in diesem Bereich vor ganz neue Herausforderungen stellen.
Aldous Huxley stellte sich die schöne neue Welt ganz anders vor. Dazu mehr in einem der nächsten Essays.


