Affective Computing: Wie Maschinen verstehen

Affective Computing, eine der noch recht jungen Entwicklungen im Bereich der Künstlichen Intelligenz, hat es in sich. Es ist die nächste Revolution, die ihren Ursprung vor langer Zeit in der Erfindung der Rechenmaschine fand. So liegt der große Schritt darin, dass man Maschinen nicht nur „smart“, sondern auch noch mitfühlend macht. Mitfühlend insofern, als dass sie unsere Gemütslage erkennen und im besten Fall auch noch darauf reagieren. So können sie uns Trost spenden oder einen Arzt rufen, wenn es uns schlecht geht. Ferner könnten Maschinen gar auf unsere Wünsche eingehen, ohne dass wir diese aussprechen müssen.

Maschinen und Empathie, das klingt ja erst einmal ziemlich paradox. Ist es im Grunde auch. Eine Maschine kann höchstens über eine Künstliche Intelligenz verfügen, aber doch keine echte soziale Intelligenz entwickeln. Demnach kann eine Maschine, auch wenn sie so freundlich wie Alexa oder Siri klingt, nicht wissen, wie es um unsere Gefühlslage steht. Trotz allen Fortschritts im Bereich des maschinellen Lernens. Oder etwa doch?

Lassen sich Gefühle berechnen?

Ein intelligenter Mensch nimmt Informationen auf, verarbeitet sie und trifft daraufhin bestimmte Entscheidungen, er handelt entsprechend oder zieht bestimmte Schlussfolgerungen. Dazu benötigt das Gehirn, das eben diese Fähigkeit zu Denken möglich macht, rund 100 Milliarden Neuronen. Diese sind in einem Netzwerk miteinander verknüpft. Bei der Künstlichen Intelligenz werden künstliche neuronale Netze geschaffen. Dazu positioniert man künstliche Nervenzellen (Neuronen) als Recheneinheiten, indem man sie in Schaltkreisen miteinander verbindet. Die künstlichen Neuronen geben ein Signal ab, wenn die Summe ihrer Inputs einen gewissen Schwellenwert überschritten hat. Somit wird eine Handlung ausgelöst. Im Smart Home wird dabei beispielsweise die Heizung hochgedreht, wenn die Temperatur im Raum sinkt. Warum also nicht auch auf Emotionen reagieren?

Affective Computing heißt die Methode, die auf ein Lehrbuch der amerikanischen Wissenschaftlerin Rosalind Picard zurückgeführt wird. Bei ihrer Forschung, die sie am MIT Media Lab, einem Forschungslabor am Massachusetts Institute of Technology, durchführt,  geht es nämlich genau um diese automatisierte Erfassung von menschlichen Emotionen. Optische, akustische und natürlich auch physiologische Daten liefern hierfür die Basis.

Im Falle von Affective Computing verbindet man sozusagen Neurowissenschaften, Ingenieurwissenschaften und Informatik mit der Psychologie, Kognitionswissenschaft und Soziologie. Der Name selbst leitet sich ohnehin aus dem Bereich der Psychologie ab, wo das Wort “Affekt” ein Synonym für “Emotion” ist.

Affective-computing-Roboter

Nicht nur smart, sondern auch mitfühlend: Werden Roboter bald auch unsere Gefühle lesen?

Beim Affective Computing wird der Mensch gemessen

Gemessen wird aber nicht etwa die Körpergröße, sondern vielmehr unsere Mimik, Gestik, Körpertemperatur und vieles mehr. So ist zum Beispiel ein Computer in der Lage, die aktuellen Emotionen des Benutzers genau dadurch zu erkennen. Der Rechner etwa, an dem man sitzt, ist mit Hilfe der entsprechenden Sensoren dazu fähig, unsere Haltung, Gestik, Sprache, die Kraft oder auch den Rhythmus von Tastenanschlägen und die Temperaturänderungen der Hand an der Maus zu interpretieren. Dazu sind entsprechende Sensoren in der Maus eingebaut, während eine Videokamera Gesichtsausdrücke, Körperhaltung und Gesten erfasst. Zudem erfasst ein Mikrofon die Stimme des Users. Eine eingebaute Kamera zeichnet natürlich auch Bilder des Benutzers auf. All diese Informationen zum physischen Zustand oder das Verhalten des Benutzers, die über die Sensoren aufgenommen wurden, werden zunächst einmal gesammelt.

Anschließend werden spezielle Algorithmen dazu verwendet, die aufgezeichneten Daten zu verarbeiten, um aussagekräftige Informationen zu erhalten. Die daraus resultierende Erkennung emotionaler Informationen erfordert aber natürlich das Erkennen von Mustern aus den gesammelten Daten. Ferner profitiert man dabei natürlich von den Fortschritten der maschinellen Lerntechniken, die es ermöglichen, einen unterschiedlichen Tonfall oder einen Gesichtsausdruck, zum Beispiel „verwirrt“, am Ende auch als solchen zu deuten.

Künstlich empathische Intelligenz und ihre Chancen

Die Technik ist mit unserem Alltag untrennbar verknüpft. Smart Homes erleichtern bereits unseren Alltag. Siri und ihre Freundinnen sind so freundlich, uns Bahnverbindungen zu nennen. Unser Rasierapparat bestellt neue Klingen, wenn die letzte verbraucht ist. Genau aus diesem Grund ist auch Affective Computing in vielen verschiedenen Bereichen einsetzbar.

Im Marketing etwa. Hierbei kann man durch die affektive Zustandserkennung die Wirkung einer Fernsehwerbung durch die Untersuchung des Gesichtsausdrucks des Zuschauers beurteilen. Auf diese Weise kann man feststellen, ob die Werbung den gewünschten Effekt hat. Im Detail kann man sogar erfassen, welche Elemente beim Betrachter die größten Emotionen oder das höchste Interesse hervorrufen. Natürlich kann man das Gesicht eines Menschen auch analysieren, während er ein bestimmtes Produkt verwendet.

Hilfreich kann Affective Computing sicher auch beim E-Learning sein. Wenn der Computer anhand des fragenden oder verzweifelten Gesichtsausdrucks erkennt, dass man Hilfe braucht. Dann kann der Rechner ganz automatisch weitere Erklärungen oder Zusatzinformationen anzeigen. Auch können psychologische Gesundheitsdienste davon profitieren, beziehungsweise die Menschen, die diese nutzen. Etwa in ländlicheren Gebieten mit Ärztemangel kann dazu eine Online-Beratung erfolgen. Der Therapeut bekommt durch Affective Computing zusätzliche Hinweise auf den emotionalen Zustand des Patienten, die ihm fehlen, weil er den Menschen nicht live vor ihm sieht.

Ein anderes Beispiel aus dem medizinisch-psychologischen Bereich ist die Arbeit mit Autisten. Hier gab es bereits einige erfolgreiche Versuche. So wurden etwa affektive Video-Spiele dazu verwendet, um die emotionale Entwicklung von autistischen Kindern zu fördern.

Hilfe kann auch Autofahrern zuteil werden. Derzeit wird in der Automobilbranche nämlich ganz ähnlich geforscht. So werden etwa durch soziales Monitoring die Emotionen und auch der Gesundheitszustand aller Insassen überwacht. Infolgedessen können im Ernstfall zusätzliche Sicherheitsmaßnahmen ergriffen werden.

Werden Roboter in Zukunft Gefühle haben?

Roboter und Maschinen werden menschlicher, weil es uns ein Bedürfnis ist, den Maschinen auf immer neueren Ebenen zu begegnen! Die Entwicklung bleibt jedenfalls interessant. Warten wir also gespannt auf weitere Innovationen aus den Bereichen Maschinelles Lernen und künstliche oder eben auch empathische Intelligenz. Neben den bereits genannten Einsatzgebieten könnten dadurch auch Haushaltsroboter wie der „Zenbo“ von Asus, die Geschichten vorlesen oder als Küchenhilfe agieren, ihren neuronalen Horizont erweitern. Oder etwa unser hauseigener Liebling Bob. Roboter, die affektive Informationen verarbeiten, können schließlich flexibler und umsichtiger handeln. Auch können digitale Haustiere ein höheres Maß an Fähigkeiten entwickeln. Der Robo-Hund oder die Haushaltshilfe können uns bei schlechter Stimmung mit unserer Lieblingsmusik oder einer schönen Erinnerung erfreuen.

Auch im Bereich des Gesundheitswesens können die künstlichen Helfer dann besser eingesetzt werden. Durch das emotionale Bewusstsein fällt es Patienten leichter, sich auf sie einzulassen. In Ländern, in denen Pflegenotstand herrscht, vielleicht eine Überlegung Wert.

Gefühle über Systeme zu erkennen und damit die User Experience zu verbessern, ist nicht nur ein schöner Gedanke, sondern auch technisch möglich – das hat das IOX LAB bereits in einem Projekt bewiesen: Gesichter wurden dabei anhand von Videodaten erkannt und so ausgewertet, dass anschließend die Gefühle der Personen ermittelt werden konnten. Dafür wurden einer speziellen Software geometrische Eigenschaften von Gesichtern zum Erstellen eines Algorithmus zugespielt. Der Algorithmus ermittelte dabei die acht Emotionen Angst, Ekel, Freude, Trauer, Überraschung, Verachtung und Wut sowie den neutralen Gesichtsausdruck. Das sind eben jene Emotionen, die kulturübergreifend erkannt und auf der ganzen Welt mit bestimmten Gesichtsausdrücken kommuniziert werden. Als Ergebnis lieferte das System sowohl die Liste der Emotionen als auch die ausgewerteten Gefühle. Start Prototyping with us!