Affective Computing: Wie Maschinen verstehen

Affective Computing, eine der noch recht jungen Entwicklungen im Bereich der Kรผnstlichen Intelligenz, hat es in sich. Es ist die nรคchste Revolution, die ihren Ursprung vor langer Zeit in der Erfindung der Rechenmaschine fand. So liegt der groรŸe Schritt darin, dass man Maschinen nicht nur โ€žsmartโ€œ, sondern auch noch mitfรผhlend macht. Mitfรผhlend insofern, als dass sie unsere Gemรผtslage erkennen und im besten Fall auch noch darauf reagieren. So kรถnnen sie uns Trost spenden oder einen Arzt rufen, wenn es uns schlecht geht. Ferner kรถnnten Maschinen gar auf unsere Wรผnsche eingehen, ohne dass wir diese aussprechen mรผssen.

Maschinen und Empathie, das klingt ja erst einmal ziemlich paradox. Ist es im Grunde auch. Eine Maschine kann hรถchstens รผber eine Kรผnstliche Intelligenz verfรผgen, aber doch keine echte soziale Intelligenz entwickeln. Demnach kann eine Maschine, auch wenn sie so freundlich wie Alexa oder Siri klingt, nicht wissen, wie es um unsere Gefรผhlslage steht. Trotz allen Fortschritts im Bereich des maschinellen Lernens. Oder etwa doch?

Lassen sich Gefรผhle berechnen?

Ein intelligenter Mensch nimmt Informationen auf, verarbeitet sie und trifft daraufhin bestimmte Entscheidungen, er handelt entsprechend oder zieht bestimmte Schlussfolgerungen. Dazu benรถtigt das Gehirn, das eben diese Fรคhigkeit zu Denken mรถglich macht, rund 100 Milliarden Neuronen. Diese sind in einem Netzwerk miteinander verknรผpft. Bei der Kรผnstlichen Intelligenz werden kรผnstliche neuronale Netze geschaffen. Dazu positioniert man kรผnstliche Nervenzellen (Neuronen) als Recheneinheiten, indem man sie in Schaltkreisen miteinander verbindet. Die kรผnstlichen Neuronen geben ein Signal ab, wenn die Summe ihrer Inputs einen gewissen Schwellenwert รผberschritten hat. Somit wird eine Handlung ausgelรถst. Im Smart Home wird dabei beispielsweise die Heizung hochgedreht, wenn die Temperatur im Raum sinkt. Warum also nicht auch auf Emotionen reagieren?

Affective Computing heiรŸt die Methode, die auf ein Lehrbuch der amerikanischen Wissenschaftlerin Rosalind Picard zurรผckgefรผhrt wird. Bei ihrer Forschung, die sie am MIT Media Lab, einem Forschungslabor am Massachusetts Institute of Technology, durchfรผhrt,  geht es nรคmlich genau um diese automatisierte Erfassung von menschlichen Emotionen. Optische, akustische und natรผrlich auch physiologische Daten liefern hierfรผr die Basis.

Im Falle von Affective Computing verbindet man sozusagen Neurowissenschaften, Ingenieurwissenschaften und Informatik mit der Psychologie, Kognitionswissenschaft und Soziologie. Der Name selbst leitet sich ohnehin aus dem Bereich der Psychologie ab, wo das Wort “Affekt” ein Synonym fรผr “Emotion” ist.

Affective-computing-Roboter

Nicht nur smart, sondern auch mitfรผhlend: Werden Roboter bald auch unsere Gefรผhle lesen?

Beim Affective Computing wird der Mensch gemessen

Gemessen wird aber nicht etwa die KรถrpergrรถรŸe, sondern vielmehr unsere Mimik, Gestik, Kรถrpertemperatur und vieles mehr. So ist zum Beispiel ein Computer in der Lage, die aktuellen Emotionen des Benutzers genau dadurch zu erkennen. Der Rechner etwa, an dem man sitzt, ist mit Hilfe der entsprechenden Sensoren dazu fรคhig, unsere Haltung, Gestik, Sprache, die Kraft oder auch den Rhythmus von Tastenanschlรคgen und die Temperaturรคnderungen der Hand an der Maus zu interpretieren. Dazu sind entsprechende Sensoren in der Maus eingebaut, wรคhrend eine Videokamera Gesichtsausdrรผcke, Kรถrperhaltung und Gesten erfasst. Zudem erfasst ein Mikrofon die Stimme des Users. Eine eingebaute Kamera zeichnet natรผrlich auch Bilder des Benutzers auf. All diese Informationen zum physischen Zustand oder das Verhalten des Benutzers, die รผber die Sensoren aufgenommen wurden, werden zunรคchst einmal gesammelt.



AnschlieรŸend werden spezielle Algorithmen dazu verwendet, die aufgezeichneten Daten zu verarbeiten, um aussagekrรคftige Informationen zu erhalten. Die daraus resultierende Erkennung emotionaler Informationen erfordert aber natรผrlich das Erkennen von Mustern aus den gesammelten Daten. Ferner profitiert man dabei natรผrlich von den Fortschritten der maschinellen Lerntechniken, die es ermรถglichen, einen unterschiedlichen Tonfall oder einen Gesichtsausdruck, zum Beispiel โ€žverwirrtโ€œ, am Ende auch als solchen zu deuten.

Kรผnstlich empathische Intelligenz und ihre Chancen

Die Technik ist mit unserem Alltag untrennbar verknรผpft. Smart Homes erleichtern bereits unseren Alltag. Siri und ihre Freundinnen sind so freundlich, uns Bahnverbindungen zu nennen. Unser Rasierapparat bestellt neue Klingen, wenn die letzte verbraucht ist. Genau aus diesem Grund ist auch Affective Computing in vielen verschiedenen Bereichen einsetzbar.

Im Marketing etwa. Hierbei kann man durch die affektive Zustandserkennung die Wirkung einer Fernsehwerbung durch die Untersuchung des Gesichtsausdrucks des Zuschauers beurteilen. Auf diese Weise kann man feststellen, ob die Werbung den gewรผnschten Effekt hat. Im Detail kann man sogar erfassen, welche Elemente beim Betrachter die grรถรŸten Emotionen oder das hรถchste Interesse hervorrufen. Natรผrlich kann man das Gesicht eines Menschen auch analysieren, wรคhrend er ein bestimmtes Produkt verwendet.

Hilfreich kann Affective Computing sicher auch beim E-Learning sein. Wenn der Computer anhand des fragenden oder verzweifelten Gesichtsausdrucks erkennt, dass man Hilfe braucht. Dann kann der Rechner ganz automatisch weitere Erklรคrungen oder Zusatzinformationen anzeigen. Auch kรถnnen psychologische Gesundheitsdienste davon profitieren, beziehungsweise die Menschen, die diese nutzen. Etwa in lรคndlicheren Gebieten mit ร„rztemangel kann dazu eine Online-Beratung erfolgen. Der Therapeut bekommt durch Affective Computing zusรคtzliche Hinweise auf den emotionalen Zustand des Patienten, die ihm fehlen, weil er den Menschen nicht live vor ihm sieht.

Ein anderes Beispiel aus dem medizinisch-psychologischen Bereich ist die Arbeit mit Autisten. Hier gab es bereits einige erfolgreiche Versuche. So wurden etwa affektive Video-Spiele dazu verwendet, um die emotionale Entwicklung von autistischen Kindern zu fรถrdern.

Hilfe kann auch Autofahrern zuteil werden. Derzeit wird in der Automobilbranche nรคmlich ganz รคhnlich geforscht. So werden etwa durch soziales Monitoring die Emotionen und auch der Gesundheitszustand aller Insassen รผberwacht. Infolgedessen kรถnnen im Ernstfall zusรคtzliche SicherheitsmaรŸnahmen ergriffen werden.

Werden Roboter in Zukunft Gefรผhle haben?

Roboter und Maschinen werden menschlicher, weil es uns ein Bedรผrfnis ist, den Maschinen auf immer neueren Ebenen zu begegnen! Die Entwicklung bleibt jedenfalls interessant. Warten wir also gespannt auf weitere Innovationen aus den Bereichen Maschinelles Lernen und kรผnstliche oder eben auch empathische Intelligenz. Neben den bereits genannten Einsatzgebieten kรถnnten dadurch auch Haushaltsroboter wie der โ€žZenboโ€œ von Asus, die Geschichten vorlesen oder als Kรผchenhilfe agieren, ihren neuronalen Horizont erweitern. Oder etwa unser hauseigener Liebling Bob. Roboter, die affektive Informationen verarbeiten, kรถnnen schlieรŸlich flexibler und umsichtiger handeln. Auch kรถnnen digitale Haustiere ein hรถheres MaรŸ an Fรคhigkeiten entwickeln. Der Robo-Hund oder die Haushaltshilfe kรถnnen uns bei schlechter Stimmung mit unserer Lieblingsmusik oder einer schรถnen Erinnerung erfreuen.

Auch im Bereich des Gesundheitswesens kรถnnen die kรผnstlichen Helfer dann besser eingesetzt werden. Durch das emotionale Bewusstsein fรคllt es Patienten leichter, sich auf sie einzulassen. In Lรคndern, in denen Pflegenotstand herrscht, vielleicht eine รœberlegung Wert.

Gefรผhle รผber Systeme zu erkennen und damit die User Experience zu verbessern, ist nicht nur ein schรถner Gedanke, sondern auch technisch mรถglich – das hat das IOX LAB bereits in einem Projekt bewiesen: Gesichter wurden dabei anhand von Videodaten erkannt und so ausgewertet, dass anschlieรŸend die Gefรผhle der Personen ermittelt werden konnten. Dafรผr wurden einer speziellen Software geometrische Eigenschaften von Gesichtern zum Erstellen eines Algorithmus zugespielt. Der Algorithmus ermittelte dabei die acht Emotionen Angst, Ekel, Freude, Trauer, รœberraschung, Verachtung und Wut sowie den neutralen Gesichtsausdruck. Das sind eben jene Emotionen, die kulturรผbergreifend erkannt und auf der ganzen Welt mit bestimmten Gesichtsausdrรผcken kommuniziert werden. Als Ergebnis lieferte das System sowohl die Liste der Emotionen als auch die ausgewerteten Gefรผhle. Start Prototyping with us!

 


Experten-Chat

Was ist deine Meinung zum Artikel? Wir sind gespannt auf deine Gedanken. Melde dich fรผr einen ganz entspannten Austausch mit einem unserer Fachexperten.

Discovery Call vereinbaren

Discovery Call

Wir mรถchten mehr รผber dich erfahren! Erzรคhl uns von deinen Herausforderungen und deinem Bedarf, um herauszufinden, wie IOX dir helfen kann.

30-Minuten Demo vereinbaren
Click to rate this post!
[Total: 1 Average: 5]