Für uns Menschen ist es nicht immer einfach, die Emotionen des Gegenübers einzuschätzen. Der eine setzt ein Pokerface auf, um seine Nervosität zu kaschieren, der andere überspielt seine Angst mit einem Lächeln, und der Dritte schaut betrübt drein, obwohl er innerlich zufrieden ist. Auch Gesichtserkennungsalgorithmen sind noch nicht verlässlich. Sie können zwar ein Lächeln erkennen, aber nicht den wahrhaftigen Gefühlszustand des Menschen. Forscher des Computer Science and Artificial Intelligence Laboratory (Csail) am Massachusetts Institute of Technology in Boston haben nun ein Gerät entwickelt, das in der Lage sein soll, die Emotionen einer Person mit Hilfe von Wireless-Signalen zu erkennen.

Herzfrequenz und Atmung

Funktionieren soll es wie folgt: Das EQ-Radio, wie das Gerät heißt, sendet wie ein Router elektromagnetische Wellen aus. Wenn diese auf den menschlichen Körper treffen, werden sie reflektiert und zurück auf das EQ-Radio gelenkt. Das Gerät erfasst diese Reflexion und extrahiert daraus die Herzfrequenz und Atemzyklen der Person. In einem Experiment wurden Probanden zweiminütige Video- und Musiksequenzen vorgespielt, die Emotionen hervorriefen. Je nachdem, wie oft das Herz schlägt oder die Lunge mit Sauerstoff gefüllt wird, zeigt sich dies in der Wellenform.

Man kann es sich wie im Schwimmbecken vorstellen: Wenn man sich bewegt, verändern sich dadurch die Wellen. Das System basiert auf der Radartechnik Frequency Modulated Carrier Waves, die Reflexionen von statischen Objekten eliminieren kann und so sensibel ist, dass sie das Auf und Ab der Brust wie auch Vibrationen durch den Puls aus nächster Nähe erfasst.

Mit Hilfe der reflektierten Wellen soll das EQ-Radio in der Lage sein, Herzschläge mit der Genauigkeit eines EKG zu messen. Die  Fehlertoleranz beträgt etwa 0,3 Prozent. Um die Varianzen in den Herzschlagintervallen zu analysieren, wurde ein maschinell lernender Algorithmus mit Daten gefüttert. Er leitet aus Schwankungen der Wellenformen Veränderungen des Gefühlszustands ab. Eine Person also, deren Signale mit einem geringen Erregungszustand korrelieren, könnte eher herabgestimmt oder traurig sein, eine Person mit hohem Puls dagegen freudig erregt, wütend oder ängstlich. Durch die Messung leichter Veränderungen der Herzfrequenz und Atemzyklen soll das EQ-Radio mit 87-prozentiger Genauigkeit erkennen können, ob eine Person aufgeregt, glücklich, wütend oder traurig ist.

„Unsere Arbeit zeigt, dass Drahtlossignale Informationen über das menschliche Verhalten erfassen können, die mit dem bloßen Auge nicht immer sichtbar sind“, sagte  die  Projektleiterin Dina Katabi, Professorin für Informatik. „Wir glauben, dass unsere Resultate den Weg für zukünftige Technologien ebnen können, die dabei helfen, Zustände wie Depressionen oder Ängste zu diagnostizieren.“ Katabi könnte sich aber auch kommerzielle Anwendungsgebiete für ihre Technik vorstellen, zum Beispiel  bei Filmstudios oder Werbeagenturen, die die Reaktionen von Zuschauern in Echtzeit messen können.

Das Smart Home wiederum könnte Informationen über die Gefühle dazu nutzen, die Heizung zu regulieren oder automatisch die Fenster zu öffnen, um Frischluft hereinzulassen.

Gleichwohl könnte die Technik auch zu Überwachungszwecken eingesetzt werden. Wie reagiert der Zuschauer auf eine Ansprache von Donald Trump? Sieht er Nachrichten über muslimische Einwanderer mit erhöhtem Puls? All diese Emotionen ließen sich mit der Radartechnik messen. Das EQ-Radio ist im Grunde nichts weiter als ein kleiner Router, wie er in fast jedem Haushalt steht.

Auch die Stimme ist verräterisch

Theoretisch könnten auch Provider Messungen in großem Stil durchführen und dabei einiges über den Gefühlshaushalt der Verbraucher erfahren. Dass Telekommunikationskonzerne Hintertüren für Geheimdienste eingebaut haben, ist seit den Enthüllungen von Edward Snowden bekannt. Und mit den intelligenten Lautsprechern Google Home und Amazon Echo – letzterer wurde bereits drei Millionen Mal verkauft – stehen weitere als virtuelle Assistenten getarnte Wanzen in Haushalten und hören  ständig mit.

Jede Aussage landet auf einer Serverfarm, wo sie von Algorithmen ausgewertet wird. Aus Stimmanalysen  lassen sich detaillierte Psychogramme erstellen. Denn die Stimme ist wie der Herzschlag ein biometrisches Merkmal. Man sollte eigentlich froh sein, dass nicht jeder Gefühlszustand auslesbar ist, weil Emotionen zum Kernbereich der Persönlichkeit gehören. Doch mit der Technik sind selbst so intime Dinge wie Gefühle bald nicht mehr privat.