Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Googles neue Technologie liest die Körpersprache – ohne Kameras

Googles Abteilung für fortschrittliche Technologien und Produkte ist ein bisschen wie die DARPA des Pentagons, denn sie entwickelt seltsame Produkte, die alles in der menschlichen Umgebung untersuchen, um vorauszusehen, was Ihre nächste Bewegung oder Absicht sein könnte. ⁃ TN-Redakteur

Was wäre, wenn Ihr Computer beschließen würde, keine Benachrichtigung zu senden, weil er bemerkt hat, dass Sie nicht an Ihrem Schreibtisch sitzen? Was wäre, wenn Ihr Fernseher bemerken würde, dass Sie die Couch verlassen, um an die Haustür zu gehen, und Netflix automatisch pausieren und die Wiedergabe fortsetzen würde, wenn Sie sich wieder hinsetzen? Was wäre, wenn unsere Computer mehr soziale Hinweise auf unsere Bewegungen aufnehmen und lernen würden, rücksichtsvollere Begleiter zu sein?

Es klingt futuristisch und vielleicht mehr als nur ein wenig invasiv – ein Computer, der jeden Ihrer Schritte überwacht? Aber es ist weniger unheimlich, wenn man weiß, dass diese Technologien nicht auf eine Kamera angewiesen sind, um zu sehen, wo Sie sind und was Sie tun. Stattdessen verwenden sie Radar. Googles Abteilung für fortschrittliche Technologien und Produkte – besser bekannt als ATAP, die Abteilung, die hinter seltsamen Projekten wie einer berührungsempfindlichen Jeansjacke steckt – hat das letzte Jahr damit verbracht, zu erforschen, wie Computer Radar nutzen können, um unsere Bedürfnisse oder Absichten zu verstehen und dann entsprechend auf uns zu reagieren.

Dies ist nicht das erste Mal, dass Google Radar einsetzt, um seinen Geräten ein räumliches Bewusstsein zu verleihen. Im Jahr 2015 stellte Google Soli vor, einen Sensor, der die elektromagnetischen Wellen des Radars nutzen kann, um präzise Gesten und Bewegungen zu erfassen. Zum ersten Mal konnte das Google Pixel 4 einfache Handgesten erkennen, sodass der Nutzer den Wecker stellen oder die Musik anhalten konnte, ohne das Smartphone physisch berühren zu müssen. Kürzlich wurden Radarsensoren in die zweite Generation des intelligenten Nest Hub-Displays integriert, um die Bewegungen und Atemmuster der neben ihm schlafenden Person zu erkennen. Das Gerät war dann in der Lage, den Schlaf der Person zu verfolgen, ohne dass diese sich eine Smartwatch umschnallen musste.

In dieser neuen Forschungsrunde wird derselbe Soli-Sensor verwendet, aber anstatt die Sensoreingaben zur direkten Steuerung eines Computers zu verwenden, nutzt ATAP die Sensordaten, um Computer in die Lage zu versetzen, unsere alltäglichen Bewegungen zu erkennen und neuartige Entscheidungen zu treffen.

“Wir sind der Meinung, dass mit der zunehmenden Präsenz der Technologie in unserem Leben auch die Technologie selbst ein paar mehr Hinweise von uns erhalten sollte”, sagt Leonardo Giusti, Leiter der Designabteilung bei ATAP. So wie Ihre Mutter Sie vielleicht daran erinnert, einen Regenschirm mitzunehmen, bevor Sie aus der Tür gehen, kann vielleicht auch Ihr Thermostat die gleiche Nachricht übermitteln, wenn Sie daran vorbeigehen und einen Blick darauf werfen – oder Ihr Fernseher kann die Lautstärke verringern, wenn er erkennt, dass Sie auf der Couch eingeschlafen sind. Mehr Details siehe Quelle.