Projekt Soli: Mit Google Geräte ohne Berührung bedienen

Google setzt auf Gestensteuerung und ruft das Projekt Soli ins Leben. Mit winzigen Radarchips sollen Hand- und Fingerbewegungen erfasst werden, die dann in der Lage sind, Geräte und Apps zu steuern.
Ivan Poupyrev leitet das Projekt Soli bei der Forschungsgruppe Google ATAP

Das Projekt Soli entwickelt etwas Tragbares, aber es ist nicht einfach nur eine Uhr, die den Nutzer in und auswendig kennt. Es geht vielmehr um unsere Hände – das beste Körperteil, um mit einem Gerät in Interaktion zu treten.

Ohne das Gerät zu berühren

Google entwickelt also einen Chip, der durch das Aussenden von Radiowellen und das Analysieren der Reflexionsmuster mit dem elektronischen Baustein die Bewegung von Händen und Fingern in Echtzeit erfassen kann. Der kleine Chip kann zum Beispiel in eine Smartwatch integriert werden. Denn theoretisch könnte alles mit Hand- und Fingerbewegung gesteuert werden, ohne das Smartphone, den Fernseher oder die Musikanlage anzufassen. Jede Bewegung, als das Ballen einer Faust oder die Bewegung eines Fingers, verändert somit das Reflexionsmuster und die Ausführung am Gerät.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Derzeit ist das Projekt noch im Anfangsstadium – doch Google erhofft sich dadurch eine Vormachtstellung im Bereich der Gestensteuerung zu sichern.