Neues Bedienkonzept Google „Project Soli“

Google möchte mit dem „Project Soli“ die bedienung von Smartwatches und anderen Wearables und mobilen Endgeräten revolutionieren. Statt Touchscreen oder Sprachbefehlsteuerung setzt Google mit diesem Projekt auf eine Gestenseteuerung.

 

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Da viele Geräte werden immer kleiner werden, lassen sich diese kaum noch durch Tippen und Wischen auf einem Screen steuern – das gilt vor allem für Smartwatches. Es braucht also neue Lösungen, wie die Eingabebefehle zukünftig erkannt und umgesetzt werden können. Neuartige Radar-Sensoren sollen es möglich machen, dass Geräte nicht mehr angefasst werden müssen, sondern mit Handbewegungen im freien raum bedient werden können. Der Radar-Chip tastet die Bewegungen der Hand eines Benutzers ab und kann erkennen, ob z.B. einzelne Finger wie Daumen und Zeigefinger aneinander reiben, einen solchen Befehl könnte man zum scrollen nutzen. Der Radar-Chip erkennt die Bewegungen sogar wenn er beispielsweise von einem Gehäuse völlig verdeckt ist.

„Soli“ ist eine der erstaunlichsten Entwicklungen aus Googles Advanced-Technology-and-Projects-Gruppe (ATAP). Dahinter steckt ein Team von knapp 100 Forschern, das an neuen Zukunftstechnologien forscht. Auf der Google I/O wurde das Projekt vor einigen Tagen erstmals der Öffentlichkeit präsentiert.

Nur 10 Monate haben die Entwickler gebraucht um aus einem ersten Prototypen einen funktionstüchigen Chip zu entwickeln. Wie faszinierend dieser Chip ist und was damit zukünftig möglich sein wird, lässt sich in dem Video nur annähernd erahnen.

#Future #Google #Soli #Trend #Usability

Über den Autor