Computer werden immer ubiquitärer. Was bedeutet ubiquitär? Sie werden immer kleiner und rücken in unserer Aufmerksamkeit immer mehr in den Hintergrund. Heute haben wir wie selbstverständlich immer unser Smartphones bei uns, im Fahrzeug arbeiten teilweise bis zu 100 Microprozessoren und selbst die Kaffeemaschine hat heute schon einen kleinen Computer eingebaut. Wir nehmen diese Computer aber nicht mehr direkt wahr. Das Paradoxe hierbei ist, dass je weniger wir diese Computer wahrnehmen, diese umso mehr über uns wissen. Denn wenn wir das Smartphone mit dem Auto und der Kaffeemaschine verbinden, ergibt sich schon ein relativ genaues Bild über unseren Alltag.
Auf der anderen Seite ist es doch verblüffend, wie die Interaktion zwischen dem Menschen und den ubiquitären Computern immer noch über ein Display, eine Tastatur und eine Maus stattfindet, Vielleicht „touche“ ich auf dem Bildschirm sogar, aber all diese Interaktionsformen sind sehr computerfreundlich entworfen. Wir passen uns an den Computer an. Das müsste im 21. Jahrhundert doch viel natürlicher funktionieren!
Und zwar aus einem ganz einfachen Grund: Wenn der Computer, das Tablet oder Smartphone, an dem Sie gerade diesen Text lesen, ein Eye-Tracking-Gerät eingebaut hätte, so könnte der Computer erkennen, ob Sie diesen Text lesen oder nicht und an welcher Stelle Sie sich gerade befinden. Dazu erkennt er, ob Ihre Augen den Computer „anschauen“ und berechnet die Position auf dem Bildschirm. Falls Sie eine Weile den Computer nicht mehr anschauen, kann der Computer davon ausgehen, dass Ihre Aufmerksamkeit sich wo anders befindet. Wir sind aber davon überzeugt, dass die nächste Generation unserer digitalen Assistenten diese Fähigkeit serienmäßig beherrschen wird.
Damit ergeben sich viele neue spannende Möglichkeiten: Wenn Eye-Tracking in vielen Geräten integriert ist, könnten beispielsweise Autos erkennen, ob ein Autofahrer einen Fußgänger, der die Straße überqueren möchte, erkannt hat oder nicht. In der virtuellen Realität könnten Avatare viel realistischer mit uns kommunizieren und Maschinen in einer Produktionshalle könnten erkennen, ob ein Werker einen sich auf ihn zubewegenden Roboter wahrgenommen hat oder nicht.
Die Hardware existiert dazu heute schon. Die Sensoren sind inzwischen nur noch so groß wie eine Streichholzschachtel und in der Massenproduktion sind diese Geräte schon relativ billig. Was fehlt sind die passenden Algorithmen für die Interpretation der Augenbewegungen. Sind diese Algorithmen erst einmal entwickelt, öffnet sich die Türe zu weiteren spannenden Technologien, die Eye-Tracking nutzen und zu neuen Geschäftsmodellen auf Basis der „perzeptiven Information“.
Über den Autor
Dr. Michael Raschke ist Mitgründer und Geschäftsführer der Blickshift GmbH sowie ein Experte für eine visualisierungsbasierte Analyse von Augenbewegungen. Michael ist davon überzeugt, dass der Schlüssel für die Realisierung von ubiquitären System in einem tiefen Verständnis des menschlichen Verhaltens liegt. Michael ist Autor und Co-Autor von mehr als 40 Publikationen auf den Gebieten der Visualisierung, Visual Analytics, des Eye-Trackings und der Mensch-Computer-Interaktion.
Kommentare gerne direkt auch an den Autor.