CROWDSOURCED DATEN KÖNNEN IHREM TELEFON BEIBRINGEN, IHREN AUGEN ZU FOLGEN - TECHCRUNCH - HANDY, MOBILTELEFON - 2019

Anonim

Eye-Tracking war schon immer ein schwieriges Problem. Multi-Kamera-Lösungen existierten, um die Position der Augen im 3D-Raum zu erfassen, aber im Allgemeinen zu beobachten, wo Ihre Peepers war zu hart für Handys. Forscher des MIT und der University of Georgia haben nun ein Eyetracking-System entwickelt, das auf Crowdsourcing-Daten basiert.

Das Team erstellte eine einfache App, die einen Punkt auf dem Bildschirm zeigte und dann fragte, ob es auf der linken oder rechten Seite war. Die Probanden würden tippen, wo sie den Punkt sahen und das Telefon würde Videos und Bilder der Interaktion aufzeichnen. Sie nutzten Amazons Mechanical Turk, um Hunderte von Benutzern für den Test zu verwenden, und verwendeten dann Bildverarbeitungstechniken, um genau zu bestimmen, wohin ihre Augen gerichtet waren, wenn sie auf bestimmte Stopps klopften.

"Das Feld ist irgendwie in dieser Hühner-und-Ei-Schleife stecken geblieben", sagte Aditya Khosla, eine MIT-Doktorandin. "Da nur wenige Leute externe Geräte haben, gibt es keinen großen Anreiz, Anwendungen für sie zu entwickeln. Da es keine Anwendungen gibt, gibt es für die Leute keinen Anreiz, die Geräte zu kaufen. Wir dachten, wir sollten diesen Kreis aufbrechen und versuchen, dies nachzuverfolgen." funktioniert auf einem einzigen mobilen Gerät, nur mit Ihrer Frontkamera. "

Die meisten Eye-Tracking-Systeme verwendeten kleinere Stichproben und tendierten dazu, in der Praxis zu versagen. Mit 800 Datenpunkten konnten die Forscher jedoch "sehen", wo die Augen ohne Probleme zeigten.

Sie nutzen die Technologie des maschinellen Lernens, um die Augenposition aus den 1.600 Fotos zu ermitteln, die das System von jedem Benutzer aufgenommen hat.

Das maschinelle Lernsystem der Forscher war ein neuronales Netzwerk, das eine Software-Abstraktion ist, aber man kann es sich als ein riesiges Netzwerk von sehr einfachen Informationsprozessoren vorstellen, die in diskreten Schichten angeordnet sind. Das Training modifiziert die Einstellungen der einzelnen Prozessoren, so dass ein Datenelement - in diesem Fall ein Standbild eines Benutzers eines mobilen Geräts -, das der unteren Schicht zugeführt wird, von den nachfolgenden Schichten verarbeitet wird. Die Ausgabe der obersten Schicht wird die Lösung für ein Berechnungsproblem sein - in diesem Fall eine Schätzung der Richtung des Blickes des Benutzers.

Dies bedeutet, dass App-Entwickler die Bewegung der Augen in Smartphones wahrnehmen und diese Funktionalität möglicherweise ihren Geräten hinzufügen können. Es ist eine interessante Verwendung von Crowdsourcing-Daten und Mechanical Turk, die Auswirkungen auf den Telefongebrauch unter Behinderten haben könnten

.

und erleichtern Sie die Ausrichtung von Anzeigen.