iOS 18 pozwala obsługiwać iPhone’a nie tylko za pomocą ekranu dotykowego i komend głosowych, ale i ruchu gałek ocznych. Nie działa to idealnie, ale i tak lepiej niż oczekiwałem.
Śledzenie oczu - zwane również przez Apple’a Eye Trackingiem - to funkcja wchodząca w skład ułatwień dostępności, a więc opracowano ją głównie z myślą o osobach niepełnosprawnych. Widzę w niej jednak szerszy potencjał, bo w teorii może się przydać wszędzie tam, gdzie użytkownik ma brudne lub zajęte ręce. Choćby w kuchni czy warsztacie.
iOS 18 - śledzenie oczu działa OK, ale wymaga cierpliwości
Na wstępie zaznaczę, że system iOS 18 znajduje się w fazie beta. Do dnia premiery finalnej wersji - co ma nastąpić we wrześniu - działanie śledzenia wzroku może zostać usprawnione lub zmienione.
Konfiguracja funkcji Eye Tracking jest balanie prosta. Wystarczy włączyć ją w ustawieniach dostępności iOS 18 i podążać wzrokiem za wyświetlaną na ekranie kropką, aby oprogramowanie nauczyło się poprawnie interpretować ruch gałek ocznych, co trwa mniej niż minutę. Apple sugeruje ustawienie iPhone’a w stabilnej pozycji z odległości ok. pół metra od twarzy.
Ruch kursora może być płynny, ale domyślnie oprogramowanie przyciąga go do najbliższych klikalnych obiektów, co jest to zdecydowanie wygodniejsze. Aby kliknąć jakiś obiekt, należy na kilka sekund zawiesić na nim wzrok.
Jeśli odstępy między klikalnymi obiektami są duże, śledzenie oczu przez iPhone’a działa naprawdę OK. Problemy pojawiają się w przypadku ciaśniej upakowanych elementów interfejsu, choćby w ustawieniach. Przykładowo tutaj próbowałem wybrać "Dostępność", co chwilę mi zajęło.
Na ekranie cały czas widoczny jest pływający przycisk ze skrótami odpowiedzialnymi za przewijanie treści czy powrót do ekranu głównego.
Co z pisaniem? Też się da, ale jest to proces czasochłonny. Kolejne znaki wstawia się najpierw wskazując wzrokiem wiersz na klawiaturze, a dopiero później konkretny znak. Napisanie prostego słowa "test" zajęło mi dobrą minutę, a cały proces nawet nie zmieścił się w GIF-ie.
Co ciekawe, gdy śledzenie wzroku jest włączone, a wyświetlacz iPhone’a wygaszony, wystarczy spojrzeć na telefon, by ten się wybudził.
Póki co śledzenie oczu nie działa jeszcze idealnie, ale nie wiem, na ile jest to wina technologii, a na ile… biologii. Osobiście mam ogromne trudności z utrzymaniem wzroku na jakimś obiekcie. Moje oczy mimowolnie wykonują mikroruchy, które iOS 18 wykrywa, więc klikając w każdy element muszę się mocno skupić.
Nie mam jednak wątpliwości, że w przypadku osób niepełnosprawnych, które nie mogą korzystać z ekranu dotykowego, śledzenie oczu w iOS 18 będzie przełomem. Zwłaszcza w Polsce, gdzie brak spolszczonej Siri utrudnia obsługę głosową.
Komentarze
6Kto z Was jeszcze pamięta?