Gigant z Redmond chce powalczyć z Apple i Google.
Minęło zaledwie kilka dni od ujawnienia przez firmę Microsoft usługi Cortana – podobnego pod względem funkcjonalności do Siri wirtualnego asystenta mobilnego (dla Windows Phone). Teraz gigant z Redmond podzielił się swoimi planami dotyczącymi sztucznej inteligencji, dzięki którym w znaczący sposób przebite mają zostać oferty Apple i Google.
„Interfejs użytkownika zaczynał jako wiersz poleceń, później była era graficzna, następnie dotykowa, a jeszcze później główną rolę zaczęły odgrywać gesty” – opowiada Microsoft. – „Teraz nadszedł czas na niewidzialny interfejs, w którym nic nie musimy robić. Technologia wokół ciebie potrafi cię zrozumieć i wie co chcesz zrobić. Nasze wysiłki koncentrują się wokół takiego właśnie rozwiązania”.
Microsoft UI.Next to interfejs przyszłości, w którym użytkownik nie musi ani niczego klikać, ani dotykać, ani nawet machać rękami. System sam zbierać ma informacje i w czasie rzeczywistym przygotowywać odpowiedzi na nasze ewentualne potrzeby.
Zarówno Apple, jak i Google poczyniły już w tym kierunku pierwsze kroki. Passbook tej pierwszej firmy, na przykład, potrafi dynamicznie udostępniać informacje na temat wydarzeń na podstawie aktualnej lokalizacji użytkownika. Google Now natomiast może dostosować plany użytkownika opierając się na panujących w danym momencie warunkach drogowych.
Firma Microsoft chce popchnąć tę technologię jeszcze dalej – UI.Next objąć ma wszystkie lub niemal wszystkie sektory naszego życia. Zajawkę możemy zobaczyć w wirtualnej asystentce Windows Phone - Cortanie.
„Mówię do Cortany, Cortana odpowiada. Mówię ponownie, a ona rozumie, że wciąż prowadzimy tę samą konwersację. Od pierwszego wypowiedzianego przeze mnie zdania wie co mam na myśli” – powiedziała Jeannette Wing, wiceprezes Microsoft Research. – „To niewiele dla istoty ludzkiej, ale coś naprawdę ogromnego dla sztucznej inteligencji”.
Źródło: AppleInsider
Komentarze
19Miałem SGS2 myślałem że Google szpieguje ale kupiłem iPhone( największy błąd) I tam podczas pierwszej iOS konfiguracji pytania zabezpieczające:
1. Jakie jest nazwisko twojego pierwszego pracodawcy?
2. Gdzie leciałeś pierwszy raz samolotem?
Trzeciego już nawet nie pamiętam, teraz nawet nie wyciągniesz baterii z smartphone bo nie wolno Ci!
Wieli wujek musi wiedzieć gdzie jesteś, co jesz, i gdzie pojedziesz na wakacje.
I Microsoft UI.Next na to odpowie.
No jak coś takiego zaimplementują w tę sieć neuronową to chylę czoła.
Ale jak znam życie będzie wyglądało to tak, chcę skopiować linka z paska adresu przeglądarki, otworzyć notatnik, tam go wkleić, potem zapisać z określoną nazwą w określonej lokalizacji i tu się zaczynają schody, czy mrugnąć, czy głowę przekręcić, może się uśmiechnąć, a może trzeba zaklaskać :)
Bajek się naoglądali, człowiek to nie maszyna, każdy egzemplarz reaguje różnie na te same bodźce (nie licząc walenia młotkiem po łapach).
"UI.Next objąć ma wszystkie lub niemal wszystkie sektory naszego życia"
Jeśli będzie to działać TYLKO po stronie urządzenia, bez potrzeby łączenia się z serwerami MS - to OK.
Jeśli jednak nasze komendy / polecenia będą przetwarzane przez serwery MS - to agencje rządowe i reklamiarze, będą wniebowzięci - tyle cennych informacji o nas :)
Zastanawiam się, czy jeśli wtedy powiem "odinstaluj się szpiegu" polecenie zostanie wykonane i czy odinstaluje się sam "asystent", czy może cały OS l0l.
Jedynie taka opcja powinna być rozwijana w kierunku osób niepełnosprawnych by i oni mogły normalne korzystać z smarphonów, ale obecne "systemy głosowe" zbytnio do tego się nie nadają.