Sztuczna inteligencja nie otrzymała żadnych wskazówek. Dostała jedynie formę i środowisko, w którym miała ją wykorzystać. Jak poszło?
DeepMind, czyli zespół rozwijający technologie sztucznej inteligencji pod skrzydłami Google, pracuje teraz nad techniką zwaną „uczenie przez wzmacnianie” (ang. Reinforcement Learning), będącą jedną z metod uczenia maszynowego. Wykorzystuje ją, by nauczyć postać poruszania się w nieznanym jej środowisku.
Sztuczna inteligencja otrzymuje kształt postaci i jest wrzucana w wirtualne środowisko, w którym nigdy wcześniej nie była. Następnie próbuje nauczyć się chodzić i znajdować sposoby na to, by unikać przeszkód na swojej drodze oraz dążyć do celu, który brzmi: idź do przodu.
Na filmie, będącym podsumowaniem ostatniego eksperymentu, widzimy jak sztuczna inteligencja poradziła sobie z trzema swoimi formami (bezręki ludek, czworonóg i humanoid) w różnych, bardziej lub mniej przyjaznych warunkach.
Każda postać i każde środowisko pozwoliło sztucznej inteligencji na przyswojenie nowych wiadomości. Najpierw nauczyła się używania nóg, a zatem: chodzenia i biegania oraz kucania i skakania, potem – utrzymywania równowagi i omijania przeszkód, aż wreszcie reagowania na sytuacje nietypowe (ruchome podłoże). Oto efekty:
Zespół DeepMind stara się, by jego sztuczna inteligencja nauczyła się, jak powinna działać i dlaczego właśnie tak. To kolejny tego typu eksperyment, po nauce salta, o której wspominaliśmy niedawno w newsie Mówienie sztucznej inteligencji „dobra robota!”.
W tej próbie naukowcom udało się wyeliminować tradycyjną formę „nagrody”, którą zwykle „kuszona” jest sztuczna inteligencja w technice uczenia przez wzmacnianie. To zaś może w przyszłości przełożyć się na uproszczenie schematu nauki. Jak widać, poradziła sobie naprawdę nieźle (mogłaby jedynie popracować jeszcze nad pracą rąk).
Źródło: DeepMind
Komentarze
8