Wirtualni asystenci stają się już częścią naszego życia. Ich działanie oparte o sztuczną inteligencję, która stale się uczy może jednak doprowadzić do tragedii. Doskonałym tego przykładem jest sytuacja z USA, gdzie Amazon Alexa kazała 10-latce włożyć monetę do… kontaktu.
“Włóż monetę do kontaktu” - powiedziała Alexa zapytana o “jakieś wyzwanie”
Do czego można wykorzystywać wirtualnych asystentów w naszych domach? Ano przede wszystkim do obsługi smart home - sterowanie oświetleniem, temperaturą etc. Możemy oczywiście (kiedy poczujemy się samotni) porozmawiać ze sztuczną inteligencją. W takiej sytuacji znalazła się 10-latka ze Stanów Zjednoczonych, która poprosiła Alexę o wymyślenie “jakiegoś wyzwania”.
Co wymyślił system Amazona, żeby zająć dziewczynkę? Tzw. “penny challenge” - wyzwanie, które polega na umieszczeniu monety (jednopensówki) na odsłoniętych bolcach ładowarki częściowo włożonej do gniazdka elektrycznego.
Penny challenge może wywołać zwarcie instalacji elektrycznej, co może skutkować wybuchem pożaru i porażeniem prądu.
Całe szczęście - do tragedii nie doszło, a Amazon już zaktualizował Alexę
Do niebezpiecznej sytuacji nie doszło ze względu na obecność matki 10-latki. Ta w porę zareagowała na propozycję Alexy, ale przy okazji broni swojego dziecka twierdząc, że jest ono na tyle roztropne, że i tak nie wykonałaby wyzwania penny challenge.
Sprawa została również przekazana do Amazona, który natychmiast zaktualizował Alexę pozbawiając ją tym samym penny challenge z pamięci.
Czy w przyszłości takich sytuacji będzie więcej?
Według mnie - tak. Sztuczna inteligencja ma to do siebie, że skądś musi pobierać wzorce. “Doskonałym” ich źródłem jesteśmy my, ludzie - i to jest największy problem.
Każdy z nas postępuje według nieco innych zasad i generalnie wszyscy zachowujemy się odmiennie. Nikt nie jest doskonały, a maszyny ucząc się od nas nabywają również to, co powszechnie może być uważane za nieodpowiednie.
Kogo jednak winić w sytuacji, kiedy w wyniku niebezpiecznej propozycji ze strony wirtualnego asystenta dojdzie do tragedii? To pytanie pozostawiam bez odpowiedzi - podzielcie się swoją opinia w komentarzach.
Źródło: bbc.com
Komentarze
27Jeżeli nie uczymy dzieci myśleć i odpowiedzialności (gniazdka = zagrożenie, nie wkładamy palców i widelców) to potem takie kwiatki wychodzą. Żadna technologia nie jest w 100% "idiotoodporna" i to naturalne, że jakieś "kwiatki" w każdym AI się pojawią.
(przynajmniej jednym). Dotyczy to domów i nie tylko. W naszym kraju.
W zasadzie, po modernizacji, elektrycznej, starego domu, pokazany efekt, nie ma prawa bytu.
Ale zagrożenie jest.
Samo usunięcie odpowiedzi z asystenta dużo nie zmieni bo wystarczy że pojawi się nowe wyzwanie równie głupie i zabawa znowu aktualna bo asystent potraktuje to jak sytuacje opisaną przeze mnie wyżej czyli pytanie od użytkownika > odpowiedź asystenta bez określenia jej szkodliwości
Ja mając 5 lat już wiedziałem czym kończy się wtykanie palców do nosa "śwince".
Nie raz podczas zabawy korki wysadziłem i wychodziłem z pokoju z fryzową stylizacją na einsteina i poczerniałymi palcami xD
Rodzina odetchnęła z ulgą kiedy nauczyłem się korzystać z różnych zasilaczy , zchodząc tym samym z 220V na 9,12 i 24V przy moich zabawach.
https://gbox.space/r?c=JKnncXSo