Sztuczną inteligencję z powodzeniem wykorzystuje się w wielu obszarach życia. Co jednak z sądownictwem? Według kanadyjskiej adwokat, Nehy Chugh, jest na to jeszcze za wcześnie.
Co robi AI w sądach?
Sztuczna inteligencja jest wykorzystywana niemalże wszędzie - na stadionach piłkarskich podczas tegorocznego mundialu w Katarze, w sztuce i nauce. Jest też ponoć używana przez chiński rząd, aby monitorować umysły urzędników partii komunistycznej. Można by tak wymieniać jeszcze długo, w jakich obszarach życia trafimy na AI i mimo, że może pomóc w wielu różnych kwestiach, to budzi w niektórych osobach dużo obaw i wątpliwości. Szczególnie kontrowersyjne wydaje się wykorzystanie sztucznej inteligencji w sądownictwie, choć znajduje swoich zwolenników:
Podejmowanie decyzji oparte na algorytmach i danych jest coraz częściej wykorzystywane w przedprocesowych ocenach ryzyka w Stanach Zjednoczonych jako narzędzie do obliczania ryzyka ponownego popełnienia przez oskarżonego przestępstwa. Zwolennicy argumentują, że usuwa to nieodłączne uprzedzenia obecne w postaciach wymiaru sprawiedliwości w sprawach karnych, takich jak policja, sędziowie czy prokuratorzy.
Jednak zgodnie z artykułem opublikowanym w czasopiśmie IEEE Technology and Society, autorstwa doktoranta kanadyjskiego Uniwersytetu Concordia oraz Nehy Chugh, obrońcy w sprawach karnych, nie jest to takie proste. Chugh argumentuje, iż oceny ryzyka AI, choć nie są jeszcze stosowane w kanadyjskich sądach, wykazują wiele „czerwonych flag", którymi wymiar sprawiedliwości musi się zająć.
Jako przykład problemów stwarzanych przez narzędzia do oceny ryzyka wskazuje ona przełomową sprawę Jeffrey'a Ewerta przeciwko Kanadzie. Mężczyzna odsiadujący dożywotni wyrok za morderstwo i usiłowanie zabójstwa argumentował przed sądem, iż testy stosowane przez Corrections Services Canada są kulturowo uprzedzone wobec rdzennych więźniów, przetrzymując ich w więzieniach dłużej i w bardziej restrykcyjnych warunkach niż więźniów niebędących rdzennymi mieszkańcami.
Ewert mówi nam, że podejmowanie decyzji w oparciu o dane wymaga analizy napływających informacji – oraz wkładu nauk społecznych w ich wprowadzanie – oraz tego, w jaki sposób uprzedzenia wpływają na informacje wychodzące. Jeśli wiemy, że dyskryminacja systemowa nęka nasze społeczności i dezinformuje nasze dane policyjne, to skąd możemy mieć pewność, że dane informujące o tych algorytmach przyniosą właściwe wyniki?
Jak twierdzi Chugh, wykorzystywanie sztucznej inteligencji do przeprowadzania ocen ryzyka mogłoby przenieść uprzedzenia ludzi na algorytmy przez nich stworzone, gdyż złe dane wejściowe poprowadzą do złych danych wyjściowych.
Za wcześnie jeszcze na AI w sądownictwie
Chugh zwraca uwagę, że sztuczna inteligencja jest już rozważana w niektórych kanadyjskich sądach. Jako członek Rady Gubernatorów Komisji Prawnej Ontario ma ona zastrzeżenia co do sposobu, w jaki komisja rozważa wykorzystanie sztucznej inteligencji w sprawach takich, jak postępowania przed sądem administracyjnym lub przez policję jako narzędzia dochodzeniowe.
Jednym z głównych problemów jest utożsamianie z nadmiernym poleganiem na sztucznej inteligencji w ocenie ryzyka i innych kwestiach, jest brak subiektywnej dyskrecji i szacunku. Są to kluczowe filary niezależnego sądownictwa. Prawa i statuty określają parametry, w ramach których mogą działać sędziowie, i pozostawiają im pewną swobodę podczas uwzględniania istotnych czynników, takich jak indywidualna historia i okoliczności.
Neha Chugh uważa, że podejmowanie decyzji przez szeroki oraz uogólniony system nie jest dobrym pomysłem i zdecydowanie lepszym rozwiązaniem jest prowadzenie zindywidualizowanych rozmów z przestępcami, gdyż sądy mogą mieć ogromny wpływ na jednostki. Jak twierdzi jednak, nie jest całkowicie przeciwna stosowaniu sztucznej inteligencji w systemie sądowym, aczkolwiek, by wszystko działało poprawnie, potrzebne są dalsze badania.
Źródło: concordia.ca
Komentarze
9W kwestiach etyki tak "matematyczny" umysł, jak SI będzie dbał o jej utrzymanie oraz rozwój społeczeństwa, bez wolności jednostkowej i możliwości ewolucji w innym kierunku, rewolucji.
Jest tylko i wyłącznie zaprogramowana pseudointeligencja - Zaprogramowana...i napewno nie inteligencja...
Medialne nazwy są tylko po to by robić nam wode z mózgu...
Btw. "Mężczyzna odsiadujący dożywotni wyrok za morderstwo i usiłowanie zabójstwa argumentował przed sądem, iż testy stosowane przez Corrections Services Canada są kulturowo uprzedzone wobec rdzennych więźniów, przetrzymując ich w więzieniach dłużej i w bardziej restrykcyjnych warunkach niż więźniów niebędących rdzennymi mieszkańcami."
Z takim podejściem też trzeba uważać. To, że jakaś grupa statystycznie jest traktowana surowiej może wynikać np. z faktu, że w tej grupie było więcej więźniów "stwarzających problemy wychowawcze". Czyli jeśli statystycznie bruneci częściej grypsowali niż blondyni to statystycznie lepsze traktowanie blondynów nie miało związku z kolorem włosów.