Sztuczna inteligencja wspiera policję w USA. Czasem dochodzi jednak do poważnych pomyłek, które prowadzą do niesłusznych aresztowań. Co najmniej osiem osób zatrzymano przez błąd AI.
W Stanach Zjednoczonych co najmniej ośmiu obywateli zostało niesłusznie aresztowanych z powodu błędnej identyfikacji przez oprogramowanie rozpoznawania twarzy. Jak informuje "Washington Post", policja często polega na sztucznej inteligencji, mimo że nie ma dodatkowych dowodów, pozwalających na rozpoznanie osoby.
Dziennik "Washington Post" przeanalizował dane z raportów policyjnych, akt sądowych oraz rozmów z funkcjonariuszami, prokuratorami i adwokatami. Wyniki wskazują, że problem może być znacznie większy, ponieważ prokuratorzy rzadko ujawniają użycie AI. Wynika to z faktu, że prawo wymaga tego tylko w siedmiu stanach.
W znanych przypadkach niewłaściwego aresztowań policja nie podjęła podstawowych działań śledczych, takich jak sprawdzenie alibi, porównanie znaków szczególnych czy analiza dowodów DNA i odcisków palców. W sześciu przypadkach zignorowano alibi podejrzanych, a w dwóch nie uwzględniono dowodów, które przeczyły założeniom policji.
Jednym z przykładów jest aresztowanie osoby podejrzanej o zrealizowanie sfałszowanego czeku. Policja, opierając się na AI, nie sprawdziła nawet kont bankowych podejrzanego. W innym przypadku kobieta w zaawansowanej ciąży została aresztowana za kradzież samochodu, mimo że świadkowie i monitoring nie wskazywali, by sprawca był osobą ciężarną.
Ślepe ufanie nowoczesnym technologiom
Oprogramowanie do rozpoznawania twarzy działa niemal doskonale w warunkach laboratoryjnych, ale jego skuteczność w rzeczywistych sytuacjach jest wątpliwa. Katie Kinsey z NYU zwraca uwagę na brak niezależnych testów sprawdzających dokładność technologii na niewyraźnych zdjęciach z monitoringu.
Badacze odkryli też, że osoby korzystające z narzędzi AI mogą ulegać skłonności do ślepego ufania podejmowanym przez nie decyzjom. Z badań neurobiologów z University College of London wynika, że respondenci wybierali jako najbardziej podobne do wzoru te odciski palców, które komputer wskazał im jako pierwsze. "Zaufanie do systemu uniemożliwiło im prawidłową ocenę podobieństw" - podkreślił dziennik.
Źródło: PAP
Komentarze
2