Jeden z niewielu przykładów, w których sztuczna inteligencja nie ma na celu zmniejszenia, lecz podkreśla znaczenie człowieka.
Wikipedia by nie istniała, gdyby nie ludzie gotowi poświęcać swój czas na tworzenie i edytowanie artykułów. Im jednak większa staje się ta encyklopedia i im większy ma zasięg – a znajduje się ona już wśród dziesięciu najczęściej odwiedzanych witryn w Internecie – tym więcej idiotów złośliwców może przyczyniać się do jej dewastacji poprzez celowe dodawanie fałszywych informacji. Z tego zaś powodu „Wikipedyści” muszą marnować czas (i energię) na poprawianie zniszczonych artykułów zamiast skupiać się na tworzeniu nowych. Właśnie w celu identyfikacji i zwalczania takiego wandalizmu Aaron Halfaker z zespołu Wikimedia Foundation opracował nowy silnik sztucznej inteligencji.
Podczas gdy w większości przypadków wdrażanie rozwiązań opartych na sztucznej inteligencji ma na celu zastąpienie człowieka i umniejszenie jego znaczenia, tutaj jest zupełnie inaczej. Silnik Halfakera nazwany ORES (Objective Revision Evaluation System) jest w rzeczywistości próbą zwiększenia znaczenia ludzkich redaktorów dla Wikipedii – pozwala on bowiem „przenieść ludzkie moce tam, gdzie są one najbardziej potrzebne”, jak tłumaczy szef ds. badań WIkimedia Foundation, Dario Taraborelli. Nieustanna walka z wandalami sprawia, że ludzie nieczęsto zostają na Wikipedii na dłużej – być może dzięki „zautomatyzowanemu strażnikowi” to się zmieni.
Czym więc jest ORES? To zestaw algorytmów monitorujących ostatnie zmiany w artykułach, analizujących je i dających znać edytorom, gdy coś wyda się im podejrzane. Naukowcy wytrenowali sztuczną inteligencję w taki sposób, by rozróżniała ona niezamierzone pomyłki od celowych dewastacji. ORES jest już powoli wdrażany – to, czy się sprawdzi, okaże się już wkrótce.
Źródło: Wired, Engadget. Grafika: Evan Mills/Wired
Komentarze
8przydałaby się jakaś identyfikacja na wiki, coś na kształt potwierdzenia uczciwego edytora, nie powinien mieć każdy dostęp do edycji