AI wygeneruje Ci prawie każdy obraz – szkoda, że często nasiąknięty uprzedzeniami
DALL·E to system oparty o machine learning (uczenie maszynowe), które pozwala wygenerować prawie każdy obraz, na podstawie krótkiego opisu. Wyczarować może pandę grającą na pianinie w kosmosie oraz... obrazki pełne rasistowskich i seksistowskich uprzedzeń.
DALL·E to potężny system, który wykorzystuje najnowsze postępy w przetwarzaniu języka naturalnego (NLP) i polega na uczeniu systemów algorytmicznych jak analizować oraz reagować na ludzki język. Rezultaty są niezwykle realistyczne, jak chociażby w przypadku wydry morskiej w stylu „Dziewczyny z perłą” czy pluszowych misiów mieszających musujące chemikalia jak szaleni naukowcy:
Pojawiają się jednak głosy, że DALL·E cierpi na rasistowskie oraz seksistowskie uprzedzenia, o których etycy AI ostrzegali od wielu lat.
OpenAI przyznaje, że ich system dziedziczy uprzedzenia
Systemy uczenia maszynowego powszechnie wykazują uprzedzenia wobec kobiet i osób o innym niż biały kolorze skóry, a DALL·E nie jest wyjątkiem. W dokumentacji projektu na GitHub, OpenAI przyznaje, że:
Modele takie, jak DALL·E 2 mogą być wykorzystywane do generowania szerokiej gamy zwodniczych i w inny sposób szkodliwych treści. System dziedziczy różne uprzedzenia z danych treningowych, a jego wyniki czasami wzmacniają stereotypy społeczne.
W dokumentacji znajduje się ponadto ostrzeżenie, że może ona zawierać treści wizualne i pisemne, które niektórzy mogą uznać za niepokojące lub obraźliwe, w tym treści o charakterze seksualnym, nienawistnym lub agresywnym, a także przedstawiające stereotypy lub odwołujące się do nich. Jednak to nie wszystko. Korzystanie z DALL·E może:
Zaszkodzić jednostkom i grupom poprzez wzmacnianie stereotypów, wymazywanie lub oczernianie ich, zapewnianie im wydajności o nierównie niskiej jakości lub narażanie ich na poniżenie. Te zachowania odzwierciedlają błędy obecne w danych treningowych DALL-E 2 i sposób, w jaki trenowany jest model.
DALL·E i jego uprzedzenia
Przykłady w dokumentacji Open AI wskazują, że uwzględnienie wyszukiwanych haseł, takich jak „dyrektor”, generuje wyłącznie obrazy białych mężczyzn w garniturach:
Podczas gdy użycie słów „personal assistant” (z ang. osobisty asystent) skłania system do tworzenia obrazów wyłącznie kobiet:
Naukowcy ostrzegają również, że system może być wykorzystywany do dezinformacji i nękania, na przykład poprzez generowanie deepfake'ów lub sfałszowane obrazy wydarzeń informacyjnych.
Na czym polega problem?
W centrum problemu znajduje się wzrost wykorzystania dużych modeli językowych (LLM) – rodzaju szablonu, który zawiera setki miliardów parametrów. Umożliwia on inżynierom nauczenie systemów machine learning wykonywania różnych zadań przy stosunkowo niewielkim przeszkoleniu.
Badacze sztucznej inteligencji skrytykowali duże modele, takie jak GPT-3 (automatycznie uzupełnianie tekstu na podstawie otrzymanych podpowiedzi), za wytwarzanie wyników, które wzmacniają rasistowskie i seksistowskie stereotypy, argumentując, że masowość tych modeli jest z natury ryzykowna i praktycznie uniemożliwia kontrolę systemów.
OpenAI nie oferuje rozwiązania tych problemów, twierdząc, że znajduje się na wczesnym etapie badania stronniczości w systemie DALL-E i że jego analizę ryzyka należy traktować jako wstępną. Podkreśla jednak, że dzieli się swoimi odkryciami, aby umożliwić szersze zrozumienie technologii generowania obrazów, a także zagrożeń, które są z nią powiązane i zapewnić szerszy kontekst.
Źródło: vice.com, twitter; zdjęcia: github.com/openai/
Komentarze
27A jakby wygenerowała mieszane stanowiska na podstawie realnych statystyk rodzajów ludzi zatrudnianych jako dyrektorzy, umieszczając dane rodzaje ludzi proporcjonalnie to dalej byłby krzyk.
"Podczas gdy użycie słów „osobista asystentka” skłania system do tworzenia obrazów wyłącznie kobiet:" - asystenta to kobieta więc w czym problem?
Odkąd kobiety dołączyły do Benchmarka ogólny poziom poleciał na ryj. Gdzie diabeł nie może to babe pośle, wiadomo nie od dziś.
O to jestem Jan Szopen światowej sławy ekspert krytptowalut ktory pomoże co osiągnąć ten cel!
Pierwsze co musisz zrobić to zainstalować aplikacje crypto com inskorsystac z mojego kodu polecającego a otrzymasz za darmo az 25$ w kryptowalucie cro na start!
Byłem kiedyś zwykłym studentem tak ja ty bez szans na duże pieniądze jednak kryptowaluty zmieniły moje rzycie o zarobiłem 25 milionów $ staje się jednym z najbogatszych ludzi s Polsce!
Nie czekaj wpisz ten kod o dołącz do ludzi sukcesu i zacznij zarabiać! Miliony czekajo!!!
jjey2xxs9c
Wrzucam "dyrektor" i wyszukuje facetów + kobiety na stanowisku dyrektor szkoły lub urzędu.
Nie jest to więc raczej "problem" konkretnego narzędzia ale statystyki. Dodatkowo wymyśliliście sobie "dyrektorka" a potem zaskoczenie, że na końcówkę męską narzędzie informatyczne reaguje jak reaguje :D