Ciekawostki

ChatGPT jest naprawdę dobry w fałszowaniu paragonów. OpenAI: To wolność twórcza

przeczytasz w 2 min.

ChatGPT wprowadził nowy generator obrazów, który umożliwia tworzenie realistycznych fałszywych paragonów. To narzędzie może być wykorzystywane przez oszustów do generowania fałszywych dowodów zakupu. OpenAI tłumaczy, że mieści się to w szeroko pojętej wolności twórczej.

W kwietniu ChatGPT zaprezentował nowy generator obrazów w ramach modelu 4o, który znacznie lepiej radzi sobie z generowaniem tekstu wewnątrz obrazów. "Za pomocą 4o można generować fałszywe paragony. Istnieje zbyt wiele przepływów weryfikacji w świecie rzeczywistym, które opierają się na „prawdziwych obrazach” jako dowodzie. Ta era się skończyła" - napisał Deedy Das na platformie X, prezentując fałszywy paragon z restauracji w San Francisco.

Jakie są zagrożenia związane z nowym generatorem obrazów?

Nowe narzędzie ChataGPT może być wykorzystywane do tworzenia fałszywych paragonów, co stanowi potencjalne zagrożenie dla procesów weryfikacyjnych opartych na obrazach. Użytkownicy już teraz tworzą paragonowe fałszywki, które wyglądają niezwykle realistycznie, nawet z dodatkowymi plamami jedzenia czy napojów, aby zwiększyć ich autentyczność. Portal TechCrunch wygenerował fałszywy paragon dla Applebee’s w San Francisco. Choć próba zawierała pewne błędy, takie jak użycie przecinka zamiast kropki, to jednak pokazuje, jak łatwo można stworzyć przekonujące fałszywki.

Postanowiłam również przetestować możliwości modelu 4o ChataGPT na przykładzie Biedronki. Jak widać poniżej, z paragonami radzi sobie zaskakująco dobrze, choć są drobne błędy. Wprawne oko od razu wyłapie, że to fałszywka, ale osoby, które nie mają na co dzień z tym styczności, mogą dać się nabrać.

Czy OpenAI kontroluje wykorzystanie swojego narzędzia?

OpenAI zapewnia, że wszystkie obrazy generowane przez ChatGPT zawierają metadane wskazujące na ich pochodzenie. "OpenAI podejmuje działania, gdy użytkownicy naruszają zasady użytkowania i stale uczy się na podstawie rzeczywistego użycia i opinii" - powiedziała Taya Christianson, rzeczniczka OpenAI. Mimo to, pytania o zgodność z polityką OpenAI, która zakazuje oszustw, pozostają otwarte.

Christianson przekazała też, że "celem OpenAI jest zapewnienie użytkownikom jak największej wolności twórczej". Według niej fałszywe pokwitowania AI mogą być wykorzystywane w sytuacjach niezwiązanych z oszustwami, takich jak "nauczanie ludzi o umiejętnościach finansowych" wraz z tworzeniem oryginalnej sztuki i reklam produktów.

Źródło: Tech Crunch, grafika: Adobe Stock, ChatGPT

Komentarze

0
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.

    Nie dodano jeszcze komentarzy. Bądź pierwszy!

Witaj!

Niedługo wyłaczymy stare logowanie.
Logowanie będzie możliwe tylko przez 1Login.

Połącz konto już teraz.

Zaloguj przez 1Login