Ciekawostki

Sztuczna inteligencja zaczyna zmyślać? Naukowcy odkryli dlaczego

przeczytasz w 2 min.

"Halucynacje" sztucznej inteligencji to poważne zjawisko, które może zniechęcić do korzystania z nowej technologii. Naukowcy z Oksfordu odkryli przyczynę tych problemów i znaleźli sposób na ich wyeliminowanie.

Sztuczna inteligencja rozwija się błyskawicznym tempie, wprowadzając nowości do różnych dziedzin naszego życia. Chatboty, takie jak ChatGPT, stają się coraz bardziej popularne dzięki temu, że pomagają ludziom w codziennych sprawach – to nie tylko ciekawostka, ale też cenne wsparcie w edukacji, handlu czy obsłudze klienta. 

Technologia nie jest jednak doskonała. Poważnym problemem są tzw. halucynacje, przez które chatboty generują błędne odpowiedzi. Badacze z Oksfordu postanowili zgłębić temat i w magazynie Nature opisali szczegóły nowo opracowanej metody wykrywania konfabulacji.

Z czego biorą się “halucynacje” sztucznej inteligencji? 

Niektóre przypadki “halucynacji” są spowodowane nieprawidłowymi danymi treningowymi dużych modeli językowych (LLM), uogólnieniem lub innymi skutkami ubocznymi gromadzenia danych, ale spora część takich przypadków powstaje podczas używania słów o wielu znaczeniach (entropii semantycznej). Sztuczna inteligencja nie zawsze rozróżnia odpowiadające znaczenie, przez co generuje niepożądane odpowiedzi. 

Nowa metoda wykrywa entropię semantyczną w wynikach LLM, dzięki czemu badacze mogą ustalić prawdopodobieństwo halucynacji sztucznej inteligencji. Pozwoli to dokładniej sprawdzić odpowiedzi generowane przez chatboty, co z pewnością poprawi ich jakość i zwiększy zaufanie do nowej technologii. Dużą zaletą tej metody jest to, że działa ona bez potrzeby dodatkowego nadzoru ze strony człowieka. 

Według zespołu badawczego "nowa metoda pomaga użytkownikom zrozumieć, kiedy muszą zachować szczególną ostrożność przy korzystaniu z LLM i otwiera nowe możliwości korzystania z LLM, które w przeciwnym razie byłyby niemożliwe przez ich zawodność".

Ograniczone zaufanie to podstawa

Warto jednak pamiętać, że sztuczna inteligencja, nawet przy użyciu najbardziej zaawansowanych narzędzi do wykrywania błędów, może się mylić i udzielać błędnych lub szkodliwych odpowidzi (przykładem jest odpowiedź Google AI, które chorym na depresję podpowiadało skok z mostu). Technologia na pewno potrafi być pomocna, ale należy jej używać z ograniczonym zaufaniem.

foto na wejście: Adobe Stock

Komentarze

15
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Premek1983
    6
    Sztuczna dupa A nie inteligęcja....
    • avatar
      oreonoreon
      3
      Halucynacje czy konfabulacja?
      • avatar
        krzysiek
        1
        ale to nie wygląda na prawdziwy powód - GTP 3.0 zapytany np o najlepsze książki wydany w danym roku po prostu coś wymyślał. Np przypisywał nicestwiejące książki istniejącym autorom i wymyślał ich fabułę.
        Coś takiego nie wygląda na ową entropię semantyczną…
        • avatar
          serek25
          1
          Skoro prawdomówność botów ma ma być oceniana za pomocą rachunku prawdopodobieństwa, to sztucznej inteligencji jeszcze długo nie będzie.
          • avatar
            kkastr
            1
            Czyli będziemy mogli określić prawdopodobieństwo, że odpowiedź SI jest prawdziwa. Oczywiście tylko z pewnym prawdopodobieństwem, że to prawdopodobieństwo jest prawdziwe.
            • avatar
              Marek1981
              1
              Często nie są to halucynacje a prawdziwe dane, które nie odpowiadają ogólno przyjętej narracji przyjętej przez twórców.
              • avatar
                owatanka
                -1
                To raczej przez uczenie AI sprzecznymi danymi typu 2+2=4 ale zeby byc poprawnym politycznie wynik moze byc inny przykladowo 3 lub 5 czy tez ze AI sama doszla do wniosku ze ludzie o ciemnej karnacji skory czesciej popelniaja przestepstwa co wynika zwyczajnie ze statystyk policyjnych i zostalo skorygowane aby ta nie podawala takich informacji kazde zle slowo na ciemnoskorych, lub pewne wybrane religie skutkuje nieprawidlowym dzialaniem AI a ta zbierajac statystyki poprawnych i niepoprawnych odpowiedzi sama uczy sie uzywac niepoprawnych odpowiedzi lub gdy polecisz jakis cytat z ksiazki to mozesz sie natknac na zupelnie inny a to za sprawa wadliwej bazy danych gdzie cytat byl zaczerpniety z mema i dla smiechu dopisany byl zupelnie inny autor aby nadac cytatowi wiarygodnosci...
                Jest cala masa tego tylu bledow a wystarczylo by uczyc AI sprawdzonych danych bez ograniczen poprawnosci politycznej czy bez korzystania z dziel troli internetowych
                • avatar
                  Janisz
                  -12
                  Dość często spotykam się z halucynacjami tej tzw sztucznej inteligencji. Np zwraca wynik że Lincoln był białym człowiekiem, Kopernik był mężczyzną, a w europie żyją biali ludzie... To rzeczywiście wymaga badań, bo takie wyniki są niedopuszczalne!.. Dopóki ten stan nie ulegnie naprawie nie mam zamiaru dalej użytkować tej rasistowsko-mizoginistycznej technologii...
                  • avatar
                    stalkerpl
                    0
                    inteligencja murzynów i ich postrzeganie świata
                    • avatar
                      vacotivus
                      0
                      Zaczyna? Hahhahahahahahahaha...
                      • avatar
                        Aquagen
                        0
                        Po wiadomościach z kilku ostatnich dni, pierwsze co pomyślałem, że za te halucynacje odpowiada fentanyl z Żuromina.
                        • avatar
                          wojtek_pl
                          0
                          Nie używam AI. A przynajmniej świadomie. Nie wiadomo co się kryje za zwykłą wyszukiwarką Google...