Firma Marka Zuckerberga udostępni naukowcom nowe narzędzie sztucznej inteligencji
Firma Marka Zuckerberga poinformowała, że przeszkoliła i udostępnia teraz naukowcom nowy duży model językowy, który jest kluczowym elementem niezwykle popularnych w ostatnich miesiącach systemów AI. Model będzie jednak mniejszy niż konkurenci i tutaj firma widzi korzyść.
Large Language Model Meta AI, czyli LLaMA - konkurencja Chata GPT
Meta dołącza do walki o dominację między firmami projektującymi sztuczną inteligencję tak jak jakiś czas wcześniej Google. LLaMA już wkrótce będzie dostępna na niekomercyjnej licencji dla naukowców i podmiotów powiązanych z rządem, sprawami obywatelskimi lub środowiskami akademickimi. Podobnie jak inne tego typu technologie, będzie on w stanie przetworzyć ogromne ilości tekstu, celem podsumowania danych i wygenerowania treści.
Meta ogłosiła, że jej model wymaga „znacznie mniej” mocy obliczeniowej niż inne oferty oraz jest szkolony równocześnie w 20 językach posługujących się alfabetem łacińskim i cyrylicą. Udostępnienie takiego narzędzia naukowcom jest krokiem w stronę szerszego przetestowania modelu, który Meta prawdopodobnie będzie chciała użyć w przyszłych produktach opartych na generującej treść sztucznej inteligencji.
Kolejny chatbot, tym razem od Zuckerberga?
Meta ma małe doświadczenie, jeśli chodzi o generatywną AI typu ChatGPT albo Barda, lecz sztuczna inteligencja jest dla firmy dobrym punktem zaczepienia dla inwestycji w branży technologicznej. Ostatnie spowolnienie gospodarcze w tym obszarze spowodowało masywne zwolnienia w wielu firmach, w tym w Mecie. Dla firmy Zuckerberga jest to też częściowo pokłosie skupiania się na Metaverse, które przynosi jak na razie więcej strat niż zysków.
Firma stwierdza, że LLaMA może przewyższać konkurentów pod względem ilości parametrów i zmiennych branych pod uwagę przez algorytm. ChatGPT od OpenAI posiada aż 175 miliardów parametrów, jednak Meta twierdzi, że to samo można osiągnąć, stosując mniejszy ich nakład. LLaMA dostępna będzie w kilku rozmiarach, zawierających się od zaledwie 7 miliardów parametrów po 65 miliardów.
Źródła: reuters, cnbc
Komentarze
4