OpenAI, światowy lider w rozwoju sztucznej inteligencji, znów znalazł się w centrum uwagi, choć tym razem nie za sprawą ChatGPT. Z firmy odeszło właśnie dwóch specjalistów zespołu Superalignment, zajmującego się zagrożeniami AI. W tle pojawiły się oskarżenia o liczne zaniedbania.
A miało być tak pięknie – w lipcu zeszłego roku Sam Altman, CEO firmy OpenAI, szumnie zapowiedział powołanie zespołu Superalignment, który miał zajmować się bezpieczeństwem superinteligentnych modeli, analizą wynikających z niej zagrożeń oraz sposobami kontroli błyskawicznie rozwijającej się AI. Miał się zajmować, ale od jakiegoś czasu już się nie zajmuje. Dlaczego? Bo zdaniem osób, które właśnie ogłosiły swoją rezygnację i odeszły z firmy, OpenAI utrudniał działanie zespołu.
OpenAI i zmiana priorytetów
Na czele zespołu Superalignment stał Ilya Sutskever, dyrektor do spraw naukowych w OpenAI, a zarazem jeden ze współzałożycieli firmy oraz Jan Leike, kierownik zespołu dopasowującego i to właśnie oni zapoczątkowali falę odejść z firmy. Wraz z nimi zrezygnowała ponoć część dawnej rady dyrektorów, już wcześniej skonfliktowana z Samem Altmanem, szefem OpenAI, którego pod koniec zeszłego roku odwołano, a który pięć dni później wrócił na swoje stanowisko. Wówczas spekulowano, że powodem zwolnienia Altmana miał być konflikt z Ilyą Sutskeverem dotyczących właśnie kwestii bezpieczeństwa sztucznej inteligencji.
Dziś okazuje, że pomimo szumnych zapowiedzi o przeznaczeniu na badania zespołu do spraw bezpieczeństwa 20 procent zasobów obliczeniowych firmy, ich prośby często były odrzucane, i to nawet te o tylko część tej mocy obliczeniowej. Jak informuje serwis TechCrunch, sytuacja ta doprowadziła do tego, że w połowie maja 2024 szeregi firmy zdecydowało się opuścić kilku czołowych badaczy. Jan Leike publicznie podał swoje powody odejścia, podkreślając różnice w priorytetach z kierownictwem OpenAI, które zamiast skupić się na priorytetach bezpieczeństwa i solidności systemów AI zajmuje się przede wszystkim komercjalizacją swoich produktów.
Co dalej z bezpieczeństwem AI
Po odejściu Leike'a i Sutskevera zadania Superalignment przejął John Schulman, kolejny współzałożyciel OpenAI. Niestety, już bez dedykowanemu temu zadaniu zespołowi. Jego rolę ma przejąć ponoć luźno powiązana grupa badaczy osadzona w różnych oddziałach firmy. Nietrudno się domyślić jakie obawy rodzi ta decyzja w kwestii skutecznego skupienia się na bezpieczeństwie w rozwijanych systemach AI. I to nawet jeśli część obowiązków Sutskevera i Leike przejmie nasz rodak - Jakub Piechocki, uważany za jednego z najwybitniejszych umysłów swojego pokolenia, który w połowie maja 2024 roku powołany został na stanowisko dyrektora naukowego w OpenAI.
Źródło: TechCrunch
Komentarze
5" firmy odeszło właśnie dwóch specjalistów"
Normalnie tsunami, a nie tylko fala panie autorze.
Po takim klikbajcie nie ma co tego czytać.