Ciekawostki

OpenAI wprowadza GPT-4.1. Szybciej, lepiej, taniej

przeczytasz w 2 min.

OpenAI zaprezentowało nową rodzinę modeli AI o nazwie GPT-4.1, które mają zrewolucjonizować podejście do programowania i przetwarzania języka naturalnego.

Nowa rodzina modeli OpenAI to w praktyce trzy warianty: GPT-4.1, GPT-4.1 mini oraz GPT-4.1 nano. Charakteryzuje je zdolność do obsługi ogromnych ilości danych oraz precyzyjne wykonywanie poleceń - informuje TechCrunch.

Nowe możliwości przetwarzania

Modele GPT-4.1 zostały zaprojektowane tak, aby jak najlepiej radzić sobie z programowaniem oraz ścisłym podążaniem za instrukcjami użytkownika. Dzięki kontekstowemu oknu o wielkości 1 miliona tokenów są w stanie przetworzyć jednorazowo około 750 tysięcy słów. Choć są dostępne przez interfejs API OpenAI, nie można z nich korzystać za pośrednictwem ChatGPT.

Rodzina GPT-4.1 została ogłoszona w chwili, gdy giganci branży tacy jak Google i Anthropic intensyfikują prace nad zaawansowanymi modelami służącymi do programowania. Google niedawno wprowadziło model Gemini 2.5 Pro, który również dysponuje kontekstowym oknem o wielkości 1 miliona tokenów i osiąga wysokie wyniki w popularnych testach kodowania.

Optymalizacja dla deweloperów

Wielu gigantów technologicznych dąży do stworzenia modeli AI zdolnych do wykonywania skomplikowanych zadań z obszaru programowania. Takie narzędzia potencjalnie mogą zautomatyzować proces tworzenia aplikacji lub służyć jako swego rodzaju asystent programisty.

Przedstawiciel OpenAI w rozmowie z TechCrunch podkreślił, że model GPT-4.1 został zoptymalizowany na podstawie bezpośrednich opinii użytkowników. "Ulepszyliśmy GPT-4.1 w obszarach kluczowych dla deweloperów: kodowaniu frontendowym, redukcji zbędnych edycji, niezawodnym formatowaniu, trzymaniu się struktury odpowiedzi i spójnym korzystaniu z narzędzi" – wyjaśnił.

W testach wewnętrznych GPT-4.1 osiągnął wynik od 52% do 54,6% w SWE-bench Verified. To nieco niższy rezultat niż uzyskany przez konkurencyjne modele Google Gemini 2.5 Pro (63,8%) i Anthropic Claude 3.7 Sonnet (62,3%). Ponadto, w ocenie Video-MME, która mierzy zdolność modelu do rozumienia treści wideo, GPT-4.1 osiągnął najwyższą skuteczność 72% w kategorii długich filmów bez napisów.

Źródło: TechCrunch, OpenAI

Obserwuj benchmark.pl w Google News. Wszystkiego dowiesz się przed innymi!
obserwuj

Komentarze

4
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    GejzerJara
    2
    to głupie AI nie potrafiło mi narysować cegły z gąbki skręconej do formy śruby :)
    • avatar
      Pan Kierownik
      1
      Sztuczna inteligencja w natarciu, niedługo wszyscy stracimy pracę a szczególnie programiści

      Witaj!

      Niedługo wyłaczymy stare logowanie.
      Logowanie będzie możliwe tylko przez 1Login.

      Połącz konto już teraz.

      Zaloguj przez 1Login