Procesory

Intel tłumaczy się ze słabej wydajności procesorów Arrow Lake w grach. Co poszło nie tak?

przeczytasz w 2 min.

Dlaczego procesory Intel Core Ultra 200 oferują słabszą wydajność w grach? Producent zabrał głos w tej sprawie, wyjaśniając przyczyny niezadowalających wyników w gamingu. Okazało się, że kluczowe znaczenie miały inne priorytety.

Procesory Intel Core Ultra 200 to bez wątpienia jedno z największych rozczarowań tego roku. Mieliśmy okazję przetestować model Core Ultra 5 265K, a wkrótce opublikujemy testy kolejnych układów. Jednostki te oferują bardzo dobrą wydajność w zastosowaniach procesorowych, jednak ich osiągi w grach pozostawiają sporo do życzenia. W niektórych tytułach wydajność jest porównywalna z modelami poprzednich generacji, co może rozczarować graczy oczekujących większego skoku wydajności. 

Cyberpunk 2077 (1080p, Ultra, RT Ultra, DirectX 12)
[fps] więcej = lepiej

AMD Ryzen 9 9950X (16C/32T) 127
109
AMD Ryzen 9 9900X (12C/24T) 127
106
Intel Core i9-14900K (24C/32T) 126
109
Intel Core i5-14600K (14C/20T) 125
105
Intel Core Ultra 9 285K (24C/24T) 111
90
Intel Core Ultra 7 265K (20C/20T) 110
88
Legenda: średnie klatki na sekundę
 minimalne klatki na sekundę

Z tego powodu procesory zostały chłodno przyjęte przez media, co na pewno odbiło się na zainteresowaniu ze strony użytkowników (nie pomagają też problemy procesorów Intel Core Ultra 200 w grze Fortnite). 

Tak miało być, bo chodzi o coś więcej 

Firma Intel zorganizowała konferencję dla dziennikarzy z Korei Południowej, gdzie podsumowała premierę mobilnych procesorów Core Ultra 200V (Lunar Lake) i desktopowych Core Ultra 200S (Arrow Lake). Dziennikarze mogli zapoznać się ze sprzętem, ale przy okazji mogli zadać pytania przedstawicielom producenta. 

Dziennikarze z koreańskiego serwisu QuasarZone zapytali producenta m.in. o słabą wydajność procesorów Core Ultra 200 (Arrow Lake) w niektórych grach. Pełną relację znajdziecie na tej stronie.

Pytanie: W przypadku procesorów Arrow Lake, w niektórych grach wydajność jest gorsza niż w poprzednich generacjach. Czy jest to kwestia optymalizacji, czy istnieją inne przyczyny? 

Odpowiedź: Tak, faktycznie architektura Arrow Lake to projekt, który rozpoczęliśmy już 3-5 lat temu. Tym razem skoncentrowaliśmy się przede wszystkim na doskonałej efektywności energetycznej. Kluczowym celem było zapewnienie wysokiej wydajności w grach przy jednoczesnym zachowaniu optymalnej efektywności energetycznej. Arrow Lake to architektura, w której szczególną wagę przywiązano do efektywności energetycznej nie tylko w grach, ale także w każdej dziedzinie jej zastosowania. Warto spojrzeć na to w kontekście globalnych trendów, takich jak zrównoważony rozwój. 

AI staje się coraz ważniejsze, a jednocześnie pojawiają się nowe normy i wymagania dotyczące efektywności energetycznej, jak choćby standardy Energy Star, które są regularnie wzmacniane. Z tego względu osiągnięcie wysokiej efektywności energetycznej stało się priorytetem zarówno w przypadku laptopów, jak i komputerów stacjonarnych. Uważamy, że trend ten będzie się utrzymywał także w przyszłości. 

Efektywność energetyczna i optymalizacja poboru mocy, zdaniem producenta, stają się coraz ważniejszymi aspektami. Z tego powodu procesory Arrow Lake zaprojektowano przede wszystkim z myślą o zwiększeniu efektywności energetycznej, podczas gdy wydajność w grach zeszła na dalszy plan. Co więcej, producent przewiduje, że trend ten będzie się utrzymywał również w przyszłości.

Konkurencja jakoś potrafi

Argumentacja wydaje się dość zaskakująca. Dotychczas Intel kładł duży nacisk na maksymalizację wydajności, forsując parametry procesorów, często bez względu na zużycie energii. Teraz jednak postawił na efektywność energetyczną.

Nie zawsze jednak jedno musi wykluczać drugie, co udowodniła konkurencja, firma AMD. Procesory z serii Ryzen 7000X3D (jak np. Ryzen 7 7800X3D) oferują wysoką wydajność w grach, a jednocześnie charakteryzują się bardzo dobrą efektywnością energetyczną. Niedługo na rynku pojawią się ich następcy - modele Ryzen 9000X3D. Kluczowa jest tu jednak odpowiednia technologia, jak np. pamięć 3D V-Cache. Intel, póki nie opracuje podobnego rozwiązania, będzie musiał wybierać między jednym a drugim. 

Komentarze

25
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Janisz
    16
    Czyli teraz wg tych niekompetentnych idiotów proce będą droższe, dlatego że będą mniej żarły prądu. To że przy okazji będą mniej wydajnie?.. No nie można mieć wszystkiego!..
    Co za bezczelne kmioty mające wszystkich innych poza sobą za głupców...
    • avatar
      Witalis
      8
      Jest może i mniej wydajnie w grach, jak na 3nm proces od TSMC to jest słabo energetycznie w stosunku do 5nm u AMD też od TSMC ale za to jest drożej XD A i ta podstawka to tylko dla tych procesorów bo za rok już nowa będzie i nowe płyty XD
      • avatar
        Wasek
        5
        Głupie tłumaczenie. Według tej logiki obniżymy pobór prądu obniżając wydajność. A to nie wyjdzie na to samo jeżeli weźmiemy procesory poprzedniej generacji zrobimy im undervolting i w ten sposób będziemy mieli niższą wydajność i mniejszy pobór prądu? I wtedy wyjdzie na to, że nowe procesory niczym się nie różnią od procesorów nowej generacji? Przydałby się taki test z przelicznikiem Wat/FPS i porównać dajmy na to i9-14900K z Ultra 9 285K. Oba procesory skonfigurować tak, żeby pobierały maksymalnie taką samą ilość prądu np. 250W (czyli tyle ile jest Maximum Turbo Power według Intela w Ultra 9 285K) i zobaczyć, który procesor ma lepszą wydajność. Jeżeli taką samą to procesory praktycznie niczym się nie różnią oprócz braku HT w nowej generacji.
        • avatar
          xxx.514
          2
          Niezły kolo - "efektywność energetyczna" użyta w prawie co drugim zdaniu. Scena kabaretowa jest jego jak nic
          • avatar
            kashano
            2
            Co za pierdu pierdu, popatrz na nvidię, gdyby rtxy 50x0 wyszły teraz oferując to samo, albo mniej niż poprzednik przy rzecz jasna wyższej cenie, ale mniejszym poborze prądu, to by zielonych zlinczowali... Intel wie, że nie jest w stanie wycisnąć z krzemu nic więcej, więc idzie w kierunku "mamy wymówkę by reklamować jako coś nowego", swoją nieudolność tłumaczą czymś, co przecież na rynku istnieje od dawna, u niebieskich i u czerwonych, a przy wartościach jakie pobiera cpu, to jest śmiech na sali, ile uda im się uciąć? 10w na procku? I co to zmieni? Nawet w laptopie nie zrobi to większej różnicy...
            • avatar
              youkai20
              2
              Czyli innymi słowy, bez korpo-pierolamentu, "Te procesory to lipa i nawet 13 generacja bywa szybsza, no ale teraz masz pobór energii jak u AMD. Fajnie, co? Hm, niefajnie? Nie nasz problem... Płać i płacz".
              • avatar
                GejzerJara
                1
                aha. to teraz postawili na 'efektywność energetyczną', i nadal pakują rdzenie 'e' których efektywność energetyczna jest dosyć podła.

                a wystarczy nawet dla gen14 zjechać z zegarkiem, i już mamy bardzo efektywny energetycznie CPU.

                no cóż. efektywność energetyczna nagle stała się dla Intela najważniejsza, po tym jak przegięli z napięciami i prądami w regulatorze, i zaoferowali nam najwydajniejsze ....... przepalaki.

                do tego brak odpowiedniego zarządzania i inwestowania w swoje faby. byli najlepsi, ale tak się obstawili murem, że teraz są na pozycji numer ..... 3 , po samsungu. ale nadal przez GF które położyło krechę na rozwoju, zajmując niszę dla tzw. grubych litografii, na które też jest ogromny popyt. zwłaszcza w automatyce i motoryzacji.

                Zarządzanie w Intelu to jest po prostu jakieś bagno. do 14nm ich CPU wygrywało przede wszystkim litografią, a mniej architekturą. przy czym trzeba tu się trochę ukłonić, intelowe 14nm jest lepsze i gęstsze od 12nm od TSMC i GF.
                • avatar
                  JebacTuska
                  -6
                  Świat dawno powinien odjeść od tego przestarzałego odgrzewanego od dziesięcioleci kotleta jakim jest architektura x86 na rzecz nowoczesnej architektury ARM!!!
                  To właśnie ta architektura x86 sprawia ze jest coraz mniej innowacji w rozwoju komputerów PC.
                  Dlatego jak tylko firma Apple przedstawiła swój pierwszy procesor ARM pożegnałem się z PC na zawsze i teraz tylko już będę kupował MacBooki!!
                  • avatar
                    stalkerpl
                    0
                    tak, jesteście durniami kupując procesory intel i co nam zrobicie
                    • avatar
                      Yamaraj6
                      0
                      Ja rozumiem, że procesory powinny być wydajniejsze z roku na rok w każdej dziedzinie. Nie chce tu bronić Intela, ale patrząc na REALNE użycie to powiedzcie mi kto składając kompa w 2024 z dedykowaną kartą graficzną gra w 1080p? Ja rozumiem że w benchmarkach trzeba pokazać 1080 bo w QHD różnica będzie znikoma a w 4k żadna. Jak ktoś jest esportowcem i gra w CS lub coś takiego i tylko pod to składa kompa to wiadomo że lepiej będzie wybrać procka AMD, który jest stworzony do grania w gry. O

                      W każdym innym przypadku 99% składających kompa na topowych podzespołach nigdy nie odpali nic w FHD.

                      Realnym przypadkiem użycia mógłby być test na integrze i takie porównanie tych procesorów.
                      • avatar
                        KMN123
                        0
                        Marketingowa "magia" Intela legła w gruzach... Strategia rynkowa również z chwilą rozpoczęcia współpracy z TSMC. Parametrami swoich CPU zarówno na rynku serwerowym, jak i komercyjnym ustępują produktom AMD. I jeszcze te błędy w architekturze 14 generacji... Będą dołować w tym segmencie przez co najmniej kolejne 3 lata. Czeka ich dalsze zaciskania pasa. Kurs akcji na razie ustabilzowany ale po kolejnych zwolnieniach i wdrożeniu programu naprawczego będzie ponowne tąpnięcie...
                        • avatar
                          ECRYGIGS
                          0
                          Wychodzi na to, że Intel Core i5-14600K ma lepszą wydajność i efektywność energetyczną w grach od Ultra 9 285K za 1/3 ceny. Z czym do ludzi. xD
                          • avatar
                            Cubano
                            0
                            jak dobrze że wyszło tak wcześniej a już miałem się przymierzać do Z890 , byłaby totalna strata kasy. Przez takie praktyki 1/3 fanów intela przejdzie na Ryzena
                            • avatar
                              iceman.eu
                              0
                              Coś ukrywają, prawdopodobnie coś poszło nie tak a teraz muszą sprzedać te procesory mówiąc ze ten typ tak ma . Nie wiem czy ktoś da się nabrać :)

                              Witaj!

                              Niedługo wyłaczymy stare logowanie.
                              Logowanie będzie możliwe tylko przez 1Login.

                              Połącz konto już teraz.

                              Zaloguj przez 1Login