Odkąd pojawiły się programy dokonujące pomiaru wydajności w grafice 3D, jak choćby 3DMark, producenci kart graficznych co jakiś czas uraczają nas "optymalizacjami" zwiększającymi wydajność w tego typu aplikacjach. Często taka "optymalizacja" polega na obniżeniu jakości obrazu - jeśli sterowniki karty graficznej wykryją uruchomienie pliku wykonywalnego 3DMarka - a co za tym idzie podwyższenie ogólnego wyniku testu. Cel? Większa ilości punktów to zysk dla producenta - produkt "staje się wydajniejszy" w oczach przyszłych klientów.
Tym razem negatywnym bohaterem nie są "zieloni" czy "czerwoni", a król rynku kart zintegrowanych - firma Intel. Być może firma doszła do wniosku, że dzięki 'sztuczkom' zwiększającym wyniki w najpopularniejszym programie do pomiaru wydajności, przekona do swoich rozwiązań osoby grające okazjonalnie czy użytkowników wykorzystujących swoje komputery głównie do oglądania filmów. Jak wiemy wiele testów podaje rozwiązania ATi czy nVidia jako wiele lepsze nawet do takich zastosowań.
Mechanizm działania sztuczki przedstawia się następująco: gdy sterowniki wykryją uruchomienie pliku wykonywalnego 3DMarka całkowicie zmieniają swój sposób działania, wymuszając na procesorze przekierowanie swojej mocy obliczeniowej do współpracy z kartą graficzną.
Redaktorzy serwisu Tech Report postanowili zdemaskować trik Intela. W tym celu zmienili nazwę pliku wykonywalnego z "3DMarkVantage.exe" na "3DMarkVintage.exe". Następnie uruchomili 3DMark Vantage w wersji 1.0.1. na komputerze wyposażonym w płytę główną z chipsetem G41 i z zainstalowanym pakietem sterowników 15.15.4.1872 Graphics Media Accelerator. Testy przeprowadzono na konfiguracji: Windows 7 x64 RTM, procesor Core 2 Duo E6300, pamięć 4GB of DDR2-800, dysk twardy Raptor WD1500ADFD.
Efekt widać na wykresach przedstawiających wynik całkowity, GPU score i CPU score. Warto zwrócić uwagę jak zmieniają się wyniki dla GPU i CPU w zależności od testu. Z wykresów jednoznacznie wynika jak zachodzi przerzucenie mocy obliczeniowych na poszczególne komponenty.
Sam zainteresowany w odpowiedzi na zarzuty nieuczciwej walki mówi, że sterowniki są tak projektowane, aby maksymalnie wykorzystać procesor w niektórych operacjach jak rendering obiektów 3D, kiedy IGP zajmuje się obliczeniami cieniowania wierzchołków i pikseli. Oprócz 3DMark Vantage sterowniki zmieniają współpracę IGP i procesora w takich tytułach jak Call of Juarez, Crysis, Lost Planet: Extreme Conditions i Company of Heroes.
Ktoś mógłby powiedzieć, że nie ma w tym nic złego, skoro dzięki zabiegowi zwiększa się wydajność komputera w grach. Problem polega na tym, że taka optymalizacja została opracowana tylko dla kilku najbardziej opiniotwórczych tytułów i działa tylko wtedy, gdy sterowniki wykryją uruchomienie plików wykonywalnych o konkretnych nazwach. Takie posunięcia zamiast działać na korzyść klienta, mogą mieć jedynie wpływ na kształtowanie pozytywnej opinii na temat produktów producenta.
Ciekawe zmiany w Crysis (rozdz. 800x600, min. detal., wynik: FRAPS)
Poza tym takie zagrania są zabronione przez producenta oprogramowania 3DMark, firmę Futuremark. Producent oprogramowania do benchmarków wytyczna ścisłe reguły dot. sterowników dopuszczanych do działania z 3DMark Vantage. Wcześniejsze tego typu przypadki i próba uchronienia się przed zarzutami stronniczości, zmusiły producenta do ustalenia konkretnych reguł. O tym jak one wyglądają możecie przekonać się w dokumencie wypuszczanym przez Futuremark: "3DMark Vantage Driver Approval Policy" (PDF).
Warto też dodać, że redaktorzy Techreport.com wykonali jeszcze jeden pomiar przy użyciu platformy AMD 785G (Gigabyte GA-MA785GPMT-UD2H) wraz z procesorem AMD Athlon II X2 250, tym samym dyskiem i pamięciami. Użyte sterowniki to Catalyst 9.9, które znajdują się na liście dopuszczonych przez Futuremark. Wyniki w 3DMark dla platformy to 2161 punktów (prawidłowe dla Intela to 2132 pkt). Wyniki "podkręcone" już znacie z wykresów - 2931 pkt. Co ciekawe, AMD uzyskał znacznie lepsze wyniki w Crysis Warhead - 30fps. Ten wynik po raz kolejny pokazuje, że testy syntetyczne faktycznie mogą być dalekie od wyników praktycznych.
Na razie testowane sterowniki Intela dla Windows 7 (15.15.4.1872) nie znalazły się na liście dopuszczonych sterowników przez Futuremark.
Źródło: Techreport.com, Techpowerup.com
Autorzy: HemaN, Marcin Sieradzki
Komentarze
29A może intel pakuje sterydy również w swoje procki ? ;)
Cholerne pismaki połapali się i teraz premiera Larabi będzie musiała być przesunięta o kolejne miesiące, bo okazało się że myk ze sterydami w sterach nie przejdzie i trzeba dozbroić GPU tak, żeby jego moc była prawdziwa a nie pompowana.
I jak tu uczciwie korporacje mają kasę zarabiać...
Jednak ta w Crysis... te karty nie będą tak wydajne,żeby płynnie pozwoliły grać, kupujący o tym wiedzą (powinni się spodziewać). Czyli taki trik jest ciekawy, chociaż fajnie było by mieć go w postaci opcji sterownika czy coś...
Tam sterowniki zaniżały w kilku aplikacjach wydajność w celu obniżenia temperatury rdzenia.
Np. zmiana nazwy FurMark.exe na cokolwiek.exe powodowała wzrost FPS na 4850 ale i temperatura mocno rosła powodując często na stockowym chłodzeniu/biosie BSoD...
Zmiana układu chłodzenia i wgranie biosu ze zmienioną krzywą sterującą wentylatorem rozwiązywała ten problem a dodatkowo można było bez grzebania w sterach wyciągnąć kilka FPS więcej tylko po przez zmianę nazwy pliku wykonywalnego ;]
Nienawidzę oszustów pod każda postacią !!
Pytam się no i gdzie są te wszystkie komisje, które wszystko nadzorują ?? Nvidi już dawno powinni dowalić surową kare za świadome i celowe wprowadzanie konsumentów jak również opinie publiczna w błąd ! Teraz do grona oszustów dołączył Intel... Kto następny ?? ATI ? AMD ??
Firmy poczuły się bezkarne, wiec wcale się nie zdziwię gdy tego syfu będzie przybywać...
Oczywiscie jestem przeciwny takim dzialaniom: zarowno Intela, jak i AMD, czy nV.
"Istnieją trzy rodzaje kłamstw - kłamstwa odruchowe, powszechne oraz testy komputerowe"
Z drugiej strony jednak, 50% wzrostu wydajności ale nie w benchmarku, ale w grze, jest zastnawiające. Bo teraz jest pytanie, czy sterowniki mogą czy nie mogą korzystać z mocy CPU. Jeśli daje to wymierny efekt, taka opcja powina być nawet w zakładkach, albo nawet powinna być uwzględniona przez API i dostępna z menu uruchamianej gry. Przecież GPU jest tylko akceleratorem grafiki, nigdzie nie jest powiedziane że grafika nie może się wspomagać przez moc CPU, ale opcja ta powinna być do użytku.
Poza tym myśle że jeśli takie zjawsko zachodzi, to znaczy, że albo gra nie jest zbyt dobrze napisana, albo samo API jest bezndziejne, albo jego implementacja jest jakaś lewa. Kiedyś kiedy moc CPU była słaba, grafika była potrzeba jak na lekarstwo, teraz jednak moce CPU i to przy wielordzeniowych 64-bit jednostkach, nie są już jakieś nędzne. To jest kawał mocy do wykorzystania. A więc dobrym pomysłem jest ich wykorzystanie. Warto jednak by opcja taka była w sterownikach, nie każdy ma cztery wolne rdzenie.