Avatar redaktora Wojciech  Spychała
redaktor:

Wojciech Spychała

Gracz, sprzętowiec i okazjonalnie Youtuber ;) Prywatnie uzależniony od seriali. Preferuje szynszyle ponad króliki. #PCMasterRace

data dołączenia:
statystyki:
  • 814publikacji
  • 9192komentarzy czytelników

Moje aktywności

    • Avatar użytkownika Wojciech Spychała
      Wojciech Spychała
      @marcadir w moim przypadku tylko o tyle, że odpada nagrywanie na SSD M.2 podpięte przez USB-C, ale jako że nie ma w Iphone 17 dostępu do Pro Res (jeśli się nie mylę) to w sumie i tak te 256-512 GB praktycznie każdemu starczy, nawet na dłuższe sesję nagraniowe/zdjęciowe. Wszystko zatem sprowadza się do tego czy faktycznie chcemy używać telefonu w roli aparatu/kamery jako twórca treści.
      0
      • Avatar użytkownika Wojciech Spychała
        Wojciech Spychała
        W mojej opinii zwykle 17 ma jeszcze poważna wadę względem Pro w postaci złącza USB 2.0, co wyklucza użycie zewnętrznych nośników na potrzeby nagrań i niemiłosiernie wydłuża czas zgrywania plików z samego urządzenia… Ale ponownie - dla zwykłego użytkownika to w sumie ma niewielkie znaczenie, podobnie jak reszta zalet Pro. Ostatecznie uważam że 17 Pro(Max) jest dla osób które aparatami w telefonie zarabiają na życie i już siedzą w ekosystemie Apple (albo nie chcą się użerać z problemami systemu Google) oraz jak zwykle dla tej grupy osób która chce się pokazać z najnowszym i najdroższym telefonem w ręku.
        1
        • Avatar użytkownika Wojciech Spychała
          Wojciech Spychała
          @Virtus jak na ironię to większy monitor w tej rozdzielczości i o tych parametrach byłyby pewnie tańszy bo bo to właśnie miniaturyzacją jest problemem. Z drugiej strony aby uzyskać ostrość zbliżona do tej jaką widzimy naszymi oczyma trzeba właśnie w takie DPI celować (stąd też u Apple nazwa Retina). Naturalnie interfejs skaluje się na 200% ale treści pozostają ostre jak żyletka.
          0
          • Avatar użytkownika Wojciech Spychała
            Wojciech Spychała
            @FirstEver.eu, zmyliło mnie określenie "backlight" (stosowane raczej w kontekście właśnie warstwy podświetlenia paneli LED), zwłaszcza że ostatnio dużo na prezentacjach słuchałem o telewizorach z podświetleniem RGB mini LED liczonego w tysiącach stref - to co widać na Twoim filmie, to bardziej "ambient", lub nawet po Philipsowemu "Ambilight", czyli podświetlenie, które wizualnie rozszerza panel świecąc na ścianę za nim. W tym przypadku 400 RGB LED to już bardzo dużo :)

            A już teraz są telewizory które szokują liczną stref - tegoroczny Hisense 110UX ma ich 40 000 (czterdzieści tysięcy!). Ale nawet to nie ma szans z 8 milionami "stref" w OLED 4K ;) Zwłaszcza, że teraz OLED też już dobijają do 4000 nitów (oraz ponad 400 nit dla 100% bieli). Zatem ta przyszłość, o której piszesz, już nadeszła, tylko że kosztuje sporo więcej niż te 4-5 tysięcy, za które można dostać Hisense 65U78Q z powyższej recenzji :P
            0
            • Avatar użytkownika Wojciech Spychała
              Wojciech Spychała
              @Mario2k testowany telewizor to jest taki niski-średni segment :) więc wszystko się zgadza. Inna sprawa że dużo jeszcze zależy od sposobu sterowania (precyzji i poziomów jasności tego podświetlenia) - pod tym względem dzisiejsze TV radzą sobie dużo lepiej niż te modele z wyższego segmentu sprzed jeszcze 3-4 lat.
              1
              • Avatar użytkownika Wojciech Spychała
                Wojciech Spychała
                @Witalis za 4500 zł to niespecjalnie kupisz nowego OLED 65"... albo będzie to ultra budżetówka 60 Hz z jasnością 150 nitów dla pełnoekranowej bieli w której za dnia jedyne co zobaczysz to swoje odbicie. To nie jest segment telewizorów, które można porównywać do OLED. Niebawem recenzja U8Q, który już cenowo rywalizuje z OLED i tam masz ponad 1000 stref dal 65" :)
                1
                • Avatar użytkownika Wojciech Spychała
                  Wojciech Spychała
                  @Nuratar pisaliśmy o tym już w ramach relacji z Gamescom - teraz dodatkowo pojawiła się okazja publikacji wywiadu oraz fakt otwarcia stałej ekspozycji poświęconej World of Warships w muzeum. Do tego też akcja powoli się kończy więc też nie zaszkodzi temat przypomnieć tym co mieli sprawdzić, ale ostatecznie wypadło z głowy ;)
                  1
                  • Avatar użytkownika Wojciech Spychała
                    Wojciech Spychała
                    @y*jEH}@4n"Y=u'~ wydaje mi się że wynika to z przejścia na HbbTV, ale też tego że jest to funkcja obecnie bardzo niszowa (w erze powszechnie dominującego VOD gdzie system pauzowania jest natywnie zawsze dostępny), a raczej mało kto potrzebuje aktywnej pauzy podczas oglądania wiadomości albo programu kulinarnego..
                    0
                    • Avatar użytkownika Wojciech Spychała
                      Wojciech Spychała
                      @MieczyslawXia nie są bardzo głośne, ale grają serio dobrze do takiego "spokojnego oglądania". Do tego realnie nadrabiają głośność przestrzennością brzmienia w niewielkim pomieszczeniu. Do salonu w mieszkaniu wystarczy, choć oczywiście od siebie polecam jednak dokupić soundbar z subwooferem ;)
                      0
                      • Avatar użytkownika Wojciech Spychała
                        Wojciech Spychała
                        @Sneer zdecydowanie zgadzam się w kwestii AI - te funkcję nie zawsze robią tak dobrą robotę jak widać na moich zdjęciach w artykule - są treści w których takie kolorowanie nie pasuje do nastroju filmu i negatywnie wpływa na jego odbiór. Choć zwykle treści które wyglądają źle z Color Boost to, które oryginalnie mają dobrze zrobione mapowanie barw w DCI-P3 i w ich przypadku zwyczajnie nie trzeba tych funkcji używać aby obraz wyglądał dobrze. Stety-niestety nadal większość treści w TV oraz VoD oferuje zaledwie sRGB tylko nieco ponad ten Gamut i w ich przypadku można odzyskać wiele barw.

                        To co tutaj wyróżnia Samsunga QN92F (oraz inne modele z tego rocznika) to że AI radzi sobie znacznie lepiej niż jeszcze rok temu z rozpoznawaniem co i o ile podkolorować, zatem rzadziej trafiałem na sytuacje, w której trzeba było funkcję dezaktywować zupełnie.

                        Co do pilota - zapomniałem o tym napisać w artykule, ale można go też zastąpić... sterowaniem zegarkiem :D (zatem gestami ręką sterujemy telewizorem) - czy to wygodniejsze od nawet tak wybrakowanego pilota? Zdecydowanie nie, ale zdaje się, że Samsung w tą stronę zmierza, aby w przyszłości TV dostarczać całkiem bez pilota.
                        0
                        • Avatar użytkownika Wojciech Spychała
                          Wojciech Spychała
                          @Witalis co do zasady masz rację i ponownie - na tym opierają się mobilne układy GPU - nie jestem tylko pewien czy aż tak bardzo bym szedł w dół z limitami i napięciem. Ostatecznie tej wydajności zwykle i tak nie ma aż tak dużo (w nowych "super zoptymalizowanych" grach...), aby móc sobie pozwolić na redukcję wydajności. Pamiętaj też że z grubsza to samo można osiągnąć limitując FPS w grach - dziś wszystkie karty działają w oparciu o krzywą napięcia i taki RTX 5090 też często w grach pobiera 200-250 W, gdy jest limitowany przez CPU albo ręcznie ustawiony limit FPS (albo zwykłą synchronizację FPS z odświeżaniem).

                          Niemniej z jednym masz 100% racji - producenci, a zwłaszcza AMD, zdecydowanie zawyżają domyślne ustawienia napięć oraz limitów mocy i żadna karta fabrycznie nie pracuje w optymalnych energetycznie parametrach.
                          3
                          • Avatar użytkownika Wojciech Spychała
                            Wojciech Spychała
                            @bbkr_pl w tekście, pod którymś z zdjęć, wspomniałem że karta wydmuchuje ciepłe powietrze pod siebie i tam dopiero jest realny problem z SSD - jeżeli SSD mamy nad złączem PCI-E karty to w normalnej obudowie jest zapewniona odpowiednia cyrkulacja powietrza. Komputery mini-ITX to z definicji problemy z przegrzewaniem się topowych podzespołów i wymagają właśnie tak kreatywnego podejścia jak te o którym piszesz.

                            Odnośnie jeszcze różnic między Prime a TUF - układ chłodzenia w Prime jest znacznie skromniejszy (5 zamiast 8 ciepłowodów oraz znacznie mniej gęsto upakowane finy radiatora) co nie pozwala aż tak efektywnie operować tej karcie powyżej 300 W, ale jeżeli nie mamy zamiaru iść w tą stronę z podkręcaniem to faktycznie nie ma sensu dopłacać do TUF.
                            4
                            • Avatar użytkownika Wojciech Spychała
                              Wojciech Spychała
                              @FranzMauser Odnoszę wrażenie że nieco zbyt kolorujesz sytuację kart AMD ;) Ale owszem - 9070 XT obecnie (na dzisiejszych sterownikach) pokonuje RTX 5070 Ti w większości gier, zwłaszcza tych które w mniejszym stopniu korzystają z RT i tylko po aktywacji PT zaczyna wyraźnie przegrywać. Rzecz w tym, że obie te karty mają nadmiar wydajności w grach i trybach, które nie korzystają z Path Tracingu, co czyni taką przewagę AMD niespecjalnie istotną. Do tego nadal DLSS oferuje lepszy upscaler oraz szereg innych funkcji poprawiających jakość obrazu których nie mają karty AMD, co też jest powodem aby do nich jednak dopłacić.

                              Stare Radeony obecnie nie mają najmniejszego sensu z uwagi na brak porządnego wsparcia FSR 4 (da się je wymusić modyfikacjami, ale działa to gorzej niż na nowych Radkach). Nie są oczywiście na tyle złe aby ich posiadacze musieli od razu się ich wyzbywać i biec do sklepu po nowe GPU, ale wiele do tego stanu rzeczy nie brakuje...
                              5
                              • Avatar użytkownika Wojciech Spychała
                                Wojciech Spychała
                                @powerman1969 mając na uwadze że Samsung otwarcie bojkotuje Dolby Vision i promuje jego otwarty i darmowy odpowiednik, w którego powstaniu w dużej mierze pomagał (mowa oczywiście o HDR10+), to trudno oczekiwać, aby planowali wprowadzać do swoich urządzeń wsparcie dla Dolby Vision 2.0. Spodziewałbym się raczej jeszcze w tym roku lub najdalej na CES 2026 usłyszeć o HDR12 (lub jak kto woli HDR10+2), które będzie odpowiedzą na nowy standard HDR od Dolby.

                                W sprawie DTS w sumie nadal nie rozumiem po co ono w telewizorach, zwłaszcza tak przeciętnie brzmiących jak te Samsunga - przecież to format używany tylko i wyłącznie nagraniach BluRay z koncertów lub albumów studyjnych (sporadycznie w filmach, ale wtedy zawsze jest tym "dodatkowym" obok Dolby Atmos), a taki odtwarzacz podpina się bezpośrednio pod sprzęt audio, a nie wyświetlacz. Zresztą Samsung w tej kwestii też podchodzi do tego logicznie i w swoich soundbarach mają natywne wsparcie dla DTS (w każdej formie). To trochę tak jak marudzić że telewizor nie potrafi renderować samemu gier z aktywnym Path Tracingiem i trzeba podpinać osobne urządzenia (jak PC/Laptop albo serwer w chmurze).
                                0
                                • Avatar użytkownika Wojciech Spychała
                                  Wojciech Spychała
                                  @scoobydoo19911 Nowy, dodatkowy procesor dedykowany tylko do tego ma sterować niezależnie każdą z dziewięciu diod które składają się na pojedynczą strefę wygaszania (jedną z kilku tysięcy takich stref) - dzięki temu możliwe jest uzyskanie tak ogromnej ilości stanów dla każdej niezależnej strefy (3x 26 bit). Dodam jednak, że na IFA widziałem też telewizor RGB micro LED, gdzie na tej samej zasadzie udało się upakować (i wysterować) jeszcze więcej niezależnych stref i to z jeszcze większą precyzją (3x27 bit) - co ciekawe nie ma być znacznie droższy od tego Hisense, zakładając że faktycznie trafi do sprzedaży.
                                  0
                                  • Avatar użytkownika Wojciech Spychała
                                    Wojciech Spychała
                                    @Daniel Marecki spokojnie - wszystko się zgadza, wystarczy czytać ze zrozumieniem :) Precedensowe działanie to takie, które w danej sytuacji podjęto po raz pierwszy i które może w przyszłości służyć jako wzór do naśladowania - dokładnie to miałem tutaj na myśli i chciałbym aby inni twórcy TV naśladowali w tej kwestii Hisense.
                                    4
                                    • Avatar użytkownika Wojciech Spychała
                                      Wojciech Spychała
                                      @kristof3 Karta w platformie testowej korzysta z natywnego złącza 12V 2x6-PIN (który wychodzi z P-CAT mierzącego pobór energii). W drugiej platformie do testów kultury pracy jest na stałe wpięty fabrycznie z tą kartą dostarczony adapter 4x8-PIN (ten na długich i elastycznych przewodach), a PC w którym doszło do uszkodzenia to stacja do montażu wideo, gdzie karta spoczywa gdy nie jest testowana i zastąpiła w tym miejscu RTX 4090 którego adapter pozostał i się spalił (po 3 latach używania i setkach, jeśli nie tysiącach wypięć karty) - jeśli mam być szczery to i tak sądzę że długo wytrzymał. Warto też zaznaczyć że karta uchroniła się przed uszkodzeniem odłączając zasilanie pod obciążeniem gdy wtyczka już na tyle się stopiła że styk się pogorszył jeszcze bardziej.
                                      0
                                      • Avatar użytkownika Wojciech Spychała
                                        Wojciech Spychała
                                        @zodjak w przypadku WoT (klasycznego) też zapowiedziano ogromne zmiany - może warto będzie wrócić? A sam HEAT to jednak zupełnie inna gra, jeszcze mniej nastawiona na zakupy w grze niż klasyczny WoT i z zupełnie innym typem rozgrywki - w zasadzie nie spodziewam się aby fani WoT byli tą grą zachwyceni, bo zwyczajnie nie do nich jest kierowana :D
                                        0

                                      Witaj!

                                      Niedługo wyłaczymy stare logowanie.
                                      Logowanie będzie możliwe tylko przez 1Login.

                                      Połącz konto już teraz.

                                      Zaloguj przez 1Login