Rynek dysków półprzewodnikowych rozwija się w zastraszającym tempie, a receptą na uzyskanie coraz pojemniejszych i tańszych konstrukcji okazuje się wykorzystanie warstwowych pamięci 3D NAND. Modele Crucial MX300 to pierwsze konsumenckie nośniki, które zostały wyposażone w pamięci 3D NAND zbudowane wg koncepcji firm Intel i Micron – technologia ta okazała się strzałem w dziesiątkę, bo pozwoliła na opracowanie całkiem dobrych, a przy tym niedrogich nośników SSD.
Producent postawił na kości 3D TLC NAND, niemniej jednak obydwa przetestowane modele wypadają naprawdę nieźle na tle ekonomicznych modeli zarówno z kośćmi TLC, jak i MLC NAND. Szczególnie zaskoczyły nas wyniki zapisu mniejszych próbek, a w przypadku pojemniejszej wersji również stosunkowo dobre osiągi w testach rzeczywistych.
Gorzej wypada kwestia odczytu – w pojemniejszej wersji tylko sekwencyjnego, a w mniej pojemnej też mniejszych próbek. Przydałoby również usprawnić funkcję przydzielania pamięci podręcznej w mniej pojemnej wersji, bo przy kopiowaniu większej porcji danych widać już lekkie spadki wydajności (nie są one jednak aż tak duże, jak w większości modeli z tradycyjnymi kośćmi TLC NAND).
Zastosowanie kości 3D TLC NAND pozwoliło również uzyskać całkiem atrakcyjną cenę – wersja o pojemności 275 GB kosztuje u nas około 330 złotych, natomiast o pojemności 525 GB już około 600 złotych. Nośniki mają niestandardową pojemność, więc trudno bezpośrednio porównać te ceny, niemniej jednak w przeliczeniu na GB jest to poziom zbliżony do budżetowych konstrukcji wyposażonych w zwykłe kości TLC NAND.
Warto również pamiętać, że dodatkowym atutem przemawiającym za wyborem modeli MX300 jest pakiet Acronis True Image HD, który ułatwi modernizację komputera o nowy dysk.
Nośniki Crucial MX300 możemy polecić tym klientom, którzy poszukują taniego i dobrego sposobu na modernizację komputera lub laptopa z dyskiem talerzowym (HDD). Przy okazji czekamy też na kolejne dyski wyposażone w kości 3D NAND, szczególnie na modele z wyższej półki z modułami 3D MLC NAND. Z biegiem czasu tego typu konstrukcji powinno pojawiać się coraz więcej, bo inni producenci też pracują nad warstwowymi pamięciami półprzewodnikowymi.
Crucial MX300 275 GB - ocena końcowa
- dobra wydajność przy zapisie mniejszych próbek
- w zestawie pakiet Acronis True Image HD
- bardzo konkurencyjna cena
- odczyt sekwencyjny i mniejszych próbek mógłby być lepszy
- wydajność przy zapisie dużego pliku mogłaby być lepsza
- wydajność funkcji Momentum Cache poniżej oczekiwań
Crucial MX300 525 GB - ocena końcowa
- dobra wydajność przy zapisie mniejszych próbek
- dobra wydajność w testach rzeczywistych
- w zestawie pakiet Acronis True Image HD
- bardzo konkurencyjna cena
- odczyt sekwencyjny mógłby być lepszy
- wydajność funkcji Momentum Cache poniżej oczekiwań
Komentarze
34Systemy operacyjne od dawien dawna keszują dane/pliki w pamięci RAM. Jeśli nie wierzycie to ściągnijcie sobie program RAMMAP i przejdźcie do zakładki "FILE SUMMARY".
https://technet.microsoft.com/en-us/sysinternals/rammap.aspx
Cały process keszowania danych w ram odbywa się w sposób dynamiczny. Im więcej masz RAM tym większa ilość danych sobie będzie tam leżeć. System w moim przypadku zkeszował prawie 60 GiB danych! (Tak mam 64 GiB ram w kompie) Oznacza to że dane następnym razem będą odczytywane nie z SSD a pamięci ram.
http://i.cubeupload.com/dbtprx.png
Pewnie teraz chcielibyście zapytać. No dobra ale dlaczego przy systemowym keszowaniu w benchmarkach nie ma różnicy w wydajności? Odpowiedź jest banalnie prosta! Poprostu benchmarki celowo informują windowsowe api aby dane były pobierane z pominięciem systemowego bufora.
Robi się to poprzez flagę FILE_FLAG_NO_BUFFERING.
Jest to jak najbardziej logiczne bo inaczej benchmarki takie jak Crystal,Atto,ASSSD testowały by wydajność pamięci RAM a nie sam SSD/HDD. Ta flaga (FILE_FLAG_NO_BUFFERING) jest oczywiście ignorowana w przypadku innego systemu keszowania ,który ustawia się ponad systemowy mechanizm buforowania. Efekt jest tego taki że benchmark zamiast pracować na danych na SSD tak jak to programista zaprogramował pracuje na RAM dysku. Mówiąc krótko te Momentum Cache,PlexTurbo i inne poprostu oszukują programy testujące i tyle. W realnych zastosowaniach to nic nie daje bo i tak mamy systemowy mechanizm keszowania ,który robi dokładnie to samo!
A no tak bo MX300 wypada znacznie gorzej.
A nie tak jak w testach na pustym dysku gdzie dopiero jak wgrywasz duży plik to łapiesz się pod jego koniec na katastroficzny spadek wydajności.
I *średnia* trochę spada - im większy dysk tym później i tym mniej.
W zapełnionym dysku będziesz miał tak cały czas bo SLC jest po to aby testy syntetyczne dobrze wypadały...
Przykładowo jak to wygląda w praktyce dla BX200; dysku na TLC
https://cms-images.idgesg.net/images/article/2015/11/bx200-480a-and-960-100625661-orig.jpg