Test pozwolił doświadczalnie sprawdzić wytrzymałość nośników i przy okazji obalić kilka mitów. Oprócz tego firma OCZ zobowiązała się do wydania nowej wersji oprogramowania dla swoich dysków, która m.in. w oparciu o nasze testy, pozwoli jeszcze bardziej zwiększyć żywotność modeli bazujących na kontrolerach z linii Barefoot 3. Trzymamy za słowo!
Oczywiście, zawsze można mieć jakieś “ale”, bo np. znacznie ciekawszy - z punktu widzenia czytelnika - byłby test porównawczy kilku różnych konstrukcji, wliczając w to modele bazujące na różnych typach pamięci. Mogliśmy też sprawdzić wpływ pamięci podręcznej lokowanej w obszarze pamięci RAM (np. Crucial Momentum Cache, Plextor PlexTurbo lub Samsung RAPID) - według deklaracji producentów, rozwiązania te pozwalają nie tylko zwiększyć wydajność nośników, ale też zmniejszyć ilość danych zapisywanych w pamięci NAND i w efekcie zwiększyć żywotność całego SSD. Problem jednak w tym, że nie wszyscy producenci są w stanie poświęcić swoje sample dla dobra nauki.
Wprawdzie nie podejrzewaliśmy, że potrwa to tak długo (aż osiem miesięcy), ale w końcu czego się nie robi dla naszych czytelników. Czas ten na pewno nie poszedł jednak na marne, bo wpadliśmy na kilka interesujących wniosków.
1. Każda sztuka dysku charakteryzuje się inną awaryjnością
Wytrzymałość dysku SSD w głównej mierze zależy od zastosowanych kości pamięci - nie tylko ich typu (SLC/MLC/TLC NAND), ale także litografii w jakiej zostały wykonane (im wyższy proces, tym teoretycznie większa wytrzymałość). Nie można jednak powiedzieć, że wszystkie dyski z takimi samymi pamięciami charakteryzują się identyczną żywotnością. Jest wręcz przeciwnie - potwierdził to nasz test, bo choć wykorzystaliśmy trzy takie same dyski, to każdy z nich został uszkodzony po zapisie innej porcji danych.
Wniosek ten przy okazji jest argumentem stojącym za inną bardzo ważną zasadą - pamiętajmy o wykonywaniu kopii zapasowych, gdyż tak naprawdę nie znamy dnia ani godziny, gdy nasze dane zostaną bezpowrotnie utracone.
2. Kości pamięci nie zawsze są najsłabszym ogniwem dysku SSD
Podejrzewaliśmy, że dyski zostaną uszkodzone po osiągnięciu limitu zapisu komórek pamięci (czyli po zapisaniu w pamięci NAND mniej więcej 700 TB). Tak się jednak nie stało, co może wskazywać, że w testowanym przez nas modelu OCZ ARC 100 mniej wytrzymałe okazały się inne komponenty dysku. Jesteśmy ciekawi, jakby to wyglądało w przypadku modeli bazujących na mniej wytrzymałych kościach TLC NAND.
3. Dysk może zapisać więcej danych niż deklaruje to producent (i S.M.A.R.T.)
Współczynnik TBW służy jedynie sztucznemu ograniczeniu gwarancji udzielanej przez producenta, ale w żaden sposób nie określa on wytrzymałości danego nośnika – za przykład warto podać choćby pierwszy dysk, który zdołał zapisać ponad 10-krotność współczynnika TBW. Mit podający, że współczynnik TBW jest wyznacznikiem żywotności SSD został obalony. Przy okazji warto również wspomnieć, że z realną wytrzymałością mało wspólnego ma też parametr kondycji podawany przez S.M.A.R.T..
4. Ograniczona retencja danych nie taka straszna jak ją malują
Często pomijanym problemem dysków półprzewodnikowych jest ograniczona retencja danych. Zjawisko to polega na zanikaniu ładunków elektrycznych z komórek pamięci (a więc właśnie danych), gdy przez odpowiedni czas nie jest do nich doprowadzane zasilanie. Wpływ na to ma również temperatura przechowywania niepodłączonego dysku, bo im jest ona wyższa, tym czas wymagany do zaniku ładunku jest krótszy. Ze względu na ograniczoną ilość dysków nie byliśmy w stanie dokładniej zbadać tego zjawiska, niemniej jednak w domowych warunkach raczej nie powinniśmy się obawiać o swoje dane. Komputer powinien być jednak uruchamiany nie rzadziej niż raz na kilkanaście dni.
5. Przy typowym użytkowaniu komputera nie musimy się martwić o żywotność dysku SSD
Jest to chyba najważniejszy wniosek płynący z naszego artykułu. Do testów wykorzystaliśmy syntetyczną procedurę, która pozwoliła w jak najkrótszym czasie zapisać jak największą porcję nieskompresowanych danych – realnie byliśmy w stanie przetworzyć około 2,5 TB danych w czasie 24 godzin. Podczas typowego użytkowania komputera dysk zapisuje dane znacznie rzadziej. Przyjmuje się, że typowy Kowalski w ciągu dnia zapisze na swoim nośniku nie więcej niż 10 GB danych (jak nie mniej).
Biorąc pod uwagę gwarantowaną wytrzymałość modelu OCZ ARC 100 240 GB na poziomie prawie 22 TB, po przeliczeniu daje nam to wytrzymałość na poziomie 6 lat. Warto jednak zauważyć, że jest to bardzo niski próg, bo w przypadku innych modeli deklaracja ta jest na poziomie 50 – 150 TB. Testy pokazały, że realna wytrzymałość (przyjmując też awaryjność innych komponentów) jest jeszcze wyższa, więc tak naprawdę szybciej wymienimy SSD na nowocześniejszy model, aniżeli ulegnie on uszkodzeniu. Oczywiście pod warunkiem, że nie wykorzystamy go do profesjonalnych zastosowań, charakteryzujących się dużo większym obciążeniem.
6. Kondycja dysku nie ma wpływu na jego wydajność
Kolejnym bardzo istotnym wnioskiem jest wpływ kondycji dysku na jego wydajność… a raczej brak jej wpływu. Okazuje się bowiem, że nośnik zawsze oferował mniej więcej taką samą wydajność - niezależnie czy dopiero wyjęliśmy go z opakowania, czy też jego kontroler przetworzył setki terabajtów i jeszcze więcej miały “na liczniku” pamięci NAND. Warto tutaj pamiętać o aktywnych funkcjach TRIM i Garbage Collection, które mają zbawienny wpływ na szybkość działania używanego nośnika.
Komentarze
154Sam test też mi się podoba. Nie do końca ukaże rzeczywistość i było takich testów kilka ale "nasi" tego jeszcze nie robili.
Będę śledził z uwagą:)
Miałem kiedyś dysk Crucial C300 64GB. Używany był na system i różne programy co dawało ok. 20GB wolnej przestrzeni na nim. Po ok. 2,5 roku w programach diagnostycznych pokazywało zużycie 50%. Niestety SMART dysków w tamtych czasach nie pokazywało ile dysk zapisał już danych, a szkoda. Dysk sprzedałem, ale do dzisiaj ciekawi mnie, co by się z nim stało jak by osiągnął 100% zużycia według SMART.
Ciekawym jestem wyników - czekam z niecierpliwością.
Jeśli jakieś nieszczęście nie zdarzy się w pierwszych 24 godzinach pracy to powinno być z górki :D
Szkoda że nie macie możliwości uwydatnienia na wykresie oddanego głosu przez użytkownika.
Funkcje ->Zaawansowane funkcje-> Wartość Raw -> 10[DEC]
Nie trza będzie przeliczać wartości. Czekam na dalsze wyniki, ja w swoim dysku zatrzymałem się na około 5 TB obecnie i bez problemów :)
Widać, że nie ma sensu dopłacać za to, bo prędzej padnie elektronika w takim SSD, niż zużyją się kości pamięci.
Ja np. w swoim systemowym SSD Intela 120GB mam po ok. 2 latach zapisane 12 TB, co biorąc pod uwagę te testy pozwoli mi go używać jeszcze jakieś 20 lat zanim padną pamięci - ja nawet za 5 lat pewnie nie będę chciał już używać tego napędu biorąc pod uwagę postęp w parametrach, pojemości i cenach SSD.
Zabrakło mi jedynie (jak sami zauważyliście) większego nacisku na kwestie zaniku elektronów z komórek przy braku zasilania (retencja danych). Jeszcze raz dziękuję
A jak nie jest? Nie zbadaliście, ale nie jest problemem. Pełen profesjonalizm godny wyłączenia adblocka.
Te dyski przez krótką retencję padły już wcześniej. Pewnie używalna wartość retencji kończy się przy dopuszczalnej liczbie zapisów. Ten parametr nie jest ustalany ze względu na to że nie będzie komórka chciała się już zapisać, tylko przez retencje danych, której w żaden sposób nie badaliście. Dopiero na koniec was owa retencja uderzyła. Ale tak cały test radosny - "zapisuje się, to jedziemy dalej". A to że komputer pozostawiony na miesiąc już by nie wstał to inna inszość.
Retencja którą pod koniec osiągaliście była kilkudniowa. Dyski działały tylko dlatego, że ciągle dane były zapisywane i tym samym ładunek był odświeżany. Te dyski padły by również błyskawicznie przy włączonym komputerze, który przestał by ciągle zapisywać. Kontroler balansując zużycie i przenosząc dane okresowo z miejsca na miejsce również walczy z stosunkowo krótką retencją MLC, krótszą w im niższym procesie są wykonane pamięci.
Policzmy:
360 TB (zapis NAND) / 0,24 (pojemność SSD) = 1500 P/E (!?)
Przecież to jest raptem tylko 1,5 więcej niż samsungowe TLC 19nm.
Ps. Oczywiście 240 TB (użytkownika) dla zwykłego kowalskiego to kosmiczna wartość. Bardziej chodzi mi o te ściemy wciskane przez producentów że pomimo zmniejszenia procesu technologicznego nadal mamy niby te 3000 P/E. Skoro 19nm ma ~1500 P/E to ile faktycznie będzie mieć micronowe 16 nm czy toshibowe 15nm?
Pytam bo wartość AVERAGE ERASE COUNT pokazuje ~2900
2900 (P/E) * 0,256 TiB (całkowita pojemność modułów NAND) = 742 TiB
Dalej.
742 TiB / 245 TiB = 3,02 Write Amplification Factor. Czyli wartość według mnie bardziej realna niż te 1,46 gdy dzielimy NAND*2/host.
SSD1: OCZ Vertex 2 64GB [ocz.com]
SSD2: GOODRAM C50 128GB [www.goodram.com]
SSD3: GOODRAM C100 128GB [www.goodram.com]
HDD1: Samsung SpinPoint F3 1TB [www.seagate.com]
HDD2: Seagate ST2000DM001 2TB [www.seagate.com]
HDD3: Seagate ST3000DM001 3TB [www.seagate.com]
Wylaczone mam stronicowanie pamieci na dysku a przegladarka i pliki temp smigaja na tym verteksie codziennie a zywotnosc nadal 98% od 4 lat.
Po jaką chmurkę wrzucacie zdjęcia SMARTa?
Nie mam pytań.
Nie lepiej zrobić jakąś macierz HDD?
Jeżeli chodzi o wytrzymałosć naszych SSD to najnowsze dyski będą trzymać naprawdę dużżżooo godzin, tyle że sprzęt będzie już niekompatybilny z przyszłą technologią i trzeba będzie ją wymienić. Test niby ciekawy ale useless tak naprawdę.
W internecie znajdziemy wiele cudowianek na temat jak przedłużyc żywotność naszego SSD. Kilka z nich jest prawdą lecz większość to bzdury :)
Cos mi się zdaje, ze test jest już zrobiony, a takie rozwlekanie, ma nabić odsłony artykułu...
Pytam, bo słyszałem, że w Windows 8/8.1 przy wyłączaniu komputera zapisywane są jakieś dane, które mają wpływ właśnie na takie cykle i przez to zmniejszają realną żywotność dysku (dobicie do limitu cykli kończy możliwość zapisu?).
Jak widać dyski działają mają się świetnie więc zanim nam się dysk spaprze to chyba wejdzie totalnie nowa technologia albo kupimy nowy dysk.
Zapis 400TB będzie być może także sporym wyzwaniem dla mechaniki HDD. Te test trwają stosunkowo krótko ze względu na szybkość zapisu SSD. HDD może się spocić.
http://zapodaj.net/508ba92e04b99.jpg.html
- 790 dni pracy
- 96% stan dobry
- 14848 GB suma odczytów hosta
- 8384 GB suma zapisów hosta
- 1039 ilość włączeń dysku
94%
6TB zapisów
1389 włączeń
Raczej nie padnie samodzielnie, stanie się za mały w pewnym momencie. Ta seria miała swe złe chwile, mój egzemplarz na szczęście nie felerny.