Super computing - skrócona historia, teraźniejszość i wizja przyszłości technologii obliczenio
Kiedy tylko zaczęły pojawiać się skomplikowane obliczeniowo problemy kwestią czasu było powstanie sprzętu, który by znacznie ułatwił ich rozwiązywanie. Obecnie super computing wykorzystuje się w prawie każdym aspekcie naszego życia: począwszy od przewidywania pogody, poprzez wyszukiwanie surowców mineralnych, aż do symulacji detonacji broni nuklearnej.
Trudne początki
Początków „prawdziwych” superkomputerów należy się doszukiwać w 1942 roku, kiedy to został przetestowany komputer Atanasoff-Berry Computer (wyprodukowany w 1937). Maszyna ta niestety nie była programowalna, ponieważ została zaprojektowania do rozwiązywania równań liniowych. Rezultaty zwracała na dziurkowanych kartach, których nie można nazwać trwałymi. Gdy twórca owego pierwszego superkomputer - Atanasoff odszedł ze stanowego uniwersytetu Iowa, prace nad komputerem zostały wstrzymane.
Replika Atanasoff-Berry Computer w Durham Center
Pierwszy z superkomputerów dysponował niewiarygodną jak na tamte czasy mocą obliczeniową na poziomie 30 OPS (operations per second). Gdy porównamy ten wynik do obecnych osiągów sprzętu, to nie wygląda on imponująco. Trzeba jednak pamiętać o tym, że ABC stworzono ponad 60 lat temu, co w świecie super szybkich komputerów stanowi całe lata świetlne.
Prawdziwym przełomem w obliczeniach komputerowych były lata siedemdziesiąte i osiemdziesiąte. Wtedy to opinia publiczna mogła zobaczyć, do czego zdolne są komputery. Wszystko dzięki komputerowi Belle - pierwszemu grającemu w szachy komputerowi, któremu udało się osiągnąć poziom mistrzowskiego ludzkiego mózgu. W tych właśnie czasach prym wiodła firma-legenda, czyli Cray Inc. Ich superkomputery utrzymywały tytuł najszybszych na świecie najdłużej w historii.
Wielki przełom – początek Cray Inc.
Założyciel firmy, Seymour Cray, zaczął swoją przygodę z rynkiem super computing w latach 50, kiedy to dołączył do Engineering Research Associates (ERA) w Saint Paul w Minnesocie. Pomógł w tworzeniu ERA 1103, który to system określono mianem pierwszego udanego komputera naukowego. W 1972 roku Cray założył własną firmę – Cray Research Inc. Pierwszym sukcesem firmy było zaprezentowanie Cray-1, który był najszybszym superkomputerem swoich czasów. Dysponując mocą obliczeniową na poziomie 250 MFLOPS, sprzedał się w przeciągu miesiąca za 8,8 milionów dolarów.
Cray XT Jaguar
Produkty z logo Cray biły kolejne rekordy wydajności - w 1983 roku najszybszym komputerem był Cray X-MP dysponując mocą 941 MFLOPS, dwa lata później pojawił się Cray-2, który z mocą 3.9 GFLOPS utrzymał miejsce najszybszego komputera świata przez 4 lata. Niestety, od tego czasu firmie nie udało się zdobyć chlubnego tytułu „najszybszych”. Nawet ich najnowszy produkt, Cray XT „Jaguar”, nie dał rady pokonać dominującej od ostatnich 4 lat firmy IBM.
Wszechobecne IBM
IBM (International Business Machines) jest firmą, dzięki której narodził się termin „super computing”. Właśnie takiego określenia użył dziennikarz New York World w 1929 roku, podczas opisu maszyny liczącej stworzonej przez IBM na potrzeby uniwersytetu Columbia.
Podium w dziedzinie obliczeń IBM zdobył w 1954 roku, kiedy to ich NORC osiągnął status najszybszego superkomputera, z mocą 67 kOPS. Można zaryzykować stwierdzenie, że dobra pass rozwiązań IBM trwa do dziś. W końcu to ich sprzęt, IBM Roadrunner, uznawany jest za najszybszy na świecie.
IBM NORC - zdjęcie z epoki
Obecnie IBM utrzymuje pierwsze miejsce na arenie super computingu przez ostatnie 4 lata i nic nie wskazuje na to, że w najbliższym czasie ta sytuacja się zmieni. Ich Roadrunner dysponuje niewyobrażalną mocą obliczeniową 1.105 PFLOPS. Wystarczy tylko wspomnieć, że ich poprzedni komputer, Blue Gene, skończył swój żywot osiągając 478.2 TFLOPS w 2007 roku.
Plan rozwoju super computingu
Rynek HPC (high performance computing) jest obecnie jedną z najprężniej rozwijających się branż IT. Wynika to z faktu, że zapotrzebowanie na moc obliczeniową ciągle rośnie i potrzebne są nowe pomysły na jej uzyskanie. W branżach, gdzie szybkie pozyskiwanie wyników jest niezwykle istotne(finanse, medycyna, geologia, itp.) superkomputer jest wręcz niezastąpiony. Dlatego też zauważalny jest trend miniaturyzowania urządzeń służących do obliczeń. Idealnym przykładem jest strategia wielkich graczy w świecie super maszyn.
Podczas targów SC08, które odbyły się w dniach 15-21 listopada 2008 w Austin w Teksasie, został zaprezentowany Cray CX1. Komputer typu deskside, który z powodzeniem może zastąpić duże klastry obliczeniowe w pracowniach naukowych. Maszyna ta może się pochwalić maksymalną wydajnością 4 TFLOPS, co przy tych rozmiarach stanowi nie lada wyczyn. Jest to głównie zasługa procesora obliczeniowego NVIDIA Tesla C1060, który potrafi dostarczyć 1 TFLOPS mocy obliczeniowej. Mimo dużej wydajności cena takiego rozwiązania jest niezwykle przystępna w porównaniu z kosztami budowy i utrzymania klastrów.
Jednak stworzenie takiej maszyny nie byłoby możliwe gdyby nie postęp, jaki dokonał się w dziedzinie kart graficznych i specjalnych procesorów obliczeniowych. Nie od dziś wiadomo, że karty graficzne dysponują o wiele większą ilością jednostek obliczeniowych niż jakikolwiek procesor główny. Dlaczego więc nie wykorzystać ich do obliczeń?
NVIDIA jest na razie jedynym producentem, którego karty graficzne mogą być używane przy skomplikowanych obliczeniach (odpowiedź AMD/ATI ma się dopiero pojawić). Jest to możliwe dzięki technologii CUDA, która, poprzez wykorzystanie języka C, pozwala na wykorzystywanie jednostek obliczeniowych GPU.
Realnym przykładem zastosowania tej technologii jest program Folding@home opracowany w uniwersytecie Stanforda. W sierpniu ogłoszono, że projekt ten osiągnął wydajność obliczeniową na poziomie 3.3 PTFLOPS – jest to wynik prawie trzykrotnie większy niż w przypadku Roadrunnera! Dzięki zaangażowaniu użytkowników (zarówno komputerów, jak też konsol Playstation 3) możliwe, że już niedługo zostaną wynalezione leki na dotychczas nieuleczalne choroby.
Podsumowanie
W obecnych czasach bardzo istotne jest dbanie o środowisko, a w wypadku budowania potężnych superkomputerów nie da się uniknąć dużego poboru mocy. W związku z tym niezwykle cieszy dynamiczny rozwój branży quasi cloud computing, której przykładem jest właśnie Folding@home. W tym rozwiązaniu widzę przyszłość - połączenie wszystkich komputerów świata w jedną wielką „chmurę” obliczeniową uruchamia niewyobrażalne pokłady mocy. Jednak czy każdy będzie chciał udostępnić swój PC dla tych celów?
Komentarze
7sam liczylem przez ladnych kilka lat SETI - swietny tester predkosci procesora i do zabaw w podkrecanie :) - ale mysle ze niezly postep w tym temacie by sie zrobili gdyby wykorzystac nasze grafy :)
Tu chyba autor nie odrobił lecji
to mala pomylka ! :)
nie ta moc, nie to przeznaczenie :)