Taka przepustowość wystarczyła, aby nadzorować pierwszy lot Amerykanina w Kosmos 5 maja 1961 roku. Dzisiaj trudno nam to sobie wyobrazić, ale - jak przypomina IBM - takie były początki.
Niedawno wspominaliśmy o 2,5 miliardowym kontrakcie HP na modernizację infrastruktury IT w NASA. Dzięki niemu na biurka pracowników agencji kosmicznej trafią nowe komputery, z których każdy jest tysiące razy wydajniejszy niż to, co 50 lat temu znajdowało się w centrum kontroli lotów. Cała infrastruktura komputerowa NASA połączona jest siecią o przepustowości liczonej w gigabitach na sekundę. Astronauci na stacji kosmicznej ISS mają do dyspozycji łącze o prędkości kilku - kilkudziesięciu megabitów na sekundę (zależnie od typu przesyłanych danych). Wydaje się, że pionierzy zdobywania Kosmosu mają czego nam zazdrościć. Czy jednak na pewno?
Warto przeczytać: | |
100 lat IBM - historia w skrócie | |
HP zmodernizuje NASA za 2,5 miliarda dolarów |
Cztery lata po locie Alana Sheparda, Gordon Moore zdefiniował dobrze nam znane prawo opisujące tempo wzrostu poziomu skomplikowania układów scalonych. Niestety, my sami nie zawsze dotrzymujemy kroku rozwojowi elektroniki. 50 lat temu stworzenie na potrzeby projektu Merkury łącza o przepustowości 1000 bitów/s (łącze 2 Mbps jest 2 tysiące razy szybsze) było nie mniejszym wyzwaniem niż wprowadzenie dziś nowej generacji procesorów. I co najważniejsze, wystarczyło, aby wysłać człowieka w Kosmos.
IBM 7090
Główną rolę w tamtych czasach odgrywał IBM i jego oddział kosmiczny kierowany przez Arthura Cohena. To właśnie ci ludzie zaprojektowali wspomniane łącze - IBM 7281 - oraz komputery IBM 7090 (kontrola trajektorii lotu) i IBM 709 (nadzorował start i pierwszą fazę lotu), a także ekrany, które wyświetlały dane otrzymywane z kapsuły Merkury, w której siedział Sheppard.
Centrum kontroli lotów podczas misji Merkury
Dla zaznajomionych z "językiem Szekspira" mamy krótkie wideo, w którym Arthur Cohen opowiada o swojej przygodzie z IBM i projektem Merkury.
Źródło: NASA, IBM
Polecamy artykuły: | | |
Tablet czy netbook - co jest lepsze? | AMD Phenom II X4 980 Black Edition - cztery rdzenie w dobrej cenie | EFI vs BIOS - najważniejsze różnice |
Komentarze
42"Cos chyba poszlo nie tak..."
i wlasnie z tym zdjeciem zgadzam sie najbardziej. dzis nie licza sie osiagniecia tylko kasa. po co latac w kosmos jak to nie daje mln dolarow zysku lepiej produkowac badziewie ktore uzalezni miliony ludzi i oni kupia to badziwie i kazde nastepne ktore firma wypusci... wystarczy jeszcze sobie odpowiednie prawa stworzyc i nie tylko beda chcieli kupowac ale beda tez musieli a kto nie bedzie chcial temu przypisze sie jakis atak terrorystyczny czy atak na porzadek swiata i zgarnie jego wlasnosc prywatna. dotyczy to nie tylko jednostek ale tez firm, a nawet calych panstw.
Grunt to pozytywne myślenie :D
1. architektura sprawdzona, zero niespodzianek ze zwiechami, minimum szans na błedy w oprogramowaniu, kiedy cały system operacyjny zawiera sie w kilku megabajtach danych (lekko spłycając)
2. więcej nie potrzeba żeby wyliczyć trajektorię ruchu keplerowskiego, odpalić silniczek w x minucie lotu, zamknąć po x sekundach.
Ze względu na miniaturyzację czyli i promieniowanie w kosmosie które jest wielokrotnie większe niż na ziemi do pracy w kosmosie procesory muszą być z szerokimi ścieżkami właśnie jak np 486.
W prockach z małymi ścieżkami dość często wyładowania elektromagnetyczne zakłócało poprawną prace procesorów, na ziemi gdzie wyładowania elektromagnetyczne słabo wpływają na procki z resztę są one dość często obudowie komputera co jest dodatkową osłoną nie występuję podobne problemy .. do czasu oczywiście.
Mi wychodzi tak 2000000:1000=2000.
Przeczytałem ten początek zdania i w głowie pojawiło mi się logo Half-Life'a.
Wyświetlenie filmiku w internecie - 500000 bit/s (dane z YT)
ps. US Navy już w 1970 miało 20 bitowe procesory do F14. Czyli niezły postęp w stosunku do tych "kosmicznych".