Agencja NSA opublikowała dokument opisujący niektóre metody gromadzenia danych i filtrowania sieci. Wynika z niego, że tylko 1,6% jest monitorowanych.
Afera związana z ujawnieniem przez Edwarda Snowdena, tajnego amerykańskiego programu szpiegowskiego PRISM odbiła się na całym świecie szerokim echem. Sprawiło to, że znacząco ucierpiało zaufanie do dużych dostawców usług internetowych z USA, a także do samych władz. Jak się jednak okazuje, skala inwigilacji może nie być taka wysoka, jak zapowiadano. Z opublikowanego przez agencję NSA dokumentu wynika, że monitorują oni jedynie 1,6% ruchu w internecie.
Niedawno w Stanach Zjednoczonych odbyła się konferencja prasowa prezydenta USA, na której stwierdził, że władze dokładnie kontrolują działania agencji wywiadowczych, a także od jakiegoś czasu planowały ujawnić bardziej szczegółowe informacje odnośnie skali filtrowanych przez nie danych.
Chociaż z wystąpieniem prezydenta USA w zasadzie trudno polemizować, to jednak jedna kwestia budzi małe kontrowersje. Otóż wynika z niego, że politycy znali skalę działań NSA, a jednak jak zapewniała część kongresmenów po wybuchu afery PRISM, byli oni zaskoczeni działaniami, jakie prowadzą agencje wywiadowcze, a dopiero po nadzwyczajnym posiedzeniu komisji bezpieczeństwa narodowego, poznali część istotnych faktów.
Siedziba agencji NSA
Po posiedzeniu, jak zapewniała w mediach kongresmen Loretta Sanchez, wszyscy byli niemalże przerażeni tym, co usłyszeli na spotkaniu, a to, co ujawnił Snowden to zaledwie wierzchołek góry lodowej. W ostatnim czasie głośno było także o zamknięciu serwisu Lavabit, z którego korzystał Edward Snowden z uwagi na wysoki poziom szyfrowania danych.
Wracając jednak do głównego tematu, agencja NSA ujawniła niedawno dokumenty opisujące działania agencji wywiadowczych – oczywiście te, które można było ujawnić. Jak się okazuje, zdaniem NSA każdego dnia w sieci pojawia się 1826 petabajtów danych, z czego ich agencja kontroluje jedynie 1,6%. Dodatkowo jedynie 0,025% spośród wspomnianych 1,6% danych zostaje zakwalifikowana do sprawdzenia, a jedynie 0,00004% jest faktycznie sprawdzanych.
Z informacji przekazanych przez NSA wynika, że co prawda agencje wywiadowcze szpiegują użytkowników sieci, to jednak skala tego zjawiska jest niewielka, a w zasadzie niemalże marginalna. Jednak jak wskazuje wielu ekspertów, informacje opublikowane przez NSA wcale nie muszą być wiarygodne, otóż mogą one dotyczyć tylko i wyłączenia jawnych programów pozyskiwania informacji, bez uwzględniania tych utajnionych jak PRISM, czy nawet Xkeyscore.
Jak jest faktycznie? Zapewne prędko się nie dowiemy.
Źródło: NSA, Engadget, Dziennik Interneutów, blogs.walkerart (foto), dailywires (foto)
Komentarze
29Agencja, której głównym elementem działania jest skrytość, tajność - nagle, tak po prostu informuje ile danych ogania, a ile nie? :D Czyli w pewnym sensie pokazuje jak jest silna i jednocześnie jak bardzo słaba.
To oczywiście papka aby nakarmić głupie społeczeństwo ;) Ludzie są już tak ogłupieni i zmanipulowanie, że bez zastanowienia kupią każde wyjaśnienie.
Prawdziwych liczb nigdy nie poznamy, podobnie jak zakresu całej tej inwigilacji. Jak to powiadają: "Apetyt rośnie w miarę jedzenia" Myślę, że to idealnie oddaje skalę z jaka prowadzone są ich działania.
Teraz maile to pojedyncze procenty! I te są kontrolowane w dużo dużo większym stopniu.
Te 1,6% całości może się przełożyć na "[b]wszystkie maile, dokumenty GoogleDoc i SkyDrive które przechodzą przez serwery w USA[/b]...
Po drugie wystarczy pomyslec chwile i jesli by zalozyc ze to nawet prawda co tam mowia ze monitoruja 1.6% ruchu w sieci.99% ruchu w sieci liczonego po ilosci przeslanych danych to porno/filmy o kotach i torrenty.Wiec monitorujac 1% danych moga monitorowac 100% danych tekstowych takich jak maile facebooki strony www posty blogi i cala reszta informacji ktorych akurat im pozwalac monitorowac nie chcemy.Wiec gr8 ,czuje sie od razu lepiej.
http://www.nsa.gov/public_info/_files/speeches_testimonies/2013_08_09_the_nsa_story.pdf
Dla porównania jeśli użytkownik napisze 1024 wiadomości po 1024 znaków i wyśle poprzez Internet, to te wiadomości zajmują ok. 1 megabajt. Ile może mu to zająć, niech będzie rok czyli ok. 52 tygodnie. Załóżmy, że film w necie to średnio 4000 MB. W tygodniu ruch jaki wygeneruje na mniej użyteczne dla NSA materiały czyli oglądanie wideo niech wyniesie 1,5 takiego filmu (dodajmy sobie wszelkie filmy jakie pobierze, streaming z youtube i innych serwisów z transmisją wideo) czyli 6000 MB. Taki użytkownik zdecydowaną większość informacji jakie o sobie poda znajduje się w wiadomościach tekstowych. Czy gdyby każdy człowiek na świecie miał mniej więcej taki współczynnik informacji o nim do informacji bezużytcznych i taki zawsze generował, to NSA mogłoby analizować całą korespondencję? Policzmy (w megabajtach):
1/(6000*52) = 0,000003205 * 100% = 0,0003205%
Czyli tak, NSA mogłoby analizować całą korespondencję wszystkich obecnych użytkowników Interentu na świecie, gdyby moje założenia były mniej więcej spełnione. Zauważmy jednak, że NSA nie może podłuchiwać na szeroką skalę w Chinach (rząd Chin obcym by nie pozwolił), pewnie podobnie w Rosji. Tak więc NSA skupiejąc się na UE i USA, powoduje że NSA skanuje globalnie 0,0004% ruchu globalnie, ale pewnie znikomy procent z Chin i wewnątrz Rosji, a za to zauważalnie więcej niż 0.0004% całego ruchu w UE i USA.
Co to znaczy umieć coś powiedzieć tak żeby nie bolało. Przecież mogli by to ująć inaczej, np:
"Monitorujemy wszystkie wasze maile."
Co za różnica jaki procent sieci monitorują, ale te prawie 2 procenty to są dane osobiste, adres, telefony, prywatne maile, nagrania rozmów, miejsca i daty spotkań, znajomi i zainsteresowania milionów osób.
Po co im pornosy czy torrenty jak mają w zasięgu tak cenne dane.