Znalezienie poufnych dokumentów w sieci jest prostsze niż nam się wydaje
W sieci można znaleźć bardzo ważne dokumenty bez stosowania wymyślnych technik.
Dzisiaj, gdy wszystkie dane trzyma się na komputerach – pomijając już coraz popularniejsze chmury –bezpieczeństwo i prywatność są narażone jak nigdy dotąd. Niedoinformowani pracownicy, lub co jeszcze gorsze – nieszczelne systemy zabezpieczające – sprawiają, że ilość poufnych informacji i dokumentów instytucji administracyjnych, fundacji czy przedsiębiorstw dostępnych w sieci (po krótkim poszukiwaniu z odpowiednio sformułowanym zapytaniem – praktycznie dla każdego) jest przerażająca. Dotyczy to nawet instytucji najwyższego poziomu. Na przykład… NSA. Niewielu bowiem wie jak Edward Snowden znalazł się w posiadaniu danych, przez których wyciek był jedną z najbardziej poszukiwanych osób na świecie.
Jak informuje New York Times w swoim raporcie Edward Snowden wykorzystał zwykłego bota indeksującego – oprogramowanie podobne do Googlebot – narzędzia stosowanego przez giganta z Mountain View do indeksowania nowych stron internetowych. „Crawlera” można zaprogramować na rożny sposób, to znaczy by kierował się rożnymi frazami wyszukiwania. Wówczas automatycznie przeszukuje on stronę za stroną, śledzi odnośniki i drąży coraz głębiej w poszukiwaniu odpowiednich materiałów i dokumentów.
Tutaj zaczynają się pojawiać pytania. To duży problem przede wszystkim dlatego, że agencja NSA jest odpowiedzialna za utrzymanie cyberbezpieczeństwa Stanów Zjednoczonych przed obcymi atakami, które mogą wykorzystywać znacznie bardziej wyrafinowane metody niż narzędzie, którego użył Snowden. Ba, agencja ta jest w posiadaniu międzynarodowych, bardzo poufnych danych, które wymagają bardzo solidnej ochrony. Jest jeszcze jedna kwestia – to, że zabezpieczenia są słabe to jedno. Trzeba jednak jeszcze pamiętać, że działanie takiego bota owocują nadmierną aktywnością w systemie. Tą specjaliści nadzorujący bazy NSA powinni zauważyć.
Źródło: CNET, New York Times, inf. własna
Komentarze
2