Wie Edward Snowden NSA Daten sammelte
Kommentare
Nach Aussagen eines höheren Beamten der NSA sammelte Edward Snowden Daten der höchsten Geheimhaltungsstufe der USA, indem er eine Form der Software namens „Web Crawler“ verwendete. 
Diese Software wurde entwickelt, um Webseiten zu durchsuchen, katalogisieren und ein Back up von ihnen zu erzeugen. Ein solcher „Werb Crawler“ namens Googlebot wird zum Beispiel von Google verwendet, um Webseiten nach seinen Parametern katalogisieren zu können. Ob Snowden einen bereits vorhandenen „Web Crawler“ nutzte oder einen eigenen programmierte, ist unbekannt.
 
Laut Aussagen des Geheimdienstes nutzte er diese während er seinem täglichen Job nachging und behielt sie selbst, nachdem er kurzzeitig von Geheimdienstagenten beobachtet wurde.
Diese Erkenntnisse sind in soweit von maßgeblicher Bedeutung, als dass die NSA darauf ausgerichtet ist, streng geheime Daten vor anspruchsvollen Cyberattacken aus Russland und China zu schützen, während Snowdens „Attacke“ nicht besonders anspruchsvoll oder filigran war.
 
Die Untersuchungen zeigen, dass diese eigentlich einfach zu entdecken gewesen sein sollten, zumal die Technik nicht unbekannt ist und auch drei Jahre zuvor von WikiLeaks angewandt wurde. Allerdings wurden die damals veröffentlichten Dokumente und Daten einer niedrigeren Geheimhaltungsstufe zugeordnet. Darüber hinaus wurde bisher noch nicht geklärt, warum dieses Vorgehen nicht automatisch als unauthorisierte Aktivität erkannt wurde.
 
„Web Crawler“ sind automatisierte Programme bei denen manuelle Arbeit kaum nötig ist. Sie arbeiten sich über eingebundene Links von Webseite zu Webseite vor und können so programmiert werden, dass sie alles speichern, was dabei ihren Weg kreuzt. Aufgrund dieses vernetzten Verfahrens werdn sie auch „Spider“, also Spinne, genannt. Anscheinend programmierte Snowden das Programm so, dass es unter anderem nach bestimmten Themen und Schlagwörtern suchte und dabei mit seinem Passwort operierte, sollte er noch Zugriff auf Passwörter von Kollegen gehabt haben, hätte dies die Effizienz des „Web Crawlers“ erheblich gesteigert. Laut Aussagen des Geheimdienstes gegenüber des Weißen Hauses speicherte er ungefähr 1,7 Millionen Dateien, die vermutlich von dem Programm automatisch heruntergeladen wurden.
 
“Everything that he touched, we assume that he took,” said General Flynn, including details of how the military tracks terrorists, of enemies’ vulnerabilities and of American defenses against improvised explosive devices. He added, “We assume the worst case.” 
 
Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -