The basic method used by Snowden is used to gather the files he got from the NSA, was a Web Crawler.
Η μέθοδος αυτή είναι αρκετά φθηνή και αυτοματοποιημένη – είναι ένα απλό πρόγραμμα ανίχνευσης ιστού, ένα λογισμικό που αναζητά, και αποθηκεύει κάθε σελίδα, ή archive he finds it interesting, as reported by the New York Times.
Η research που πραγματοποιήθηκε από εσωτερικό κλιμάκιο της NSA, κατέληξε στο συμπέρασμα ότι η επίθεση του Snowden δεν ήταν τόσο πολύ εξελιγμένη, όπως πίστευαν αρχικά, και ότι θα έπρεπε να είχε εντοπιστεί από τις ειδικές οθόνες ασφαλείας της υπηρεσίας.
A web crawler it can be programmed to go from web page to web page, visit links contained in documents, copy and save files and web pages. It is a tool often used by Internet companies such as Google, and generally by search websites to download content, archive it so that it can quickly offer Results search.
Officials engaged in research believe that the Snowden accessed 1,7 millions archives.