Η Apple ανακοίνωσε πρόσφατα μερικές νέες δυνατότητες ασφάλειας για children σε όλες τις πλατφόρμες του λογισμικού της. Οι νέες δυνατότητες θα κυκλοφορήσουν με τα λειτουργικά συστήματα iOS 15, iPadOS 15, watchOS 8 και macOS Monterey στις ΗΠΑ αργότερα φέτος, και έχουν σαν στόχο να περιορίσουν τη διάδοση του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM από το Child Sexual Abuse Material), μεταξύ άλλων.
Μία από τις νέες δυνατότητες ουσιαστικά θα σαρώνει iPhone και iPad για CSAM και θα τα αναφέρει στο Εθνικό Κέντρο για Αγνοούμενα και Εκμεταλλευόμενα Παιδιά (NCMEC από το National Center for Missing and Exploited Children). Η Apple ισχυρίζεται ότι η μέθοδος detectionς γνωστού CSAM “έχει σχεδιαστεί με γνώμονα την ιδιωτικότητα του χρήστη”. Ωστόσο η δήλωση της εταιρείας δεν καθησυχάζει τους ειδικούς ασφαλείας.
According to a recent publication in the Financial Times, security researchers have warned that Apple's new tool could be used for surveillance, endangering the personal information of millions of people.
Η ανησυχία τους βασίζεται στα δεδομένα που μοιράστηκε η Apple με ορισμένους ακαδημαϊκούς των ΗΠΑ νωρίτερα αυτήν την εβδομάδα. Δύο ανώνυμοι ερευνητές ασφαλείας που παρακολούθησαν την ενημέρωση της Apple αποκάλυψαν ότι το προτεινόμενο σύστημα (που ονομάζεται “neuralMatch”) θα προειδοποιήσει προληπτικά μια ομάδα ανθρώπων (επιθεωρητές) αν εντοπίσει CSAM σε iPhone ή iPad. Οι επιθεωρητές θα επικοινωνούν στη συνέχεια με τις αρχές επιβολής του νόμου αν φυσικά είναι σε θέση να επαληθεύσουν το material.
While many security researchers support Apple's efforts to curb the spread of CSAM, some have expressed concern that the tool could be misused by governments that could use it to gain access to their citizens' data.
Ross Anderson, a professor of safety engineering at Cambridge University, said:
"It's an absolutely horrific idea, because it is going to lead to distributed mass surveillance… of our phones and laptops."
Matthew Green, a professor of computer science at the Johns Hopkins Institute for Information Security, also expressed concern on Twitter:
I've had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
- Matthew Green (@matthew_d_green) August 4
But even if you think Apple will not allow the misuse of these tools… there is still a lot to worry about. These systems are based on a database of problematic "media hashes" that you, as a consumer, can not control Has Hashes use a new and proprietary neural hashing algorithm developed by Apple and made NCMEC agree to use… No we know a lot about this algorithm. What if someone can decrypt it?
Although the algorithm is currently trained to detect CSAM, it could be adapted to scan other targeted images or texts, such as anti-government – anarchist signalthem, making it an extremely useful tool for authoritarian governments.