Apple scannt Fotos mit iOS 15: Kampf gegen Kinderpornografie und Datenschutzprobleme?

Apple will zukünftig ab iOS 15 die auf dem iPhone und iPad gespeicherten Fotos durchstöbern. Klingt erstmal ziemlich nach einem Privatsphäre-Problem, doch die Angelegenheit ist durchaus komplex. Datenschutz-Institutionen und auch Edward Snowden sehen einen riesigen Verstoss gegen den Datenschutz und damit auch eine offene Tür für weiteres Eindringen in die Privatsphäre. Auch Nutzer:innen sind aktuell nicht begeistert und es entlädt sich ein Shitstorm nach dem anderen gegen Cupertino.
Ab iOS 15: Apple scannt lokal gespeicherte Fotos nach Kinderpornografie
Jetzt müssen wir allerdings ein wenig ausholen. Apple integriert eine Datenbank aus sogenannten Hash-Nummern im kommenden iOS 15 Update, die für den Abgleich mit den Fotos auf dem iPhone und iPad zum Einsatz kommt. Diese Datenbanken werden seit vielen Jahren von der Polizei weltweit genutzt. Auch E-Mail-Provider nutzen diese weltweit gültigen Hash-Strings seit Jahren, um kinderpornografisches Material frühzeitig und automatisiert zu erkennen. Doch wie funktioniert das? Wir erklären euch im Groben wie es geht, damit ihr euch ein eigenes Bild machen könnt:
Jedes Bild bekommt eine einzigartige Hash-Nummer, die aus den Daten des Fotos (Auflösung, Pixel, Farbe und weiteren Informationen) erstellt wird. Die von den Sicherheitsbehörden weltweit eingesetzte Datenbank enthält alle in den letzten Jahrzehnten gesammelten Hash-Nummern von kinderpornografischen Inhalten. Diese Nummern werden mit den Hash-Strings in den Fotoalben der iPhones und iPads abgeglichen, lokal auf dem Gerät und ohne Internetverbindung. Apple selbst hat also keinerlei Einsicht in eure Fotos auf den Geräten oder der iCloud. Hier werden nur Nummern miteinander verglichen. Meldet die Datenbank einen Treffer und schlägt bei Apple Alarm, dürfen sich Spezialisten und Spezialistinnen die Sachlage allerdings anschauen. Fehlalarme sind allerdings dank dem Hash-Nummern-Abgleich nicht möglich.
Kleines Beispiel: Solltet ihr Bilder von euren Kindern haben, wie ihr alle im See badet und diese auch mit der Familie teilt, wird der Scanner niemals anschlagen. Solche Fotos werden mit sehr hoher Wahrscheinlichkeit niemals in der Datenbank der Ermittler für die Hash-Generierung landen. Der Hash-Wert der von euch getätigten Fotos kann also mit den Nummern aus der Datenbank nicht übereinstimmen. Zudem müsst ihr das Scannen aktiv manuell in den Einstellungen aktivieren, es ist also nie von Haus aus aktiv.

Datenschutz, Edward Snowden und WhatsApp-Chef schlagen Alarm
Allerdings machen sich Datenschützer:innen und vor allem auch prominent Edward Snowden nun einige Gedanken. Gerade Snowden kritisiert die Implementierung als Supergau, denn es wäre der erste Schritt in eine Richtung, in der es nicht mehr lange dauern würde, bis noch weitere Zugriffe auf unsere privaten Daten – in welcher Form auch immer – passieren. Es wäre quasi der Einstieg für die völlige Öffnung eurer Daten.
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
— Edward Snowden (@Snowden) August 6, 2021
Datenschützer:innen sehen das ähnlich, denn nicht in jedem Land gelten die gleichen “Durchsuchungs-Gesetze”. Die Grenzen sind hier unterschiedlich. Wie wird diese Technik also in Ländern wie China implementiert, wo Datenschutz und Privatsphäre nahezu nicht existent sind? Wie gehen die Behörden dort damit um? Berechtigte Fragen, die Apple sich gefallen lassen muss. Sogar der Whatsapp-Chef Will Cathcart schaltet sich ein und bezeichnet die Funktion als “von Apple gebautes und betriebenes Überwachungssystem.”
Öffentlich hat Apple sich zwar noch nicht zu dem Thema geäussert, doch sieht das Unternehmen laut 9to5mac Klärungsbedarf. Es gebe derzeit viele Missverständnisse und diese müssen besser kommuniziert werden. Das geht zumindest aus einer internen Mail hervor, die 9to5mac vorliegt. Das iOS 15 Update wird für September 2021 erwartet, wenn das iPhone 13 vorgestellt wird und auf den Markt kommt.
Zudem müsst ihr das Scannen aktiv manuell in den Einstellungen aktivieren, es ist also nie von Haus aus aktiv.
Also der Pädophile muss gar nichts machen und wird dann auch nicht erwischt? Sagt mal Apple, wollt ihr die Benutzer für Dumm verkaufen?