Mo. 09. August 2021 um 7:32

Apple scannt Fotos mit iOS 15: Kampf gegen Kinderpornografie und Datenschutzprobleme?

von Marcel Laser 1 Kommentare

Apple will zukünftig ab iOS 15 die auf dem iPhone und iPad gespeicherten Fotos durchstöbern. Klingt erstmal ziemlich nach einem Privatsphäre-Problem, doch die Angelegenheit ist durchaus komplex. Datenschutz-Institutionen und auch Edward Snowden sehen einen riesigen Verstoss gegen den Datenschutz und damit auch eine offene Tür für weiteres Eindringen in die Privatsphäre. Auch Nutzer:innen sind aktuell nicht begeistert und es entlädt sich ein Shitstorm nach dem anderen gegen Cupertino.

Ab iOS 15: Apple scannt lokal gespeicherte Fotos nach Kinderpornografie

Jetzt müssen wir allerdings ein wenig ausholen. Apple integriert eine Datenbank aus sogenannten Hash-Nummern im kommenden iOS 15 Update, die für den Abgleich mit den Fotos auf dem iPhone und iPad zum Einsatz kommt. Diese Datenbanken werden seit vielen Jahren von der Polizei weltweit genutzt. Auch E-Mail-Provider nutzen diese weltweit gültigen Hash-Strings seit Jahren, um kinderpornografisches Material frühzeitig und automatisiert zu erkennen. Doch wie funktioniert das? Wir erklären euch im Groben wie es geht, damit ihr euch ein eigenes Bild machen könnt:

 

Jedes Bild bekommt  eine einzigartige Hash-Nummer, die aus den Daten des Fotos (Auflösung, Pixel, Farbe und weiteren Informationen) erstellt wird. Die von den Sicherheitsbehörden weltweit eingesetzte Datenbank enthält alle in den letzten Jahrzehnten gesammelten Hash-Nummern von kinderpornografischen Inhalten. Diese Nummern werden mit den Hash-Strings in den Fotoalben der iPhones und iPads abgeglichen, lokal auf dem Gerät und ohne Internetverbindung. Apple selbst hat also keinerlei Einsicht in eure Fotos auf den Geräten oder der iCloud. Hier werden nur Nummern miteinander verglichen. Meldet die Datenbank einen Treffer und schlägt bei Apple Alarm, dürfen sich Spezialisten und Spezialistinnen die Sachlage allerdings anschauen. Fehlalarme sind allerdings dank dem Hash-Nummern-Abgleich nicht möglich.

 

Kleines Beispiel: Solltet ihr Bilder von euren Kindern haben, wie ihr alle im See badet und diese auch mit der Familie teilt, wird der Scanner niemals anschlagen. Solche Fotos werden mit sehr hoher Wahrscheinlichkeit niemals in der Datenbank der Ermittler für die Hash-Generierung landen. Der Hash-Wert der von euch getätigten Fotos kann also mit den Nummern aus der Datenbank nicht übereinstimmen. Zudem müsst ihr das Scannen aktiv manuell in den Einstellungen aktivieren, es ist also nie von Haus aus aktiv. 


iOS 15
Mit iOS 15 kommt auch eine Funktion, die gezielt nach Kinderpornografie in euren Fotos suchen kann. Bild: Apple

Datenschutz, Edward Snowden und WhatsApp-Chef schlagen Alarm

Allerdings machen sich Datenschützer:innen und vor allem auch prominent Edward Snowden nun einige Gedanken. Gerade Snowden kritisiert die Implementierung als Supergau, denn es wäre der erste Schritt in eine Richtung, in der es nicht mehr lange dauern würde, bis noch weitere Zugriffe auf unsere privaten Daten – in welcher Form auch immer – passieren. Es wäre quasi der Einstieg für die völlige Öffnung eurer Daten.

Datenschützer:innen sehen das ähnlich, denn nicht in jedem Land gelten die gleichen „Durchsuchungs-Gesetze“. Die Grenzen sind hier unterschiedlich. Wie wird diese Technik also in Ländern wie China implementiert, wo Datenschutz und Privatsphäre nahezu nicht existent sind? Wie gehen die Behörden dort damit um? Berechtigte Fragen, die Apple sich gefallen lassen muss. Sogar der Whatsapp-Chef Will Cathcart schaltet sich ein und bezeichnet die Funktion als „von Apple gebautes und betriebenes Überwachungssystem.“

 

Öffentlich hat Apple sich zwar noch nicht zu dem Thema geäussert, doch sieht das Unternehmen laut 9to5mac Klärungsbedarf. Es gebe derzeit viele Missverständnisse und diese müssen besser kommuniziert werden. Das geht zumindest aus einer internen Mail hervor, die 9to5mac vorliegt. Das iOS 15 Update wird für September 2021 erwartet, wenn das iPhone 13 vorgestellt wird und auf den Markt kommt.

 

 

Quellen: Apple, 9to5mac  (Englisch)

Das könnte Sie auch interessieren

Eine Antwort zu “Apple scannt Fotos mit iOS 15: Kampf gegen Kinderpornografie und Datenschutzprobleme?”

  1. d3man0 sagt:

    Zudem müsst ihr das Scannen aktiv manuell in den Einstellungen aktivieren, es ist also nie von Haus aus aktiv.
    Also der Pädophile muss gar nichts machen und wird dann auch nicht erwischt? Sagt mal Apple, wollt ihr die Benutzer für Dumm verkaufen?

Schreibe einen Kommentar

Insert math as
Block
Inline
Additional settings
Formula color
Text color
#333333
Type math using LaTeX
Preview
\({}\)
Nothing to preview
Insert
Teilen