Apple hat mit seiner Ankündigung, iPhone-Bilder auf kinderpornographische Inhalte zu untersuchen, eine Diskussion ausgelöst. Das war zu erwarten und ist richtig. Doch zuerst: Um was geht es? Zwei Dinge: Werden Fotos in die iCloud hochgeladen, werden die Bilder auf dem Gerät geprüft, das heißt, erstens nicht in der iCloud, in der alle Nutzer ihre Bilder speichern, und zweites nicht alle im Endgerät gespeicherten Bilder. Als zweite Maßnahme zum Schutz von Kindern und Jugendlichen stellt Apple bei iMessage die Erkennung von Nacktbildern bereit, die im Falle einer Erkennung das Bild vom Kind nur noch vernebelt darstellt, vor dem gefährlichen Inhalt warnt und eine Nachricht an die Eltern schickt.

Apple hat viele Informationen zu den Verfahren im Netz bereitgestellt, von einer systematischen Beschreibung der eingesetzten Technologien bis hin zu einer wissenschaftlichen Veröffentlichung der eingesetzten Kryptographie. Das ist für Freund und Feind nachlesbar. Tipp: vorher lesen, verstehen und erst dann eigene Meinung bilden.

Lesen oder hören Sie doch weiter.

Erhalten Sie unbegrenzten Zugang zu allen B+ Artikeln der Berliner Zeitung inkl. Audio.

1 Monat kostenlos.

Danach 9,99 € im Monatsabo.

Jederzeit im Testzeitraum kündbar.

1 Monat kostenlos testen

Sie haben bereits ein Abo? Melden Sie sich an.

Doch lieber Print? Hier geht’s zum Abo Shop.