MAC BUSINESS BLOG

Cloud

  • Startseite
  • Cloud
  • Apple kündigt Maßnahmen für Kindersicherheit an – was es damit auf sich hat

Links in diesem Artikel ➔

Übersicht aller Artikel, die Sie in diesem Artikel finden.

Apple kündigt Maßnahmen für Kindersicherheit an – was es damit auf sich hat

17/08/2021

Apple gab bekannt, dass es eine neue Maßnahme gegen die Verbreitung von kinderpornographischem Fotomaterial durchführen möchte. Hierbei soll es sich um einen Scan handeln, welcher alle Bilder vor dem Hochladen in iCloud überprüft. Gleichzeitig sollen die Bilder dabei verschlüsselt bleiben. Ein zusätzliches Warnsystem soll die Eltern von Minderjährigen warnen, falls diese fragwürdiges Material zugesendet bekommen. Doch wie sieht es mit dem Eingriff in die Privatsphäre und den Datenschutz der Nutzerinnen und Nutzer aus?


Wie funktioniert die Bilderkennung?

Mit iCloud hat der Konzern eine geräteübergreifende und praktische Cloud-Speicher-Lösung geschaffen. Von überall aus kann zentral auf alle Fotos, Videos und Dokumente zugegriffen werden. Genau hier setzt das Unternehmen an, um die Sicherheit für Kinder zu erhöhen.

Wenn Bilder in iCloud hochgeladen werden, werden diese mit einem sogenannten Hash versehen. Dieser Hash ist vergleichbar mit einem digitalen Fingerabdruck. Jedes Bild besitzt seine ganz persönliche Zahlen- und Buchstabenkombination. Interessant ist hier, dass keinesfalls möglich ist, von einem Hash aus, irgendwie auf das Originalbild zu schließen. Sobald nur ein Pixel im Bild verändert wird, verändert sich auch der Hash komplett. Das möchte der Konzern nun ändern, und zwar mit dem neuartigen Neural Hash. Dies bedeutet im Klartext, dass auch bearbeitete Bilder den exakt selben Hash wie das Ursprungsbild erhalten. Diese Maßnahme ist essenziell für Apples Bilderkennung und die damit einhergehende Filterung von fragwürdigem und illegalen Bildmaterialien.

Die Funktion des Neural Hashs dient dazu, dass der originale Hash des Bildes mit Bildern, auf denen der Missbrauch von Kindern zu sehen ist, abgeglichen. Das Material für diesen Abgleich bezieht Apple aus einer Datenbank, welche von der Kinderschutzbehörde NCMEC in Zusammenarbeit mit verschiedenen weiteren wichtigen Institutionen ins Leben gerufen wurde. Eine Liste der Hashes der fragwürdigen Bildmaterialien wird automatisch auf den entsprechenden Endgeräten gespeichert, wo dann im Anschluss auch der Abgleich vonstattengeht.

Wenn nun eine Übereinstimmung der Hashes in einer Cloud gefunden wird, wird automatisch eine verschlüsselte Anmerkung an das Bild hinzugefügt. Diese Anmerkung enthält essenzielle Informationen dazu, zu welchem Bild aus der Datenbank das gefundene Foto passt. Im Anschluss erhält Apple eine erste Meldung über das fragwürdige Bildmaterial. Die Nutzerinnen und der Nutzer erfahren davon vorerst nichts.

Doch bei einem einzigen Treffer passiert vorerst noch nichts. Erst wenn eine nicht öffentlich bekannte Anzahl solcher Treffer bei der Bilderkennung erreicht wird, schlägt das System Alarm und ein Mitarbeiter des Unternehmens kann die Informationen des Bildes entschlüsseln. Wichtig zu erwähnen ist jedoch, dass bei dem Scan der Bilder kein Mitarbeiter des Konzerns das fragwürdige Material zu Gesicht bekommt. Lediglich die verschlüsselten Anmerkungen mit den Informationen über den Hash sind nach dem Auslösen des Alarms für einen Mitarbeiter ersichtlich. Dieser führt eine erste Überprüfung durch und leitet im Anschluss die gewonnenen Erkenntnisse an das NCMEC weiter. Diese kann gegebenenfalls für weitere Ermittlungen die entsprechenden Behörden mit hinzuziehen.

Die Konten der entsprechenden Nutzerinnen und Nutzer werden während dieses Vorgangs vorerst gesperrt. Ansonsten erhalten diese keine weiteren Informationen über die laufenden Ermittlungen.

Deutlicher Verbesserungsbedarf, um Verbreitung von fragwürdigem Bildmaterial einzudämmen

Doch warum entschließt sich das US-amerikanische Unternehmen dazu, solch drastische Schritte im Kampf gegen das Verbreiten von solchem Bildmaterial zu gehen? Dass in den letzten Jahren die Verbreitung von Fotos und Videos, auf welchen der Missbrauch von Kindern zu sehen ist, deutlich zugenommen hat, ist kaum zu übersehen. Das NCMEC gab hierzu bekannt, dass allein im letzten Jahr 21,4 Millionen solcher Aufnahmen durch die verschiedenen Erkennungssysteme gemeldet wurden. Ein Großteil dieser Meldungen stammt von der Social-Media-Plattform Facebook. Von Apple hingegen stammten nur 265 Meldungen. Verständlich, dass das Unternehmen hier nun kräftigen Nachholbedarf sieht.

Irrtümlicherweise könnte man nun vermuten, dass solches Bildmaterial eher auf einer Plattform wie Facebook verbreitet wird. Doch das ist nicht ganz richtig. Der Knackpunkt liegt im Schutz der Privatsphäre der Nutzerinnen und Nutzer von Apple. Denn das Unternehmen legt hier sehr großen Wert darauf und verschlüsselt die hochgeladenen Medien der iCloud so gut, dass selbst der Konzern keinen Zugriff mehr auf das Material hat. Durch diese strenge Handhabung der privaten Nutzerdaten stand das Unternehmen auch in der Vergangenheit schon öfter im Konflikt, vor allem mit den amerikanischen Strafverfolgungsbehörden.

Es scheint also mehr als nachvollziehbar, dass der Konzern nun die perfekte Symbiose aus dem Schutz der Privatsphäre und dem Kampf gegen die Kriminalität gehen möchte. Der erste Weg, um dieses Unterfangen zu realisieren, soll die neuartige Bilderkennung durch den Neural Hash darstellen.

Datenschutz in Gefahr – Kritiker weisen auf konkrete Probleme hin

Obwohl das Unternehmen mit dieser Art von Scan die Privatsphäre so weit es nur möglich ist, schützt, gibt es bereits jetzt starke Kritik an der Methode. Denn trotz der verschlüsselten Daten und dem Neural Hash, gilt es das Verfahren recht kritisch zu betrachten.

Die größte Problematik sehen Datenschützer in der Intransparenz der Datenbank. Niemand weiß wirklich, welche Bilder sich in der Datenbank befinden und welche Kategorien dort aufgenommen werden. Es könnte genauso gut sein, dass sich dort politische oder religiöse Motive oder sogenannte Memes befinden. Das bedeutet, dass die Speicher der Nutzerinnen und Nutzer nicht nur nach Material durchsucht werden, auf denen Kinder nackt zu sehen sind, sondern auch nach anderen Motiven. Dadurch kann das System schnell zweckentfremdet und für andere Beweggründe missbraucht werden. Aber auch die Privatsphäre der Personen wird natürlich verletzt.

Ein weiterer Punkt, welcher von Kritikern als problematisch betrachtet wird, ist, dass die Neural Hash-Methode nicht als wirklich sicher angesehen wird. Man sieht hier im Vergleich zu anderen kryptografischen Verfahren einige schwerwiegende Probleme. Man vermutet beispielsweise, dass es möglich sein könnte, allein durch den Hash Informationen über das eigentliche Bild zu gewinnen. Wenn dem so wäre, könnte man diese Art von Scan als gewaltigen Eingriff in die Privatsphäre der Nutzerinnen und Nutzer verstehen. Leider gibt es kaum öffentlich einsehbare Informationen über den angewendeten Algorithmus. Weshalb Experten auch hier größtenteils im Dunkel tappen.

Zusätzlicher Filter für Nacktfotos

Neben dem neuen Hash-Verfahren möchte Apple zusätzlich noch weitere Neuerungen im Kampf gegen den Kindesmissbrauch implementieren. Sollten Nutzerinnen oder Nutzer beispielsweise über Siri nach Inhalten suchen, welche im Kontext des Missbrauchs von Kindern zu verstehen sind, dann wird zukünftig eine Warnung ausgegeben. Zudem ist auch das Kindersicherungssystem auf den iOS-Geräten optimiert worden und gibt auf Wunsch an die Eltern des Kindes eine Warnung aus, falls nach solchen Begriffen gesucht wird. Auch wenn es vorkommt, dass solche Daten versendet oder empfangen werden, wird eine Warnung ausgegeben. Am Gerät selbst erhält das Kind ebenfalls eine Warnung, welche die Frage stellt, ob es wirklich diese Art von Medien senden oder empfangen möchte.

Doch Expertinnen und Experten sehen auch hier genug Möglichkeiten, um diese Technologie zu missbrauchen. So befürchtet man beispielsweise, dass in Ländern wie China die Technologie genutzt werden könnte, um Regime-kritische Nachrichten und Medien herauszufiltern. Solche Länder könnten somit auf Informationen über die Aufenthaltsorte der jeweiligen Personen schließen.

Vorerst nur für amerikanische Kunden

Die neue Technologie wird vorerst nur auf amerikanischen iCloud-Konten stattfinden. Bevor das Unternehmen eine großflächige internationale Einführung realisieren kann, müssen zuerst einmal die einzelnen Richtlinien im Hinblick auf den Datenschutz der jeweiligen Länder überprüft werden. Die entsprechende Software jedoch wird mit den kommenden Updates auf allen iOS-Geräten bereits installiert.

Weiterhin sollten sich Nutzerinnen und Nutzer darüber im Klaren sein, dass die neue Technik nur bei Fotos funktioniert. Videos werden noch nicht mit überprüft. Auch Medien, welche sich nur auf dem internen Speicher des Smartphones befinden, können nicht überprüft werden. Das System beherbergt also noch einige Schlupflöcher und muss an einigen Stellen noch optimiert werden.

Apple reicht mit FAQ und Interview Antworten auf viele Fragen nach

Apple hat ein FAQ nachgereicht, um wichtige Fragen zu den geplanten Maßnahmen zu beantworten. Diese FAQ ist gut und geht auf die meisten Themen ein. Die menschliche Überprüfung der markierten Konten ist der Schlüssel zur Vertrauenswürdigkeit des Systems.

Ausserdem hat Craig Federighi, Apples Senior Vice President of Software Engineering, in einem Interview betont, dass das neue System überprüfbar sein wird. Er räumte ein, dass Apple bei der Vorstellung von zwei neuen Tools in der vergangenen Woche ins Straucheln geraten sei. Eines zielt darauf ab, bekannte sexuell eindeutige Bilder von Kindern zu identifizieren, die im Cloud-Speicherdienst des Unternehmens gespeichert sind, und das zweite wird es Eltern ermöglichen, besser zu überwachen, welche Bilder von und mit ihren Kindern über Textnachrichten ausgetauscht werden.

"Es ist wirklich klar, dass viele Nachrichten ziemlich durcheinander geraten sind, was das Verständnis der Dinge angeht", sagte Federighi. "Wir hätten uns gewünscht, dass dies für alle etwas klarer herausgekommen wäre, weil wir sehr positiv und überzeugt von dem sind, was wir tun.

Der iPhone-Hersteller aus Cupertino, Kalifornien, hat sich den Ruf erworben, die Privatsphäre der Nutzer zu schützen, und das Unternehmen hat die neuen Tools als eine Möglichkeit dargestellt, diese Bemühungen fortzusetzen und gleichzeitig Kinder zu schützen. Apple und andere Technologieunternehmen wurden von Regierungen auf der ganzen Welt unter Druck gesetzt, einen besseren Zugang zu Nutzerdaten zu gewähren, um illegale Kinderpornografie zu bekämpfen.

 


Gibt es auf dieser Seite etwas zu verbessern?

Wir freuen uns über Hinweise zu unseren Inhalten.

Tippen Sie einfach "Feedback" in unsere Chatbox rechts unten im Fenster.

Mehr in dieser Kategorie: Cloud

Vorheriger

Das neue iCloud+ wird vorgestellt - Heute: iCloud Private Relay

Eine der großen Neuerungen, die Sie durch das Upgrade auf die neuesten Betriebssysteme von Apple (iOS/iPadOS 15 und macOS Monterrey) in diesem Jahr erhalten, ist iCloud+. Wie der Name andeutet, ist es eine Erweiterung Ihres bestehenden iCloud-Kontos mit weiteren wichtigen (Sicherheits-)Funktionen. ...

Nächster

Google startet neue 'Drive for Desktop'-App. 'Backup and Sync' funktioniert im Laufe dieses Jahres nicht mehr

Google führt seine Google Drive Sync-Clients auf dem Desktop zusammen: „Backup und Sync“ mit „Google Drive“. Die neue App wird „Drive for Desktop“ auf macOS und Windows sein. „Drive for Desktop“ ist ein einheitlicher Sync-Client, der eine konsistente Erfahrung für alle bietet, die ...

  • Startseite
  • Cloud
  • Apple kündigt Maßnahmen für Kindersicherheit an – was es damit auf sich hat