Apple will Endgeräte auf illegalen Inhalte scannen

sexual illusion

Eines der größten und mächtigsten Unternehmen der Welt könnte auch zu einem der größten Sheriffs des Internets werden. Apple gab kürzlich bekannt, dass es an Plänen für eine Software auf iPhones arbeitet, die nach illegalen Inhalten suchen soll. Dabei geht es vor allem um den Missbrauch von Kindern, aber die Auswirkungen sind viel weitreichender. Bisher versuchten die großen Tech-Unternehmen zwar, Daten zu sammeln, versuchten aber zu vermeiden, ihre Nutzer direkt zu überwachen. Dies könnte bald grundlegend anders werden und das Internet für immer verändern.

Ein Bericht der Financial Times sorgte in den letzten Tagen für viele Schlagzeilen, da er Bedenken hinsichtlich der Auswirkungen auf die Internetnutzung und die Erwartungen der Nutzer an ihre Geräte aufkommen ließ. Werden unsere Smartphones zu aktiven Abhörgeräten, die ständig über die Rechtmäßigkeit des Verhaltens ihrer Besitzer urteilen? Orwells »Big Brother« scheint nicht mehr weit entfernt zu sein, wenn Apples Plan, seine Geräte auf illegale Inhalte zu scannen, Realität wird.

Der neue Plan von Apple, seine Nutzer zu überwachen, läuft unter dem Projektnamen »neuralMatch«. Anscheinend wird die Software das Apple-Gerät seines Besitzers scannen und wenn sie glaubt, illegale Bilder zu entdecken, proaktiv ein Team von menschlichen Prüfern alarmieren, die dann die Strafverfolgungsbehörden kontaktieren.

Obwohl die Software zur Bekämpfung von Kindesmissbrauch entwickelt wurde, könnte der grundlegende Algorithmus auch für die Suche nach anderen Inhalten trainiert werden. Da Apple ein globales Unternehmen ist und Regierungen alle möglichen Gründe haben könnten, Inhalte für illegal zu erklären, wirft Apples neuer Ansatz viele Fragen auf und könnte für Nutzer, die unter autoritären Regimen leben, zu einer Bedrohung werden.

Der Financial Times zufolge haben mehrere Forscher und Wissenschaftler angemerkt, dass das System zwar derzeit auf die Erkennung von sexuellem Kindesmissbrauch trainiert ist, es aber auch auf andere Bilder und Texte gezielt ausgerichtet werden könnte, beispielsweise auf Enthauptungen durch Terroristen oder regierungsfeindliche Zeichen bei Demonstrationen, so die Forscher. Der Präzedenzfall, den Apple hier nun schafft, könnte auch den Druck auf andere Technologieunternehmen erhöhen, ähnliche Techniken einzusetzen.

Ein Sicherheitsexperte der Johns Hopkins University, Mathew Green, ging sogar noch weiter und bezeichnete die Idee als katastrophal. »Das ist ein Dammbruch – die Regierungen werden das nun von allen verlangen.«

Der Artikel der Financial Times sieht viele Implikationen und Probleme mit der Software. Dort heißt es: »Apples neuralMatch-Algorithmus wird kontinuierlich Fotos scannen, die auf dem iPhone eines US-Nutzers gespeichert sind und in das iCloud-Backup-System hochgeladen wurden. Die Fotos der Nutzer, die durch einen als ‚Hashing‘ bezeichneten Prozess in eine Zahlenfolge umgewandelt werden, werden mit jenen aus einer Datenbank bekannten Bildern von sexuellem Kindesmissbrauch verglichen.«

Es wird darauf ankommen, wie der Algorithmus trainiert und programmiert wird und vor allem, wer entscheidet, wie er programmiert wird. Zum jetzigen Zeitpunkt, so die Financial Times, sei die Software »auf 200.000 Bilder von sexuellem Missbrauch trainiert worden, die vom gemeinnützigen National Center for Missing and Exploited Children in den USA gesammelt wurden.«

Weiter heißt es: »Nach Angaben von Personen, die in die Pläne eingeweiht sind, wird jedes Foto, das in den USA auf iCloud hochgeladen wird, mit einem ‚Sicherheitssiegel‘ versehen, der besagt, ob es verdächtig ist oder nicht. Sobald eine bestimmte Anzahl von Fotos als verdächtig markiert wurde, wird Apple es ermöglichen, alle verdächtigen Fotos zu entschlüsseln und, wenn sie offensichtlich illegal sind, an die zuständigen Behörden weiterzuleiten.«

Neben der Frage, welche anderen Inhalte als illegal gekennzeichnet werden könnten und wie die Software in Zukunft eingesetzt werden könnte, gibt es noch das Problem der Falschmeldungen durch den Algorithmus, da die Software natürlich nicht perfekt ist. Was würde es bedeuten, wenn der Gerätehersteller Apple die Polizei auf den Plan ruft und sich das Ganze als Fehlalarm herausstellt? Tausende von Leben könnten durch das Grundprinzip der Software und die Bereitschaft von Apple, seine Kunden auszuspionieren, ruiniert und viele weitere gefährdet werden.

1 KOMMENTAR

  1. Das „linksliberale“ Regenbogen-Big Tech ist spießig, verlogen, intolerant und tyrannisch! Pornografen, freie Menschen mit freier Sexualitaet, erkennt wer eure WAHREN Feinde sind! Ihr schaut immer nur nach Feinden rechts(die gar keine Macht haben, selbst Pornodarstellerin-Liebhaber Trump hat euch nix getan), ein großer Fehler! DER FEIND STEHT LINKS!

Kommentar hinterlassen

Please enter your comment!
Please enter your name here