Apple scannt die iCloud Fotobibiliothek gegen Kindesmissbrauch

Eingriff in die Privatsphäre oder vollkommen ok. Heiligt der Zweck die Mittel? Als nächstes dann Waffen, Drogen oder andere Meinungen wie die Regierung? Ein kompletter Scan der privaten Fotos in iCloud und eine Bewertung der Bilder, ist das ok für euch?

Linksammlung zum Thema:

https://www.golem.de/news/ueberwachung-apple-will-icloud-bilder-nach-missbrauchsmaterial-scannen-2108-158718.html

https://mjtsai.com/blog/2021/08/05/scanning-icloud-photos-for-child-sexual-abuse/

Mit iCloud ist hier auch die iCloud Photolibary auf dem iPhone gemeint. Also ein Scan auf dem Gerät mit Aufbruch der E2E-Verschlüsselung.

1 „Gefällt mir“

Mir wäre es lieber, es würde gleich die gesamte Fotobibliothek gescannt.

Dazu ein paar interessante Gedanken: https://twitter.com/alexstamos/status/1424054542879006728?s=21

Das schlimme in meinen Augen ist, dass der Scan lokal auf dem Gerät stattfindet. Somit gibt es keine Möglichkeit das Scanning zu verhindern. Ich hätte mir nie träumen lassen, dass es eines Tages wirklich soweit kommt, dass mich mein eigenes Telefon als Verdächtiger anschwärzt.

Jetzt kommt gleich einer um die Ecke uns sagt, ja aber es gibt keinen Grund Leute die KiPo haben zu schützen. Nur das muss man weiterdenken. Heute ist es KiPo morgen wie in dem Heise Artikel treffend geschrieben sind es unliebsame Bilder oder Dokumente die einem Staat nicht passen.

Wen es interessiert, der kann das Schreiben der EFF mal anschauen.

Hier noch das Begleitschreiben dazu.

Alleine um das Bewusstsein zu schaffen was da mit dem automatischen Update auf iOS15 auf uns zukommt wäre das ein Thema das ich gerne im Lage Pad sehen würde.

Ich denke Apple hilft hier nur die Abstimmung mit den Füßen, um mal nachzudenken.

Vielleicht eine kurze Info, diese Funktion ist in ähnlicher Form auch schon in iOS 14 implementiert gewesen.

Ist also gar nicht so neu, jetzt hat Apple es halt öffentlich gemacht.

Auch interessant ist, dass es möglich ist/war hash collisions zu erzeugen. Das macht das Unterfangen noch etwas zweifelhafter.

Und noch hier noch die Meinung von Edward Snowden:

Zu dem Thema empfehlen würde ich die Folge 403 des Logbuch: Netzpolitik Podcasts.

Ich fand es sehr interessant, wie Linus Neumann vom CCC und Tim Pritlove, ein glühender Apple-Anhänger, bei diesem Thema so gar nicht auf einen grünen Zweig kamen. Also so deutliche Meinungsverschiedenheiten zwischen den beiden gab es selten im Podcast.

Dadurch wurden aber auch die meisten Argumente für und gegen das CSAM-System erörtert. Letztlich läuft es wieder auf das übliche hinaus:

Privacy-Befürworter wie der CCC sehen die absolut berechtigte Gefahr, dass die neue Technologie auf kurz oder lang ausgeweitet wird (z.B. um generell Urheberrechtsverstöße zu erkennen) und der „gläserne Kunde“ noch ein Stück näher rückt.

Glühende Apple-Befürworter denken hingegen, dass Apple hier eher versucht, durch eine möglichst wenig invasive Technologie eine Situation zu schaffen, die es den Staaten erschwert, Backdoors zu fordern - nach dem Motto: Wenn wir zeigen, dass wir etwas gegen die großen Probleme tun und das so gestalten, dass es verhältnismäßig sicher ist, können wir uns besser gegen noch härtere, vom Staat diktierte Maßnahmen wie Backdoors schützen. Also quasi „Ihr braucht keine Backdoors um gegen Kinderpornographie vorzugehen, weil wir das mit dem CSAM-System selbst zuverlässig gelöst haben“.

Beide Argumentationslinien sind vertretbar (verfolgen daher eine stringente, interne Logik), welche Argumentationslinie man selbst für sinnvoller erachtet hängt wie so oft vom eigenen politischen Standpunkt ab…

Wobei man der Fairness halber sagen muss, dass dieses System nur aktiv wird, wenn Daten in die Apple-Cloud hochgeladen werden, z.B. weil man ein Bild per Messanger-Dienst verwendet. Wer also die automatischen Cloud-Uploads ausschaltet und seine Bilder nicht versendet wird tatsächlich - das sagt zumindest Apple - nicht überprüft.

Dennoch sollte man sich Sorgen machen, denn es wäre letztlich nur eine Zeile Programmcode, um die Überprüfung auf dem Gerät auch auf rein private Daten zu erweitern… auch hier hängt also vieles davon ab, inwiefern man Apple vertrauen möchte… (und ich rate jedem, mit Vertrauen gegenüber Großkonzernen generell eher vorsichtig zu sein…)

1 „Gefällt mir“

Das ist nicht interessant, das ist bei jedem Hashing-Verfahren zwangsläufig so. Da Hashes eine feste Länge haben (je nach Verfahren unterschielich groß) muss es nach dem Schubfachprinzip zwangsläufig Kollisionen geben. Das spannende ist jedoch, diese effizient zu finden.

Wer seine Fotos sichern und/oder komfortabel über mehrer Geräte synchronisieren möchte, muss die Fotos in die iCloud laden. Und kann dem Scan nach KiPo nicht entgehen

Sichern kann man seine Fotos auch, indem man das Telefon einfach an den PC anschließt und die Fotos kopiert. Oder eine SD-Karte zum Transfer nutzt. Kurzum: Es ist nicht alternativlos.

Die automatische Synchronisation zwischen verschiedenen Geräten ist hingegen ohne Cloud tatsächlich schwer möglich, das muss dem Kunden bewusst sein.

Ich will Apple hier auch nicht verteidigen (ich hatte mein Leben lang keine Apple-Produkte und werde mit absoluter Sicherheit auf absehbare Zeit nicht damit anfangen, weil ich das geschlossene System von Apple fundamental ablehne und ich Apple einfach nur für überteuerten Hipster-Kram halte…), ich will nur darauf hinweisen, dass man auch als Apple-Nutzer den Scan auf dem Gerät umgehen kann, wenn man auf bestimmte, nicht zwingend notwendige Funktionen (Datensicherung über Cloud, Synchronisation über Cloud…) verzichtet. Das gehört der Fairness halber schlicht dazu.

Wenn nach Hash Werten gesucht wird Frage ich mich wie lange es dauert bis eine App rauskommt die diese verändert. Es müssen ja nur Sachen verändert werden die keinen Einfluss auf das Bild haben. Was ist zum Beispiel mit Kompression? Wird dadurch nicht schon der Hash verändert?

Ein normaler Hash wird schon verändert, sobald man einen Filter auf das Bild legt, das Bild croppt (also den Rand abschneidet, wenn auch nur einen Pixel), das Bild in einem anderen Format speichert (daher eine andere Kompression), es um 1% staucht oder ausdehnt usw. usf.

Klassische Hashs sind daher in der Tat kein sinnvolles Instrument. Was Apple nun mit seinem „NeuralHash“-System versucht, ist gerade das zu ändern. Mit den Mitteln eines künstlichen neuronalen Netzwerkes, also einer relativ hoch entwickelten künstlichen Intelligenz, welches die Bilder nach bestimmten Kriterien analysiert, soll eine neue Art von Hash erzeugt werden, die nicht so leicht ausgetrickst werden kann.

Welche Kriterien diese Hashs zu Grunde legen ist letztlich ein Betriebsgeheimnis Apples, denn sobald die Öffentlichkeit Kenntnis von den genauen Kriterien hat, wäre es natürlich möglich, Bilder wieder auf eine Art minimal zu ändern, die zu anderen Hashs führen.

Apple behauptet, ihr neues Hash-System würde „false positives“ nahezu unmöglich machen (in einem Test kam es in 3 von 100.000.000 Fällen zu einem False Positive) und alle einfachen Methoden, ein Bild zu ändern (siehe erster Absatz) erkennen.

TL;DR:
Ja, man kann Hashs manipulieren, aber nach Apples Aussage ist das neue „NeuralHash“-System bestens dagegen gewappnet. Ob man das glauben sollte und ob es nur eine Frage der Zeit ist, bis man auch diese Hashs manipulieren kann, ist dabei natürlich die große Frage…

Okay. Heißt also das die Leute die Bilder nicht mehr auf dem iPhone speichern sondern nur noch live im Internet über entsprechende VPN/Tournetzwerk abrufen. Damit ist wem geholfen?

Das ist exakt die Argumentation der Gegner dieser Maßnahme. Also eine der Argumentationen.

Linus Neumann vom CCC hat vor allem damit argumentiert, dass schon jetzt der Anteil an Menschen, die - pardon - dämlich genug sind, Kinderpornographie in eine Cloud hochzuladen, so extrem niedrig sein dürfte, dass es schon deshalb unverhältnismäßig erscheint, die gesamte Kundschaft zu überwachen. Nach dem Motto: Um die 0,01% der Kundschaft, die verbotenes Material hochladen, zu erwischen, werden 100% der Kundschaft ausspioniert.

Dein Argument setzt nahtlos daran an: Denn diejenigen, die jetzt schon solche Sachen in die Cloud laden, sind ohnehin die am leichtesten zu findenden, weil am unprofessionell agierenden, Täter. Aber selbst die werden, wenn sich die Sache rumspricht, ihre Sachen nicht mehr in die Apple-Cloud hochladen.

Apple hingegen wird natürlich gerade das als Argument verwenden, denn Apple kann gerade deshalb dann ja sagen: „Unsere Cloud ist frei von Kinderpornographie, die staatlichen Forderungen, Backdoors in unsere Cloud zu bekommen, lehnen wir deshalb ab!“. Und davon - das wäre das Argument der Befürworter - profitieren dann auch die 99,99% Apple-Kunden, die keine Kinderpornographie in die Cloud laden. Das ist letztlich die Antwort auf deine Frage, wem damit geholfen ist :wink:

Dass sich am Problem der Kinderpornographie durch diese Maßnahme nichts wesentliches ändern wird, ist bei der Ausgangslage, dass die Apple-Cloud aller Erwartung nach auch jetzt kein relevanter Umschlagplatz für Kinderpornographie sein dürfte, klar. Kinderpornographie ist wie Drogen- oder Waffenhandel - da steckt einfach sehr viel Geld drin, welches man, wenn man frei von jeder Moral ist, verdienen kann. Folglich wird es dafür immer Vertriebskanäle geben. Aber natürlich macht es Sinn, diese Vertriebskanäle in die wortwörtlich dunkelsten Ecken des Internets zu verdrängen, daher in die absoluten Tiefen des Dark Net, um sie zumindest so weit wie möglich einzuschränken (und dann genug verdeckte Ermittler auf den entsprechenden Plattformen einzusetzen, sodass es für den Kinderporno-Liebhaber oder potentiellen Amokläufer wahrscheinlicher ist, an einen Polizisten zu geraten, als an den Händler seines Begehrens…)