Tim Pritlove
Na ja, ich äh will das gar nicht erst mal äh bewerten, sondern erstmal wollte ich mal äh vorstellen, was eigentlich jetzt sozusagen der Plan ist, ne. Also der Grund, warum Apple so wenig Fälle meldet, ist schlicht und ergreifend, dass ihr halt diese Fotos nie gescannt haben,Und das ist ja schon mal auch äh eins ihrer Argumente äh gewesen, dass sie das halt auch überhaupt nicht tun wollen.Wollen halt nicht äh die Datenbestände von Nutzern durchforsten. Und das wollen sie halt weder in der Cloud noch,auf dem Telefon tun. Das ist quasi so der der Kern auch ihrer Ankündigung. Also was haben sie jetztgemacht, wie du schon richtig gesagt hast, also das ist jetzt quasi der Ausblickauf eine ganze Reihe von neuen Betriebssystemen, also einmal so ihren ganzen Kladderadatsch von vorne bis hinten durch. IOS für das äh iPhone, iPad, US, fürs iPad, Watch OS für die Uhrund natürlich macOS für die Max, also alles kommt jetzt im äh Herbst in der neuen Version raus. Eiweiß fünfzehn und ähIst acht und wie sie alle heißen. Auf jeden Fall ist es mittlerweile auch so, dass die ganzenmit einzelnen Varianten eines Kernbetriebssystems mittlerweile so ähnlich sind, dass sie jetzt mehr oder weniger Technologien jetzt auch auf allen Plattformen gleichzeitig releasen können.Ja und ihre Aussage ist, dass sie halt äh so lange äh da jetzt gar nichts getan haben, weil sie meinten, dass eben die Technologie noch nicht da sei.Sie das auf die Art und Weise machen können,wie sie es gerne machen wollen, nämlich unter Beibehaltung der Privatsphäre, das ist so quasi ihre ihre. Ähm.Auf jeden Fall erstmal auseinander halten sollte, ist.Was tun Sie eigentlich? Sie haben jetzt irgendwie drei Sachen angekündigt. Die ersten beiden kann man, glaube ich, schnell mal abhaken, die sind äh nicht sonderlich äh umstritten und auch nicht sonderlich umfangreich. Also zunächst einmal.Sie sprechen hier von Siri und Search, als ob sie irgendwie große Suchdienste am Start hatten, aber man kann ja quasi mit diesem Siri, mit diesemApple Alexa äh auch Internetsuchen äh ausführen ja und wenn man das halt benutzt und ähm dann dann äh interpretieren sie halt, wie sie sagen,entweder so Hilfe suche oder eben so Sesam, Relate Topics, wie sie das nennen, also Cesam ist so jetzt der, ich weiß gar nicht, wie lange es diesen Begriff schon gibt, aber das steht eben für Charles, oder sozusagen.Fotos, ne, äh aller Art, die eben Kindesmissbrauch dokumentieren, also Sesam werde ich jetzt mal hier auch einen weiteren benutzen als ähm Abkürzung dafür.Und wenn man halt danach äh suchtdann wird halt irgendwie Hilfe eingeblendet, Ressourcen eingeblendet, hier melde dich doch da und so weiter. Äh beziehungsweise wenn halt Leute jetzt aktiv sich auf auf die Suche nach solchen Material machenmeinen sie halt auch, dass sie dann äh entsprechende Warnungen einblenden und darauf hinweisen, dass das ja alles irgendwie nicht so geil wäre oder nicht so oder verboten oder was auch immer. Also da weiß ich jetzt auch nicht genauwas da steht, aber das ist sozusagen das Erste. Ähm das Zweite ist, dass sie halt explizit in diese Messages App auf dem,Eiweiß, also auf dem auf dem iPhone eine Funktion einbauen, die halt ja,Wie sie das so schön sagen, sensitive Content erkennt. Ja, also sie benutzen quasi ihre Machine Learning, Algorithmen, die ja in der Lage sind, mittlerweile alles Mögliche zu erkennen,und sind da wohl recht konfident, dass sie halt tja, erkennen können. Das ist halt, sagen wir mal, eine.Eine eine Antwort auf diese Problematik von so Sexfotos verschicken und soll eine Funktion sein.Die ähm vor allem Eltern in die Lage äh versetzt, das eben bei Kindernsozusagen als Warnow einblenden zu lassen, also entweder um Kinder davon abzuhalten, äh selber Nacktfotos zu verschicken oder eine Warnung anzuzeigen, wenn sie welcheempfangen. Ja, also um dieses Problem der der Anbahnung. Ähm irgendwie an äh anzugehen.Und das Ganze ist halt gekoppelt mit diesem Familysharing. Also das ist jetzt sozusagen keine Funktion, die auf allen Telefonen ist,sondern dass es eben in dieser Konstellation, wo man äh so verschiedene AppleIDs gruppiert zu einer Familie und dann sind bestimmte eben als Kinder ausgewiesen und da ist ja auch das Alter dabei und die Funktion verhält sich halt ein bisschen anders. Ähmje nachdem wie alt die Kinder äh sind. Sprich bei Kindern unter zwölf äh ist dann auch eine Benachrichtigung,der Eltern äh mit dabei und bei älteren,werden sozusagen die Kinder nur selber gewarnt, das ist auch alles Opt-In, also nicht die folgtmäßig äh eingeschaltet,und die Funktion ist halt so, dass wenn du jetzt so ein Foto bekommst, wo die der Algorithmus schlägt an und sagt so, ja hier Sensitive Content, dann ist es erstmal blöd und dann wird halt so drauf hingewiesen, so ja, hier könnte problematischer Inhalt sein, willst du das wirklich sehen? Dann kannst du aber immer trotzdem noch dich drüber hinweg setzen und ja sagen.Bei den kleineren Kindern ist es halt so und dann wird dann auch gesagt so ja okay kannst du dir jetzt angucken, aber wir benachrichtigen dann auf jeden Fall auch deine Eltern,So, ne? Das ist der der Modus, den sie jetzt hier machen. Dadurch, dass es in dieser Messe App ist, ist es halt keine Funktion von iMessage, sondern es deckt dann quasi auch SMS mit ababer eben nicht die anderen Messaging Dienste. Es ist wohl auch im Gespräch.Diese Funktionalität generell im Betriebssystem auch anzubieten. Ohnehin werden diese ganzen Funktionen als Teil des Betriebssystems äh angeboten und werden nicht über noch einen anderen Seitenkanal äh aktualisiert.Ähm das wird sich zeigen, obob sich sowas dann äh etablieren, wird das dann andere Messenger sich sozusagen derselben Funktion bedienen, dass sie einfach sagen, ja hier Betriebssystem, ich habe gerade einbekommen, sag mal was dazu und dann im Prinzip in der Lage werden ja auch diesen selben Prozess oder vergleichbaren Prozess anzusteuern. Das äh liegt jetzt alles noch ein bisschen.In der Zukunft. So, das sind so die ersten beiden Maßnahmen, die Sie angekündigt haben. Ähm und die.Die Maßnahme, die jetzt am meisten Aufmerksamkeit bekommen hat, ähm die bezieht sich auf,i-Cloud-Fotos, i-Cloud Fotos ist ja quasi Apples, Methode, wie ähm Apple-Nutzer,ihre Fotosammlung, ihre Foto Library,im iCloud-System hinterlegen können, so dass man das nicht alles auf den die Weiße speichern muss, ich mache ein Foto aufm iPhone und wenn die iCloud Library eingeschaltet ist, dann wird das haltautomatisch in diese Cloud hochgeladen und mit den ganzen anderenRechnern, die da äh mit derselben Apple ID arbeiten und wo auch iCloud-Fotos eingeschaltet ist, wird das dann halt gesündt, sodass man halt hier ein Foto macht und es dort sofort verwenden kann.Und was sie halt machen werden und ähm man muss nochmal darauf hinweisen,Das ist jetzt eine Funktion, die jetzt erstmal nur in den USA zum Tragen kommt. Das ist jetzt quasi nichts, was jetzt in Deutschland aktiv werden würde, also zumindest nicht jetzt, nicht zu diesem Zeitpunkt,Ähm das halt, wenn,Fotos in diese, also wenn i Cloud Fotos eingeschaltet ist und nur dann, dann ähm werden diese Bilder geprüft, ob es sich dabei um bekanntesCesar Material,handelt. Und hier kommt die anfangs erwähnte ähm dieses Anfangs erwähnte Nationalcenter Children, dieses Neckmack oder NCMEC äh mit rein, was halt in den USAquasi,die einzige Organisation ist, die solche Bilder überhaupt vorrätig haben darf. Das heißt, deren Datenbank existiert nur dort.Und wie du schon gesagt hast, gibt verschiedene Methoden, wie man eben,auf die Identität dieser Fotos prüfen kann, ohne dass die Fotos selber wieder in die Welt geschickt werden,Ne, also mit entsprechenden Fingerprintmethoden. So wie du das von der Microsoft-Methode beschrieben hast, scheint das hier äh noch ein bisschen anders äh zu laufen.Ähm ich vermute mal, dass Apple hier äh mit der Organisation das,technisch gemeinsam, koordiniert hat und hier sprechen sie von sogenannten Noyalas, also ist die ganze Zeit von die Rede, Hashtag ist ja so allgemein so,so ein bisschen in der in der Debatte so ein ist, du nimmst irgendeine Datei, du bildest einen Hash und dann hast du soeine ID, die quasi so ein bisschen für die ganze Datei spricht, ohne dass so die ganzen Daten durchackern musst. Und in der Theorie ist es halt so, du änderst irgendwo ein Bit und dann ändert sich auch irgendwo ein Bit in diesem,das heißt also aus sehr viel mehr Daten wird ein sehr viel kleinerer Zahlenbereich gemacht, der aber trotzdem so ist, dass dass er in der Regel jede Änderung irgendwie,bekommt undäh das würde natürlich sofort fehlen, wenn du halt bei irgend so einer Bilddatei auch nur ein Bike weglässt oder äh von Farbe auf schwarz weiß gehst oder das Bild äh abschneidest, anderes,äh machst oder auch irgendwelche Filter drüber jagst, dann ändern sich ja im Prinzip alle Bits auf einmal und so normaler Hashtag würde dann einfach überhaupt nicht mehr greifenUnd dieser ist halt eherso diese Methode wie heutzutage mit Machine Learning, auch Bilder generell analysiert werden, ne? Dieses Deep-Learning geht ja mehr auf Features ein und ähm schaut sich quasi die eigentlichen Struktur dieses Bildes an.Und sie sagen halt, dass eben mit dieser Methode sie eben auch.Mehrere Varianten eines Fotos ähm auf einen eindeutigen Wert zurückführen können, selbst wenn eben solche Filterkopping und Farbmodifikationen durchgeführt worden sind.Wie gut das funktioniert, kann ich nicht sagen, aber das ist äh die Behauptung, die hier im Raum ist. Man nennt das dann perceptive äh Hashing, ne.So und was passiert jetzt?Du hast also ein neues Bild, ja, was irgendwoher kommt, vom Internet oder äh aus irgendeiner anderen äh Quelle und das soll halt in die iCloud-Foto Libri hochgeladen werden und dann wird eben.Dieses Bild wird von diesem Bild, dieser neurollas gebildet und das Ganze wird.Verglichen mit einer Liste von die eben von diesen,NCMEC kommt. Diese Liste, dieser Bilder der bekannten Bilder, die ist Teil des Betriebssystem Updates, wird mit dem Betriebssystem quasi mit ausgeliefert.Und das findet dann ein Vergleich statt. Und der Vergleich ähm findet.Auf eine kryptographische Methode statt. Also man nennt das Private Intersection.Und in dem Fall äh werden also quasi diese beiden Sets, also auf der einen Seite hier meine Fotos, hier äh die Foto-IDs, diese von der äh Datenbank werden miteinander verglichen.Und damit soll verhindert werden, dass eben diese Sets komplett zugänglich werden, man aber trotzdem irgendwie diese Inhalte miteinander vergleichen kann.Eine ähnliche Technik wird wohl schon zum Einsatz gebracht, um zum Beispiel Passwörter im Schlüsselbund mitliegt,Passwörtern ähm zu vergleichen. Das hatten wir ja hier auch schon mal besprochen. Äh wie hieß noch gleich diese Passwörterdatenbank? Minus.
Nachdem mir euer Zwiegespräch zu Apple sehr gefallen hat, und ich mir einbilde, eine grundlegendere Meinungsverschiedenheit entdeckt zu haben, als Anregung:
Spätestens bei Linus’ Vergleich der Cloud mit physischen Speichermedien, ist mir aufgefallen, dass eurem Dissens in der Bewertung von Apple’s Vorhaben, eigentlich eine unterschiedliche Auffassung und ein unterschiedliches Verständnis der von Apple angebotenen Produkte zu Grunde liegt.
Die Analogie der Cloud als Festplatten steht ja geradezu paradigmatisch für ein Verständnis von individuellem Eigentum, von Besitz, der nach dem Erwerb in der absoluten Verfügungsgewalt des Käufers/Nutzers verbleibt.
Daraus leitet sich selbstredend ab, dass der Verkäufer weder Einfluss noch Verpflichtung für das Veräußerte hat. Vielmehr erschiene allein schon die Ankündigung eines Anspruchs auf Limitierung ebendieser Verfügungsgewalt als Limitierung der individuellen Freiheit des Käufers/Nutzers.
Andererseits schien mir Tim den relevanten, spezifischen Teil der iCloud, so zu verstehen, wie er von Apple zumindest beworben, vermutlich aber auch konzipiert ist – als cloud service, als Dienstleistung.
Genauso schlüssig wie Linus’ Auffassung, folgt daraus allerdings ein kontinuierlicher Einfluss und eine fortlaufende Verantwortung für die Dienstleistung des Anbieters. Die Besitzverhältnisse haben sich nie verändert. Es gibt einen Nutzer, der jedoch nie zum Eigentümer geworden ist.
Ähnlich wie man die Update-Verpflichtung von Plastik-Routern, die ihr regelmäßig fordert, als verpflichtende Vorsorge gegen kriminelle Handhabung auffassen kann, könnte man auch auf Apple’s Vorhaben blicken.
Um es auf den Punkt zu bringen: In eurem Disput geht es schlussendlich darum, ob man durch den Kauf der Produkte auch in deren Besitz kommt, oder lediglich an den Schlüssel, der die Dienstleistungen zugänglich macht.
Vielleicht auch weil dieses Spannungsfeld von Eigentum und Service häufiger wird (‘everything as a service’) und sich auch zunehmend komplexer gestaltet, hoffe ich auf mehr Streitgespräche dieser Art, gerne auch zu diesem Thema.
Was gibt es schon grundsätzlicheres in unserer derzeitigen Gesellschaft, als unser Verhältnis zu Besitztum und die Frage der Kontrolle darüber.
Ich hätte es nicht besser formulieren können, sehr guter Kommentar. Danke! – Ach ja und sehr gute Diskussion, die ich als apple-fanboy gern weitergeführt sehen würde.
Sollten Internet Service Provider fordern, dass über ihre Leitungen nur gescannte Daten laufen? Internetzugang nur für Geräte, die sicherstellen, dass vor einer Verschlüsselung gescannt wurde?
Hies das nicht mal „Störerhaftung“ ?
Im Grunde stellt sich hier die Frage an welcher Stelle (auf privaten netzgebundenen Geräten) die Grenze zwischen privatem und öffentlichem Raum gezogen wird und inwiefern Aktivitäten im öffentlichen Raum anderen, besonderen Maßstäben zu unterwerfen sind.
Das Hochladen (und teilen) von Daten auf iCloud sowie auch das Chatten in Gruppen mit mehr als X Personen könnten m. E. durchaus als Aktivitäten im öffentlichen Raum ausgelegt werden, die an bestimmte Voraussetzungen (z. B. Scannen ála Apple) gebunden sind.
Insofern eine sehr spannende Diskussion über einen nicht einfach zu bewertenden Sachverhalt, die unbedingt fortgesetzt gehört.
Hallo ihr beiden,
ich kann dich schon verstehen Tim aber ich glaube dein ‚Verantwortungsmeter‘ ist so justiert dass Cloudanbieter vielleicht nicht wirklich der richtige Beruf für dich wäre.
Der Vergleich mit H&K war für Linus einfach zu kontern (weil zum töten gemacht). Als Alternative biete ich hier Hersteller von Küchenmesser oder Werkzeugen an.
Stell dir also mal vor du wärst dort Chef. Könntest du noch ruhig schlafen im Wissen das es Menschen gibt die deine Küchenmesser, Hämmer, Äxte zum töten benutzen?
Ich bin also in dem Fall eher auf der Seite von Linus.
Was ich gerne noch sehen würde ist eine Beschäftigung und Bekämpfung der Ursachen von Misbrauch, das Dokumentieren dessen, die Psychologie dahinter. Wenn Apple und co darin investieren würden………
Ich finde es aber gut wie ihr in der Folge beide Seiten beleuchtet und hoffe das die Meinungsverschiedenheit eure Beziehung nicht zu sehr belastet.
Alles Gute und Danke für euern Content!
Ich kann dem Argument auch nicht folgen. Für mich verstößt die Argumentation gegen ein Grundprinzip unserer Gesellschaft, das schon gefärdet genug ist. Mit dem Argument von Tim müsste sich auch der Vermieter (oder das Bauunternehmen deines Hauses) Gedanken über Kindesmissbrauch in der Wohnung machen und mit einer technischen Lösung dafür sorgen, dass er gemeldet wird (z.B. Videoüberwachung die nur dann Alarm schlägt). Später wird das dann auf Substanzkonsum und politische Absprachen ausgeweitet. Dasselbe bei Messengern, der Post etc.
Interessanter Vergleich, gefaellt mir :)
M.E. ist ein Cloudanbieter so etwas wie ein Vermieter, und zwar von „Raum“, nicht von Werkzeugen. Ich kann auch in einer Wohnung die Leichen meiner Opfer stapeln, zumindest deshalb wird Vermieten nicht moralisch fragwürdig.
Viel wichtiger finde ich, dass Kinder mißbraucht werden müssen, damit der Mißbrauch dokumentiert werden kann. Wenn techn. verhindert wird, dass Bilder übers Netz getauscht werden, stoppt das sicher nicht den Mißbrauch. Es ist deshalb ein völlig ungeeignetes Mittel für den vorgegebenen Zweck. Lehrer, Sozialarbeiter, Polizei usw., das nähere Umfeld, kann so etwas verhindern oder aufklären, niemals ein Cloudanbieter oder Apple. Das weiß m.E. auch jeder, der sich mit Gewalt gegen Kinder beschäftigt, deshalb ist das von Anfang an verlogen und ein Vorwand, um Überwachung voran zu bringen. Die Ausweitung auf „Alltagskriminalität“ ist von Anfang an geplant und das eigentliche Ziel solcher Kampagnen.
Als Ergänzung zur Mietswohnungsanalogie, weil die Frage nach der Legitimität solcher Maßnahmen immer zu kurz kommt: Es gibt überhaupt keinen Anlass zu vermuten, dass es in meiner Wohnung zu Kindesmissbrauch kommen könnte. Diese Argumentation gilt selbst, wenn es in der Mehrheit aller Mietwohnungen zu Kindesmissbrauch käme. Es ist auch völlig egal, ob meine Vermieterin dieses technische System für irgendwas missbrauchen könnte. Es ist meine Wohnung und ich muss mich nicht dafür rechtfertigen, dass ich dieses System nicht haben will.
In Bezug auf Apple-Geräte heißt das: Es ist völlig egal, wie viel Prozent der Apple-Nutzer CSAM-Material auf den Geräten haben. Es ist auch völlig egal, ob und wie diese neue Methode missbraucht werden könnte oder nicht. Apple hat keinerlei Anlass zu der Vermutung, dass sich auf meinen MacBook CSAM-Material befinden könnte. Der Besitz eines Apple-Geräts hat überhaupt nichts mit Kindesmissbrauch zu tun. Apple fehlt schlicht die Legitimation. Mit der gleichen Begründung könnte man auch jedes Auto verwanzen („Leute, die CSAM-Material teilen, fahren auch oft Auto“).
Zum Tims Plattformbetreiber-Vergleich: Hier gilt das gleiche. Wenn du Plattformbetreiber bist, und davon Kenntnis erhältst, dass auf sich auf deiner Plattform CSAM-Material befindet, dann erfährst du davon nicht im Abstrakten („Da könnte irgendwo CSAM-Material sein“), sondern im Konkreten („Da drüben ist CSAM-Material“). Und plötzlich hast du mehr Handlungsoptionen als „Plattform-Abschalten“ oder „Alles-Scannen“. Du kannst im konkreten Fall tätig werden.
Das ist das alte Problem der Sicherheitsrhetorik. Es geht nicht um ein konkret vorhandenes Problem („Auf diesem Gerät ist CSAM-Material“). Es geht um imaginierte Probleme („Auf allen Geräte könnte CSAM-Material sein“). Und weil man sich vieles vorstellen kann, kann man so auch alles rechtfertigen.
Für eine unterhaltsamere Erklärung (Achtung, Youtube): https://youtu.be/yyzd_a6vLWY
PS: Danke Linus, für deinen Widerspruch bei Tims Heckler-&-Koch-Vergleich. Diese Argumentation gehört echt auf den Müll. Computer (Küchenmesser, Hämmer…) sind für alles Mögliche geeignet, ein Sturmgewehr ist zum Töten und nur zum Töten da. Der Kauf eines Küchenmessers rechtfertigt keinen Polizeieinsatz, der Kauf eines Sturmgewehrs vielleicht schon.
Ich kann mich dem nur anschließen, will aber auch nochmal sagen, wie gefährlich ich Tims Argumentation im filehoster Beispiel finde:
das abstrakte „mir kommt es zur Kenntnis, dass [mein filehoster Angebot] dafür [ CSAM ] verwendet wird„, da habe ich doch eine Verantwortung und muss was tun ist m.E. schlicht falsch. Die entscheidende Feste ist doch, wie kommt mir das zur Kenntnis? Gibt’s einen konkreten Fall, auf den ich aufmerksam werde? Dann tue ich da konkret was!
Bekomme ich aber viele vage Hinweise, ohne was konkretes, z.B. Emails von Axel V.: „ganz schlimme Sachen passieren auf ihrem Service“
Ich: „ja, was denn?“
Axel V.: „ja eben ganz schlimme Sachen“
Ich: „ja woher wissen sie denn das?“
Axel V.: „wurde mir von meiner vertraulichen Quelle Horst S. berichtet „
… usw.
Dann mach ich da dich lieber gar nix!
Auf Zuruf Accounts oder Content vorsichtshalber sperren, wollen wir ja eher nicht!
Ich finde es gut, dass als Gegenpol zu Linus, hier auch ein Mitarbeiter von Apple zu Wort kommt. Wir wollen ja beide Sichtweisen hören.
kchkch
Ich finde es etwas traurig, wie unreflektiert hier mit der Corona-Impfung umgegangen wird. Die Datenlage pro Impfung ist nach meiner Einschätzung etwas schwach. Länder wie Großbritannien und Isreal haben gezeigt, dass eine hohe Impfquote offensichtlich nicht zur Eindämmung der Pandemie beiträgt. Eine Studie in Massachusetts hat herausgefunden, dass geipmfte infizierte offenbar die gleiche Virenlast tragen wie ungeipmfte und wohl im gleiche Maße zur Verbeitung beitragen. (Hier waren sogar fast drei Viertel der Infektionen bei Geimpften, wobei ich das jetzt nicht sonderlich hoch bewerten würde, da unklar ist wie die Gruppe ausgewählt wurde.)
Die Impfung wirkt offensichtlich bei den geimpften Personen selbst (weniger schwerer Verlauf im Falle einer Infektion), von daher soll jeder selbst entscheiden ob er sich impfen lässt. Ihr sprecht mir diese Entscheidung ab, wenn ich geipmft bin habe ich alles richtig gemacht, wenn nicht bin ich ein Idiot der nichts kapiert hat. Wenn ihr das behauptet, dann belegt es gefälligst auch, sonst seid ihr keinen Deut besser als diejenigen die behaupten man würde mit der Impfung gechipt. Ich halte es auch für verantwortungslos mit Stadienbesuchen oder ähnlichem zu werben, große Menschenansammlungen stellen offenbar immer noch eine Gefahr dar, wie die EM gezeigt hat. Ihr habt eine gewisse Reichweite und damit auch eine Verantwortung, werdet dieser gerecht, so wie ihr das bei technischen Themen ja auch selbstverständlich tut.
Israel hat doch gar keine hohe Impfquote? Die haben grade mal 5% mehr als Deutschland.
Außerdem war das Ziel der Impfung ja auch nicht, dass sich niemand mehr mit Corona infiziert, sondern, dass es keine schweren Verläufe mehr gibt.
Weiterhin ist aktuell die Datenlage sehr dünn, was die Frage angeht, ob die Leute die zur Zeit auf Intensivstationen z.B. in Israel liegen, geimpft sind oder nicht.
Wenn das das Ziel war, dann wurde es erreicht, gut. Worauf ich hinaus will ist, dass argumentiert wird, dass die Pandemie mit der Impfung eingedämmt wird und das ist scheinbar nicht der Fall. Also entweder man wirbt nicht mit diesem Argument, oder man überprüft es mal auf Validität.
Ich finde hier wird gar nicht unreflektiert damit umgegangen und wenn mal deutliche Worte gefunden werden für Unbelehrbare dann ist das vollkommen in Ordnung. Braucht sich keiner drüber beschweren.
Die Datenlage ist eindeutig, schwere Fälle insbesondere Todesfälle treten deutlich weniger auf, schwere Nebenwirkungen auf Grund der Impfung gibt es quasi nicht, hier bezugnehmend auf die Anzahl der weltweit geimpften Menschen.
Dass die Pandemie auf Grund der Impfungen noch nicht besiegt liegt an den Personen die sicht impfen lassen. Die Impfquote ist überall noch nicht ausreichend, dass wurde auch von ernsthaften Wissenschaftlern nicht behauptet, dass eine Impfquote von 65% ausreichend sein würde. Das schwirrt nur in den Köpfen, mehr impfungen weniger Ansteckungen stimmt hier erst ab einer höheren Impfquote und das war von vornherein klar.
Da war der Fehlerteufel im Gange, sollte natürlich heißen:“…liegt an den Personen die sich nicht impfen lassen.“
Sorry
> Dass die Pandemie auf Grund der Impfungen noch nicht besiegt liegt an den Personen die sicht impfen lassen.
Das wird immer behauptet, nur gibt es dafür leider keinerlei Beweise, nicht mal stichhaltige Indizien. Ohne das zu belegen so auf die Kacke zu hauen ist einfach nur Stimmungsmache.
Ich bin davon überzeugt, dass die Impfung dem Geimpften hilft, das ist ja auch durch weniger schwere Verläufe belegt, was mir fehlt ist hier eine differenzierte Betrachtung. Nur weil die Impfung dem Individuum hilft, ist sie noch lange nicht gut um die Verbreitung zu stoppen. Das Problem hat meiner unwissenschaftlichen Einschätzung nach z.B. die Grippeimpfung.
Ein möglicher (zusätzlicher) Grund für die steigenden Zahlen wäre z.B., dass geimpfte wunderbare Überträger sind, das aber nicht so leicht auffallen kann, da diese sich nicht mehr testen müssen.
Mein größtes Problem ist, dass offenbar nicht versucht wird verlässliche Zahlen zu bekommen, sondern stumpf die Parole Impfen gedroschen wird. Es soll ja weiter geimpft werden, aber man darf nicht für alles andere Blind sein. Den Eindruck habe ich aber mindestens von unserem Gesundheitsminister und ebenso von einer Großzahl der Leute die Andere deswegen anschnautzen ohne dabei Argumente zu liefern (wie du).
> Die Impfquote ist überall noch nicht ausreichend, dass wurde auch von ernsthaften Wissenschaftlern nicht behauptet, dass eine Impfquote von 65% ausreichend sein würde. Das schwirrt nur in den Köpfen, mehr impfungen weniger Ansteckungen stimmt hier erst ab einer höheren Impfquote und das war von vornherein klar.
War das so klar? Mir nicht. Ich habe etwas von 60-70% für eine Herdenimmunität in Erinnerung, aber ich mag mich täuschen.
Die Ausführung von Tim zum unfassbaren Eingriff in die Privatsphäre sind einfach hanebüchen. Ich halte auch Intentionen von Apple für hanebüchen. Das ist nichts anderes als Installation einer weiteren Überwachungstechnologie.
Wenn dir Tim die Erkenntnis kommt, da wird auf deinen Servern verbotenes gespeichert, dann leitest du das an die Polizei, die wiederum Richter bemüht um bessgte Personen, und twar nur diese zu durchleuchten. Mich in dieses prophylaktisch zu durchleuchten ist völlig indiskutabel, absolut egal mit welcher Begründung. Ich halte solche Argumentationen für fahrlässig. Linus hat vollkommen Recht, man wird nicht lange warten müssen, und es werden überall prophylaktische Durchleuchtung installiert. Einzig die Gesellschaft und unsere Sicherheitsbehörden sind die, die dieses Problem angehen können. ich lasse mir auch nicht mein moralischen Kompass kaputt reden.
zur Apple-Scan-Diskussion noch ein paar Gedanken, aus denen jeder selbst die Argumente ableiten kann:
(Ich möchte Tim gar nicht so harsch angehen. Ich finde es richtig und mutig, hier auch die Gegenposition zu diskutieren.)
* Würde irgendjemand dieses Feature aktivieren, wenn es einen Opt-In erfordern würde? Oder zumindest ein Opt-Out möglich wäre?
Ich denke nicht. Apple lässt hier also Code auf den iPhones laufen, die die Ressourcen des Telefons benutzen, aber gar nicht im Interesse des Nutzers sind. Es handelt sich also um Schadsoftware (Spyware). Wie Linus sagt: Das Telefon arbeitet gegen den Besitzer.
* „Ich kann hier nicht eine Million Angriffsvektoren skizzieren.“ oder wie Horst Seehofer sagen würde „Hacker mögen immer irgendwas hacken.“
Der offensichtliche Angriffsvektor ist, die Liste an „bösem Material“ zu manipulieren (hat Linus im Prinzip gesagt). Das Versprechen mit der „doppelten Liste von Organisation XY“ hält maximal bis zum anderslautenden Gerichtsbeschluss. Was genau auf der Liste steht, ist kaum zu kontrollieren, weil die Öffentlichkeit nur „Hashes“ kennt, und auch an die kaum heranzukommen ist.
* Nur ein paar Gedanken, welches Material demnächst – ggf. landesspezifisch – auf der Liste steht: Tian’anmen-Massaker, Demos in Belarus, Polizeigewalt.
Wer über Moral argumentiert, könnte auch sagen, wie diese Sperrungen in die eigene Moral passen.
* Wie würden wir diese Technologie finden, wenn Google, Facebook, die Bundesregierung, die US-Regierung oder Geheimdienste sie vorgeschlagen hätten?
Ich stimme Martino inhaltlich 100%ig zu – bei zu scannendem „unerwünschten“ Material möchte ich noch (anonyme) Kryptowallets anfügen. // Das im Kommentar enthaltene Zitat stammt nicht von Hort Seehofer, sondern von seinem Amtsvorgänger Thomas de Maizière: https://www.youtube.com/watch?v=knshF6wmu_A ;-)
(Ist das wirklich schon 11 Jahre her?!)
Danke für die Korrektur!
(ich hätte es vorher googeln sollen…)
Google und Facebook verzichten auf diese Technologie – sie scannen einfach alle Bilder ohne diese und verzichten bewusst auf die Abwägung, die Apple hier noch macht. Und wie findest Du das?
Das Problem mit den „Gerichtsbeschlüssen“ (oder was eigentlich das Problem ist: mit Gesetzen), dass sich gegen diese kein Hersteller mehr wehren kann, wenn sich dann einmal rechtsgültig sind und dann läuft es eben nur so wie die Staaten es wollen. Dagegen kann auch Apple dann nichts machen.
Der vorgeschlagene Weg kann aber einen konkreten Ausweg aufzeigen: eine Methode, die extrem schmalbandig exakt den Hauptkonflikt (CSAM) i den Fokus nimmt und alle anderen Verwertungen explizit ausschließt. Damit nimmt man CSAM als Argument aus der Forderung nach einem generellen Zugriff durch die Hintertür und schafft politischen Druck, solche Hintertüren nicht verpflichtend zu machen. Das ist die Perspektive in der Debatte, die ich versuche zu eröffnen.
Der Unterschied, den Du hier grad unter den Tisch fallen lässt ist aber, dass Google und Facebook auf ihren Servern scannen wenn die Daten da vorbeikommen und nicht lokal auf Deinem Gerät.
> Und wie findest Du das?
Kurz gesagt:scheiße. Andauernd sprecht ihr in dieser Sendung über Content-ID und andere Filter.
Den Unterschied zwischen speichern und teilen hatte Linus schon ausgeführt, der Unterschied zwischen meinem Gerät und einem Server ist ebenfalls erwähnt.
Google und Facebook verkaufen mir übrigens keinen Cloud-Storage mit E2E-Verschlüsselung, sondern bieten mir eine Sharing-Plattform (Facebook) bzw. einen unverschlüsselten Cloud-Storage (Google Drive) „kostenlos“ an.
> und dann läuft es eben nur so wie die Staaten es wollen
Das ist doch kein Grund, das in vorauseilendem Gehorsam umzusetzen oder sich daran zu beteiligen. (Steht natürlich im Zusammenhang mit der politischen Diskussion, s.u.)
Wie in anderen Kommentaren erwähnt: Diktaturen können den Zugriff über ihre Gesetze sowieso erzwingen. Apple liefert hier ohne Not den „lupenreinen Demokratien“ ein Tool, ohne anstößige Gesetze etwas Ähnliches (wenn auch nicht das Gleiche) zu erreichen.
> und alle anderen Verwertungen explizit ausschließt
Was die Methode ausschließt ist, dass ein gelangweilter Geheimagent die Telefone von zufälligen Leuten durchguckt.
Was die Methode nicht verhindert ist, dass der Geheimagent willkürliche Inhalte auf die Blockliste setzt (auch wenn diese Möglichkeit im ersten Schritt nicht vorgesehen ist). Das sind übrigens die Geheimagenten, die die Selektoren der USA durchwinken.
> Damit nimmt man CSAM als Argument aus der Forderung nach einem generellen Zugriff durch die Hintertür und schafft politischen Druck, […]
Das sehe ich anders: Was du an der „aber die Kinder“-Front an Argumentationsgrundlage gewinnst, verlierst du hintenrum über „aber die Technologie ist schon da“. Das ist die Salami-Taktik par excellence.
> solche Hintertüren nicht verpflichtend zu machen.
Wie wir an der Upload-Filter-Diskussion gesehen haben, wird der politische Druck mindestens (!) sein, dass ALLE in Zukunft verpflichtet werden, ein solches System implementieren oder bei den Großen einzukaufen.
Ich war gelinde gesagt erschüttert über Tims blinde Applehörigkeit. Das ist schlicht und einfach eine Legitimierung von anlassloser Überwachung – NoGo. Sorry Tim, aber Du bist doch sonst so maximal-reflektiert und nun kommst Du uns mit einer Polarisierung a la „ach du findest also, dass 0,1% CSAM ok?!“
Dennoch war es gut zu hören, wie ihr mit einem offensichtlich aufgeheizten Dissens ordentlich weiterdiskutiert.
Ist hier nicht das Problem, dass die Lösung von Apple nur auf Systemen funktionieren kann, die geschlossen sind. D. h. auf denen man keine Root-Rechte hat und keinen Zugriff auf den Quellcode.
Bei offenen Systemen mit Open Source-Upload-Clients würde das Konzept nicht funktionieren. Was machen wir mit diesen Systemen, wenn die Lösung von Apple zum Standard werden würde? Müssen offene Systeme dann unverschlüsselt hochladen? Darf man nur noch verschlüsselt hochladen, wenn man keine Root-Rechte hat?
Tim, du scheinst ja ein Urvertrauen zu haben, das Apple in seiner Politik und auch Gesetze wie sie jetzt sind, sich nicht zum Schlechteren der Gesellschaft ändern können. Wenn die Technologie im Gerät ist, ist sie da. Das ist der erste Schritt. Ich verstehe nicht, wie man sich da jetzt auf die Seite stellen kann, das wird immer so bleiben
Oh ja, ich kann nur zustimmen. Ich rechne fest damit, dass in der Chinesischen version schon sehr bald Bilder von HK Protesten, TankMan und ähnlichem landen werden. So werden chinesische Aktivisten und Journalisten der staatlichen Verfolgung noch leichter ausgeliefert.
Ich würde es nicht „Urvertrauen“ nennen aber natürlich vertraue ich heute schon den Anbietern, die ich nutze, dass sie in meinem Sinne handeln. Denn es ist heute schon unmöglich eine Aussage darüber zu treffen, was der Code auf meinen Geräten am Ende wirklich tut. Wenn ein Anbieter etwas unbemerkt was rauschmuggeln will geht das auch heute schon. Habe ich dieses Vertrauen bei Apple? Mit Einschränkungen ja und mein Vertrauen ist da auf jeden Fall um Größenordnungen größer als bei Google.
In den USA gibt es, wie wir auch nicht erst seit Snowden wissen, eine Menge geheimer Anordnungen und der Zugriff auf die Bilder ist heute schon in Form des Zugriffs auf das iCloud Backup möglich – und dazu auf alle anderen Daten. Die Unternehmen sind verpflichtet, dann das Maul zu halten. Von daher ist mir eine öffentlich dokumentierte Zugriffsmethode, die von Sicherheitsexperten analysiert und bewertet werden kann, deutlich lieber als ein genereller Zugriff durch die Hintertür.
Wie gut das nun öffentlich dokumentiert ist mag ich nicht bis ins letzte Detail wissen. Aber welche Sicherheitsexperten die diesen Titel auch verdienen haben denn schon auf das finale Stück Software zugreifen dürfen?
Und wie passt es ins Bild des überprüfbaren Algorithmus wenn Apple direkt nach der Verkündung von Corelium als erstes Projekt der open security initiative (https://www.corellium.com/blog/open-security-initiative) sich genau diesen Apple Algorithmus anzuschauen, Apple den Rechtstreit mit Corellium wieder weiterführt nach einer vorherigen außergerichtlichen Einigung?
Und scheinbar macht Du auch einen schwerwiegenden Fehler. Nur weil die Backdoor öffentlich bekanntgegeben wird und nun die Vordertür ist, ist es nicht weniger gefährlich.
Bisher hatte ich ebenfalls ein größeres Vertrauen in Apple als in Google. Aber sobald dieser fatale Dammbruch durchgeboxt ist, ist Apple eben auch nur ein weiterer Anbieter von überwachtem Trash à la Facebook, der dann zumindest kostenlos sein muss, um noch irgendeinen Wert zu besitzen. Ich erkenne Dich gar nicht wieder, Tim. Apple-Fanboytum in allen Ehren. Aber das hier ist das „Ende von Apple“ als vertrauenswürdiger Hersteller. Wenn der CCC sich nicht mehr einig ist im Jahrzehnte alten Kampf gegen Überwachungsstaat und Überwachungskonzerne, hat er für mich auch seinen Sinn verloren.
Man muss es einfach mal wieder sagen: Vielen Dank für euren Podcast! Wo offen informiert und diskutiert wird (auch wenn ich bei dieser Diskussion völlig auf einer Seite bin ;) ) und ihr offensichtlich genauso interessiert dabei seid wie wir Zuhörer.
Hallo sehr interessante Folge, an manchen Stellen zu Apples Verfahren aber leider sehr schwammig gehalten. Mir ist auch nach der Erklärung von Tim nicht klar, wie diese Technologie konkret funktioniert. Das macht es schwer sich eine eigene Meinung bilden zu können. Bei manchen Aussagen wollte ich mir am liebsten die Haare raufen:
Sinngemäße paraphrasierte Aussage von Tim: „ja das Handy bestimmt zwar Übereinstimmungen, kennt das Ergebnis aber nicht.“ wie soll das bitte funktionieren?! Wenn ich einen Algorithmus habe der sagt, ja ist wahrscheinlich so ein Bild oder nicht und dieser auf meinem Smartphone läuft, dann kennt mein Smartphone natürlich die Ergebnisse. Hat sie ja gerade bestimmt… Kann sein das ich mich irre, dann korrigiert mich bitte, aber so wie in der Folge beschrieben ist obige Aussage nicht nachvollziehbar.
Abgesehen davon bin ich gespannt wie Mitarbeiter die Daten in der Cloud manuell untersuchen wollen, wenn die Daten angeblich verschlüsselt dort abgelegt werden. Key-Escrow?
Das funktioniert, weil der Server noch einen Blinding-Step durchführt und der dann errechnete Wert in die Hash-Tabelle schreibt. Diese Tabelle kommt dann aufs Phone.
Der Client kann diesen Blinding-Step nicht durchführen, da er den verwendeten Schlüssel nicht kennt. Daher ist sichergestellt, dass der Client das Ergebnis der Überprüfung nicht kennt.
Apples Dokumentation auf https://www.apple.com/child-safety/ ist da sehr aufschlussreich.
Hey danke für den Link. Ich hab mir die Technical Summary mal durchgelesen (https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf). Speziell den Part, indem die Generierung der Security Vouchers beschrieben wird. So wie ich das verstehe findet das „finale Matching“ also eigentlich nicht auf den Geräten, sondern auf Apples Servern statt. Ist der Voucher entschlüsselbar liegt ein Match vor.
Was ich allerdings nicht verstehe ist, wie Apple verhindert Kenntnis von den Neural-Hashes zu erlangen, bevor der Threshold erreicht wird. In dem Dokument wird die ganze Zeit von „kryptgrafischen Headern“ gesprochen (ohne deren Generierung zu beschreiben), welche aus den NeuralHashes generiert werden. Aus den Headern werden dann wiederum die Blinded-Hashes und damit der Encryption Key (äußere Schicht) gewonnen. Erlangt Apple damit nicht schon vor der Entschlüsselung der inneren Schicht durch die „kryptografischen Header“ der äußeren Schicht von dem NeuralHash eines Bildes Kenntnis?
Hi Seb, ich habe mir das ganze mit dem „Krypto“-Kram auch mal angeschaut und glaube deine Frage beantworten zu können.
Ich werde hierfür mal das wording von der PDF übernehmen.
Also: @apples side:
1. Apple erzeugt eine Tabelle in der die bekannten CSAM-NeuralHashes (in transformierter form) „geblinded“ (mittels eines „blinding-secret“) an den Adressen liegen welche zu diesem „richtigen“ NeuralHash gehören.
2. Diese Tabelle kommt auf die Geräte.
@user device:
1. Der NeuralHash wird aus dem „user-image“ gezogen.
2. der NeuralHash wird als Loockup für die Blinded-Table genommen und so der zugehörige „Blinded-NeuralHash“ herausgezogen. Existiert kein eintrag werden manchmal „Synthetic-Voucher“ erzeugt (== Dummy-Voucher).
3. Der „CryptoHeader“ wird dann aus dem NeuralHash und dem BlindedHash so gebildet, dass dabei ein Schlüssel (sei er CK) heraus fällt, welcher wiederum durch das „Blinding-Secret“ und den „CryptoHeader“ erzeugbar wird.
4. Das user-device hat sich schon irgendwo einen „account-Schlüssel“ angelegt, sagen wir AK dazu.
Zu diesem AK gibt es (irgendwie, entweder @“if match occurs“ oder bereits beim erzeugen, egal…) mindestens also >=30-shares, wobei durch kombinieren von 30-shares wieder der orginale AK raus kommt, nennen wir diese AK0, AK1, …, AK29.
5. Was nun gemacht wird ist eine Onion Verschlüsselung mit zwei Schalen ;) … (bzw ist so ähnlich) Und das ganze geht dann als „Voucher“ angehängt an dem Bild hoch zu Apple.
In der 1. Schale(inner Layer) wird mit dem „echten“ AK die „image-infos“ verschlüsselt (besteht irgendwie aus dem bild o.s. stellen wir uns vor es ist genau das bild)
In der 2. Schale(outher Layer) wird EINER von den AK0-29 UND die ganze 1. Schale mit dem CK Schlüssel aus [3] verschlüsselt.
Zusammenfassung:
=> Das ganze (1. Schale mit AK_i verschlüsselt in 2. Schale) wird hier „Payload“ genannt.
=> Auch wenn es sich um einen „Synthetic-Voucher“ handelt, führen der „CryptoHeader“ und der CK zu einem match auf dem Server. Wird für ausreichendes Rauschen gemacht, so dass man nicht sieht wer wie viele Vouchers = matches hat.
Aber egal ob match oder kein match, danach hat man erstmal wieder nur Datensalat, also einen mögliches Share AK7 z.b. und die verschlüsselte 1. Schale = Datensalat.
Denn um die 1. Schale zu entschlüsseln braucht man 30 shares (AK0-29, oder AK5-35) um daraus den orinalen AK zu erzeugen.
Mit diesem kommt man dann an alle „bild-infos“ herann die der account je mit diesem System hochgeladen hat.
Hat man das nicht (>=30-shares), hat man nur Datensalat.
—————————————
Also @Seb: „…wie Apple verhindert Kenntnis von den Neural-Hashes zu erlangen, bevor der Threshold erreicht wird…“
=> Dadurch das aus dem CryptoHeader nur ein Schlüssel (CK) abgeleitet wird. Denn mit diesem schlüssel kann dann aus der Payload nur ein „möglicher“ shared-key (AK_i) und ein haufen Datensalt (= 1. Schale verschlüsselt) gezogen werden. Hierbei gibt es keine Info über das Bild.
Handelt es sich um keinen match, wird es trotzdem erstmal wie ein Match aussehen, aber der Shared-key der dann auftaucht ist nur Zufall und kann nicht zum erzeugen des AK benutzt werden.
—————————————
Meinung:
—————————————
Wow das ist krass gemacht, lößt aber das Problem „Scanner-auf-meim-Gerät“ auch nicht…
Das ganze „Crypto“ hier Sichert NUR (und ja NUR) ab, dass Apple an nichts herann kommt bevor nicht die 30 matches vorliegen!!!
Heißt ja nicht dass Morgen jemand her kommt und noch andere Hashes als „match“ definiert.
„Gelegenheit-Schafft-Überwachung“ oder wie gieng der Spruch noch gleich ;)
Schau Dir mal die in den Shownotes verlinkten kryptographischen Methoden an. Durch diese soll tatsächlich dieser Effekt eintreten: man führt einen kryptographischen Vergleich zweier Quellen durch und erhält ein Ergebnis, dass sich erst in dem Moment auflösen lässt, wenn eine (konfigurierbare) Mindestanzahl von positiven Vergleichen durchgeführt wurde. Apple führt dazu in der technischen Erklärung auch drei Papers von Kryptoexperten (u.a. dem Erfinder der Methode) an.
Apples Erklärung für das geplante System so wiederzugeben ist an sich kein Problem und muss man ja bei einer Beleuchtung des Themas durchaus mit reinnehmen. Aber meine Güte, das war vermutlich der längste Umweg für das was sich ganz einfach zusammenfassen lässt mit „System zur Erkennung von arbiträrem Bildmaterial“. Denn mehr ist es einfach nicht, es ist ein komplexer Bildscanner.
NICHTS daran bindet das System auf magische Weise an CSAM Material. Umso frustrierender ist es zu sehen wie viele Apple Fans sich jetzt Augen und Ohren zuhalten und auf die technische Umsetzung dieses Bildscanners zeigen als ob das die Hauptproblematik wäre…
Wenn auf dieser Ebene die Argumente fehlen wird einfach das „Denkt doch an die Kinder“ Argument übernommen.
Linus hat hier meiner Ansicht nach die Situation richtig analysiert.
Noch eine Sache die ich mit anfügen will die mir etwas gefehlt hat im Gespräch. Klar kann man sich jetzt von Apples Technologie blenden lassen und direkt die Lobeshymnen darauf schreiben (nein du darfst dir die Technologie nicht selbst anschauen oder Apples versprechen irgendwie überprüfen), das ändert aber immernoch nichts daran dass am Ende Apple Mitarbeiter in dieser Meldekette mit drinhängen, und darin steckt eben auch eine riesige Gefahr wenn es um solche Themen gehen soll [1] [2].
Das System kann isoliert und auf dem Papier noch so perfekt sein, am Ende arbeiten immernoch Menschen damit, und Apple Mitarbeiter treffen am Ende die Entscheidungen. Das treibt die Zahl der false positives nochmal in die Höhe und bietet eben auch weitere Angriffsfläche.
Noch ein paar extra Prozentpunkte obendrauf kann es auch nochmal durch Bugs und Sicherheitslücken im Code oder eben Sicherheitslücken und Fehler bei den Datenbankbetreibern des CSAM Materials geben.
Und wer die geleakte Mail [3] gesehen hat merkt vllt. dass die das Thema wirklich nicht sonderlich ernst nehmen, natürlich mit Zuspruch von der Apple Spitze.
Denn wer Bedenken und Kritik von Electronic Frontier Foundation, the Center for Democracy and Technology, the Open Privacy Research Center, Johns Hopkins, Harvard’s Cyberlaw Clinic und vielen weiteren als „Screeching Voices of the Minority“ betitelt, in den habe ich kein Vertrauen richtig und gewissenhaft mit dieser Sache umzugehen.
Apples Beispiel für die false positive Rate ist also eher immer der absolute best case im Vakuum.
[1]: https://www.theregister.com/2021/05/29/apple_sis_lawsuit/
[2]: https://www.msn.com/en-us/news/technology/apple-settles-lawsuit-after-iphone-techs-posted-woman-e2-80-99s-explicit-photos-on-facebook-report-says/ar-AAKSNDv
[3]: https://9to5mac.com/2021/08/06/apple-internal-memo-icloud-photo-scanning-concerns/
Ich finde gut, dass ihr einen Dissenz habt. Aber bin ganz klar auf der Seite von Linus bezüglich der Überprüfung der Bilder.
Ich bekomme manchmal das Gefühl, wenn Apple etwas macht dann ist es für Tim okay, weil die das sicher gut machen.
Lass Dich nicht von Deinen Gefühlen leiten sondern sag mir, wo ich falsch lag. Ich beschäftige mich einfach schon länger etwas intensiver mit Apple, weil es eben seit 30 Jahren meine Plattform ist, deswegen schaue ich mir die Sachen immer auch etwas genauer an, weil sie mich unmittelbar betreffen.
Ich fand Apples (und Googles) Vorgehen im Falle des Exposure Notification Frameworks vorbildlich und finde auch in diesem Fall eine gute Dokumentation ihres geplanten Vorgehens vor. Das habe ich mir angeschaut und meine Schlüsse daraus gezogen.
Es steht Euch frei zu anderen Schlüssen zu kommen, aber ich habe jetzt auch noch nicht gehört, dass ich irgendwas falsch verstanden hätte (abgesehen von den Dingen, die ich selbst nur ansatzweise nachvollziehen kann wie die Details der Kryptoverfahren, was ich aber auch im Podcast klar benannt habe).
Ob du was falsch verstanden hast, das weiß ich nicht.
Aber wie du zu deinen Schlüssen kommst und die Aktion irgendwie verteidigen willst, dass verstehe ich überhaupt nicht.
Auf Androidgeräten hast du die Möglichkeit, Google und Facebook komplett auszusperren.
Du kannst auf Cloudanbieter verzichten.
Da das reine Android OpenSource ist, muss das reine Vertrauen zu Android auch nicht allzu groß sein.
Selbst auf „normalen“ Androidgeräten mit den Google-Services kannst du ein Vertrauen entwickeln, dass Bilder, die du nicht in deren Cloud (oder zu Facebook etc.) hochlädst, dann auch Privat bleiben.
Bei Apple musste man bisher Vertrauen, weil ClosedSource.
Und jetzt weiß man, demnächst implementieren sie eine Methode, der du nicht entkommen kannst und die in der Lage ist, auf dem Gerät selbst Bilder zu scannen.
Da hilft es dann nicht, auf Cloudanbieter zu verzichten, der Scan passiert auf deinem Gerät und du bist dem ausgeliefert.
Der Scan erfolgt unmittelbar vor dem Upload in die iCloud. Nutzt du iCloud nicht, wird auch nicht gescannt bzw. die Scan ist auf deinem Gerät inaktiv.
Warum wird der Scan nicht auf dem iCloud Server durchgeführt? Warum ist es notwendig, dass der Scan auf dem Telefon statt findet?
Ist iCloud standardmäßig verschlüsselt?
Die ganze Sache sollte mindestens zum Nachdenken anregen.
Die Technik von Apple ist cool. Allerdings iat das nicht das Thema. Die Frage ist wer bestimmt welche hashes „böse“ sind und wie wird garantiert, dass das nur CSAM ist? (Und dass das auch in Zukunft so bleibt)
Dieses Problem wird durch das coole Kryptoverfahren von Apple nicht gelöst.
Tim, wenn Du schon die „moralische Verpflichtung“ spürst, das Wohl der Kinder zu stärken, verkauf dein iPhone und kauf dir ein Fairphone.
Apple setzt nach wie vor seltene Erden aus Ländern ein, in denen Kinderarbeit an der Tagesordnung ist. Apple selbst hat Milliarden mit Kinderarbeit in China verdient und hat sich erst durch äußeren Druck besonnen.
Technisch sieht das doch so aus:
– Apple installiert einen filter-gesteuerten Trigger, der Alarm schlägt, wenn Bedingungen XYZ erfüllt sind.
– XYZ setzt Apple fest. Momentan noch. Der nächste Trump braucht genau eine Order, dann ist Schicht mit Apple, was das Festlegen der Bedingungen angeht.
– China, das Land, auf das Apple am meisten angewiesen ist, will es profitabel und erfolgreich bleiben, freut sich schon. Da bestimmt die Regierung jetzt schon, was Apple im Store anbieten darf und was nicht.
– Der Filter kommt momentan von nicht näher definierten Quellen. Schön, dass es eine CSAM-Behörde gibt, aber welcher Juristriktion ist diese unterstellt? Wer prüft das Material? Da darf ja niemand unabhängiges Einsicht nehmen. Und wer die Filter definiert, steuert den Trigger. So einfach ist das.
Nein nein. Macht Apple das, bin ich raus. Dann halt Linux und ne eigene Nextcloud (vollverschlüsselt versteht sich). Tut sicher weh am Anfang, geht aber. Ich mach das nicht mit.
China braucht sich gar nicht zu freuen, die haben ohnehin schon Zugriff auf alles worauf sie Zugriff bekommen wollen und brauchen Apple da gar nicht für. Sagst Du ja auch selbst. Im Zweifel werden die Anbieter einfach per Gesetz gezwungen. Die vorgestellte Methode ändert an der Situation gar nichts.
Für Länder, in den Hopfen und Malz noch nicht verloren sind, braucht es eine kluge politische Argumentation, warum man keine Backdoors braucht. CSAM ist hier immer ein Hauptargument, Terror ein anderes. Apple schlägt hier eine Lösung für einen Teil vor und erlaubt damit, politische anders zu argumentieren.
Linus, das ist jetzt DER Moment, um auf ein Google-freies Android-Smartphone (z.B. ein Pixel 4a für 300 Euro mit GrapheneOS) als Daily Driver umzusteigen. Das würde ein Zeichen setzen.
Der Moralhammer ist genau das, wovor immer wieder gewarnt wurde und wo in der Vergangenheit auch immer wieder im Nachhinein die Schweine sich am Trog bedient haben. Terrorismus, Kinderpornografie, Gewaltverbrechen und Mißbrauch jeglicher Art sind zu verfolgen keine Frage, aber wie schnell klopft dann jemand an der Tür und möchte den Dienst auch für die Aufklärung von Kleindelikte nutzen. Ich erinnere nur ungern an die Gästelisten in Bayern, wo wegen einem Fahrraddiebstahls mal eben die gesammelten Gastdaten abgefragt und ausgewertet wurden.
Klar versucht Apple, wenn man ihnen Glauben schenken möchte, stand heute, es so datenschutzfreundlich wie möglich zu bauen. Ändert aber nix an der Tatsache, dass Apple in der Vergangenheit ua. auch in China schon eingeknickt ist und um am Markt zu bleiben diverse Apps aus dem Store genommen hat. Jeder Staat wird dann mit seinen eigenen Interessen kommen und sagen „Hey, ich hab hier ne Liste von Bildern von Schwerstkriminellen, prüft mal ob ihr da User habt, die von denen Bildern auf dem iPhone haben“.
Wir wissen genau, dass jedes Land nen Terroristen und Schwerkriminellen anders definiert. Bei uns nur ein normaler Journalist oder eine Menschenrechtlerin, in Russland oder China dann Staatsfeind Nummer eins. Muß ja nichtmal Apple bekannt sein, was die Inhalte sind, die geprüft werden, was technisch mit Hashes ja auch nicht möglich ist. „Hier die Datenbank bitte prüfen, sonst fliegt ihr vom Markt“ und schwups prüft jedes chinesische iPhone nach Sympatisanten von Staatskritikern.
Will man so etwas wirklich der Welt in die Hände geben? Wird Apple da wirklich nicht einknicken, wenn der zweit- oder drittgrößte Markt wegbrechen könnte? Ich glaube kaum.
Und was in der Debatte fast garnicht erwähnt wird, wie zum Henker soll so ein System neues noch unbekanntes Material erkennen. Wenn der Algo Features von Inhalten auswertet Bsp. wird erkannt Kind, viel nackte Haut, Objekte im Hintergrund und daraufhin ein Hash generiert wird, um bekannte Bilder abzugleichen, wo bitte ist da die Gewährleistung neues Material zu entdecken bzw. bei zu niedriger Schwelle bei der Erkennung nicht auch Fehlmeldungen zu generieren? So wie bis jetzt von Apple kommuniziert bekommen sie die zu prüfenden Datenbanken ja vorgesetzt.
Zur Verhinderung von Straftaten wird das in dem Bereich wohl kaum beitragen, selbst wenn die Datenbanken die gegengeprüft werden täglich aktualisiert werden, wird immer Material im Umlauf sein, das noch nicht bekannt ist. Die Ursachen mit so einem System zu bekämpfen, sollte jedem klar sein, ist nicht möglich, eine Eindämmung auch fraglich. Heute wird „nur“ geprüft, was sowieso in die iCloud geladen wird und morgen wird dann ein Schalter umgelegt und auch alle anderen Inhalte werden durchforstet.
Apple macht es marktreif und alle anderen Hersteller werden/müßen auf Druck hin nachziehen.
Nein Danke Apple, diesmal nicht!
Apple ist nicht „eingeknickt“, Apple muss sich an die Gesetze halten. Wie übrigens auch alle anderen Unternehmen und das nicht nur in China, auch in den USA und auch in Deutschland. Die Frage ist immer: wie sind diese Gesetze?
Komisch nur dass Apple (und alle anderen megacorps) sich bei der Unterstützung von ekliger und menschenverachtender Maschinerie sowie dem Ausbau von Überwachung „an Gesetze halten muss“ und quasi den vorauseilenden Gehorsam an den Tag legt, da kann es nicht schnell genug gehen dem Staat möglichst zu gefallen.
Wenn es aber um Themen wie Steuerhinterziehung, nein ich meine natürlich „Steuervermeidung“ geht wird mit dann mit Hochdruck daran gearbeitet „die Gesetze“ zu umgehen und zwar immer, so effektiv wie möglich.
Ist es eigentlich glaubwürdig, dass Apple hier rein in vorauseilendem Gehorsam handelt? Vielleicht wurden sie ja gezwungen oder sanft hingeführt? Vorstellen kann man es sich.
WhatsApp macht unverschlüsselte Backups deiner Chats und der Bilder, die in dem Chat geposted werden, in deine iCloud. Jemand posted entsprechende Bilder in irgendeinem Gruppenchat, den du vielleicht schon gar nicht mehr liest aber noch abonniert hast, und bam! du bist geflagged.
Nein, das Feature bezieht sich nur auf die iCloud Photo Library, in der nur Bilder sind, die Du da selbst explizit reingetan hast.
Wenn(!) dem so ist, dann ist die Maßnahme für Kriminelle leicht zu umgehen und für Nicht-Kriminelle eine enormes False-Positive-Risiko. Ich erkenne da keinen Gewinn.
Auf Tims Frage wie Facebook aus so viel Meldungen zu CSAM kommt:
CSAM sind auch Selfies von Jugendlichen mit Nacktheit bzw. sexualisiertem Kontext. Wenn da ein Pupertierender Mensch etwas an seinen Schwarm schickt ist das ein Fall. Hinzu kommen dann zig Fälle, wenn aus Eifersucht/Rache die ehemals einvernehmlich ausgetauschten Bilder geteilt werden (was scheiße ist).
Es würde mich nicht wundern, wenn das häufiger der Falll ist, als dass es der Austausch zwischen sexuell Gestörten ist.
Beispiel, 14Jährige macht Selfies und erstellt damit CSAM: https://www.independent.co.uk/news/world/americas/teenage-girl-14-explicit-picture-selfie-distributing-child-pornography-charges-police-rice-county-minnesota-a8127001.html
Das ist ohne die Ausweitung die Linus befürchtet dann auch der Bereich der imho unmittelbar problematisch wird. Hormonell aufgeladene Teenager die en Mass entsprechende Aufnahmen von sich selbst erstellen und dies ohne große Kreativität. Je nachdem wie unscharf die Filter sind, würde es mich nicht wundern, dass das System entsprechend häufig bei Teenagern anschlägt.
Wenn Staatsanwaltschaft und Polizei dann blind auf solche Meldungen reagieren und eskalieren, ist das sich weder angemessen noch wünschenswert.
Der zitierte Fall ist auf Snapchat gewesen, nicht Facebook. Meiner Kenntnis nach beziehen sich die 20,3 Millionen Meldungen explizit auf die Datenbank von NCMEC.
Mit ging es um eine exemplarischen Beleg für das Verhalten von Menschen. Das für die Tat Snapshat genutzt wurde ist da recht unbedeutend. Ich würde davon ausgehen, dass das auf Facebook und seinen sonstigen Marken ebenso stattfindet.
Und selbst wenn die Meldungen mit dem Abgleich von NCMEC gibt, da wandert meines Wissens jeder CSAM Fall hin. Wenn also Teenager wegen CSAM verknackt wird, sind die entsprechenden Bilder bzw. Hashwerte in der Datenbank von NCMEC. Wenn da im Datenbestand von FB noch entsprechende Aufnahmen gibt, gibt es entsprechend nochmals Funde.
Ein Gedanke der mir zudem recht spät kommt: Wenn mit Zahlen um sich geworfen wird, sollte es genaue Angaben zur Methodik geben. Ansonsten sind Zahlen vergleichsweise wertlos..
Woa Tim,
deine Argumentationslinie zur Dienstleistung und dem Gewissen der Anbieter… Konsequenz durchgezogen ist das genau die Linie mit der man das Aufbrechen von Crypto bei jeder Kommunikationsdienstleistung rechtfertigen kann. Eben weil die Kommunikationsdienstleister damit rechnen können, dass ihre Dienstleistung auch für CSAM genutzt werden.
Auch das, „was heißt Backdor, kommt ja nicht jeder rein“. Solche Aussagen bin ich von CDU Poltikern gewohnt o.O. Als wäre die Aussage irgendwann nie Falsch gewesen.
Weiter mit „es wird keine Crypto gebrochen“. Das ist schlicht fachlich falsch. Wenn die Anforderung verschlüsselter Datenaustausch ist, bei dem Austausch aber Hashes vom Klartext vorliegen, würde da jedes Sicherheitsaudit einen höherwertigen Fehler feststellen, selbst wenn die Nutzdaten unangreifbar blieben.
Dann die Argumentation vonwegen „wie viel Prozent wären für dich OK“.
Interessante Diskussion zum Vorhaben von Apple. Gleich mal positiv hervorheben möchte ich wie der jeweils eine den anderen hat ausreden lassen! Das war einfach professionell! Mich hat Tims Standpunkt allerdings gehörig irritiert. Und offenbar nicht als Einzigen. Linus‘ Ausführungen zusammengenommen, warum das Vorhaben letztendlich in der realen Welt keine gute Idee ist, habe ich eigentlich als bisherigen Konsens zwischen euch beiden wahrgenommen. Tims Standpunkt lässt sich mMn auf „der Zweck heiligt die Mittel“ reduzieren. Die Mittel wurden von Apple entwickelt und bereitgestellt, und werden natürlich von den Guten gegen das Böse eingesetzt (die moralische Ebene). Eine zukünftige Erweiterung der Filterkriterien auf weitere Bereiche, wie bei nahezu allen bisherigen „Mitteln“ auch, war für mich absolut nachvollziehbar von Linus hergeleitet. Und das Apple auf eine solche Erweiterung im Ernstfall kaum bis keinen Einfluss hat ist auch mehr als anzunehmen. Apples bisheriges Gegenargument für solche Begehrlichkeiten „das können wir technisch nicht“ hätten sie hiermit selbst vom Tisch geräumt. Das Tim spätestens hier nicht einlenkte lässt mich vermuten das er nur den Strohmann gespielt hat (grundsätzlich eine gute Idee um so ein Thema zu beleuchten!; gib es zu Tim, ich hab dich erwischt! :p ). Ich fand es halt unerwartet befremdlich.
Ich möchte noch in den Raum werfen, das man ein solches „Mittel“ subjektiv anders bewerten könnte wenn man Vater ist. Ich könnte mir durchaus vorstellen das es als Vater leichter fällt sich Tims Standpunkt anzuschließen. Ich weiß, ganz schwieriges Terrain.
Gute Folge, wie immer! Ich mag euch gerne zuhören, und das seit Jahren. Weiter so!
Hallo,
ich habe bei eurer Diskussion um die Picture-Hashes von Apple doch ein bisschen die offensichtliche Parallele zu Cloud-Based Antivirenprogrammen vermisst. Schließlich machen die ja genau das gleiche wie Apple mit den Bilder, die bilden neuronal berechnete Abstraktionen von bekannten Viren, nur halt auf alle Dateien auf dem Endgerät, nicht auf die in der Cloud. Das ist imo genau das gleich kritische Verhalten.
Liebe Grüße
Lernfrage zu Apples CSAM-Filtern: Wenn Mirgationshelfende (Seenotrettung etc.) zukünftig ertrunkene Kinder und Babys dokumentieren – laufen Sie dann auch Gefahr von den CSAM-Filtern erwischt zu werden? Müssen sie dann gar eine Anzeige fürchten? Denen wird ja jetzt schon mit Brandschutz, Bootszulassungen und anderen Formalia die praktische Arbeit erschwert. Ich sehe da Missbrauchspotenzial.
Nur wenn diese Bilder in den Foto-Datenbanken mindestens zweier Organisationen zur Bekämpfung von CSAM auftauchen. Warum sollten diese Bilder da auftauchen?
> Warum sollten diese Bilder da auftauchen?
Wo ist dokumentiert, wie diese Organisationen ihre Foto-Datenbanken befüllen? Seit der „The Cleaners“-Dokumentation¹ bin ich etwas desillusioniert von dem was als „AI/KI“-Filter vermarktet wird – und dem was tatsächlich bei der Kategorisierung von Bildmaterial passiert.
¹ https://www.bpb.de/mediathek/273199/the-cleaners
Hallo Ihr beiden,
ich muss leider widersprechen,
Delphi 2007, Visual Basic 6 (von 1998) und wahrscheinlich die gesamte Peripherie sind nach wie vor am Leben.
Und produktiv im Einsatz.
Das schlimmste was ich gesehen habe, war eine Funktion wo sich Jahrelang die Leute gefragt haben warum die nicht mehr funktioniert, bis ich da reingebohrt habe und festgestellt habe das eben nach XP iirc die zugrundeliegende DOS Funktionalität weg war.
Würde mich sehr interessieren wie das im Web aussieht, wie oft da ein uralt PHP vor sich hin gammelt.
Mit freundlichen Grüßen
Hallo Tim, Hallo Linus,
Danke für Eure lebhafte Diskussion zu der „Lösung“ des CSAM-Problems, die Apple nun auf einer fantastillarden an Geräten suksessive ausrollen wird.
Auch ich finde natürlich dokumentierten Kindesmissbrauch und dessen Verbreitung verabscheuungswürdig und wichtig, dass dagegen vorgegangen wird.
Für mich war dieser Move von Apple aber der letzte Tropfen, der die Erosion meines Vertrauens in den vorgeblich auf Privatsphäre erpichten Konzern komplett hat werden lassen. Ich gehe nun durch den steinigen (und teuren) Weg, weg von diesem technischen Ökosystem.
Unbehagen hatte ich schon in den vergangenen Jahren zunehmend nachdem Apple den walled Garden immer enger gezogen hat und für mich immer mehr das wurde, was früher einmal CompusServ oder AOL im Vergleich zum offenen Internet waren. Oder eben Bell und AT&T in einer anderen Epoche. Das hat nur auf den ersten Blick nichts dem Vorgang hier zu tun, führt hier aber zu weit.
Aber schneller zum Punkt: Apple möchte die Privatsphäre schützen und keine illegalen Inhalte in den Fingern haben, dann sollen sie die Daten Ihrer Kunden Ende-zu-Ende verschlüsseln und sie haben nur Datensalat. Das könnten sie, machen das aber in vorauseilendem Gehorsam nicht. Es könnte ja mehr Druck auf sie ausgeübt werden oder ein Gesetz erlassen werden. – Ich spring doch nicht aus Angst vor dem Tod von der Brücke!
Die Aufgabe eines Geräteherstellers ist es aber eben nicht Polizei zu spielen und zum verlängertem Arm der Ermittlungsbehörden zu werden. Insbesondere solange sie nicht gesetzlich dazu verpflichtet werden, was in einer Demokratie zumindest ein öffentlicher Vorgang ist. Dieser hier kommt aus dem Nichts und ist eine Demonstration der Macht die die Informationsimperien unserer Zeit schon heute haben.
Dabei ist ihr Ansatz in der jetzigen Form nur ein Feigenblatt. Er ist ungeeignet strafbares Material welches neu ist zu erkennen oder welches in einer Anzahl unter dem gemutmaßten Schwellwert von 30 Bildern liegt zu melden.
Für diesen zweifelhaften Erfolg im Kampf gegen vermutlich sehr wenige technisch unversierte Incels, macht Apple ihre Geräte zu potentiellen Daten-Wanzen und nimmt in Kauf, dass die üblichen Bedarfsträger morgen Schlange stehen und die die in der jeweiligen Jurisdiktion verbotenen Inhalte und User ausfindig machen. In China ist das eben ein hier fiktives gerade zirkulierendes Bild von Repressalien gegen die Uiguren, in den USA das nächste Colletaral Murder Video, in Österreich bei einer besoffenen G’schicht gefilmte Politiker, in Deutschland vielleicht ein geklautes Bild das gegen das Leistungsschutzrecht des Springer Verlags verstößt…
Wer glaubt das Apple solche Begehrlichkeiten zurückweisen wird, ist meiner Meinung nach naiv und sollte der Sache mal ein bisschen Zeit geben, dabei sich in der Zwischenzeit den letzten Transparenzbericht und darüber hinaus sich die umfassenden Zugeständnisse des Unternehmens an China anschauen.
Apple ist ein Unternehmen und daher eher ungewillt Märkte aufzugeben. Wo aber ein Trog ist kommen die Schweine – Apple hat gerade einen neuen Trog aufgemacht und den kriegen sie so schnell nicht wieder zu.
Ich glaube nicht einmal mehr das sie es wollen.
Viele Grüße
Marcel
Fand Tims Spruch, wie viel Prozent Kindesmissbrauch für Linus denn OK seien, doch etwas daneben.
Im Übrigen erinnert mich die Diskussion um die Bildhashes an die Selektoren der NSA: Soweit ich verstanden habe wird man aus den Selektoren selber oftmals nicht schlau. Also nicht ganz unähnlich der Hashes, aus denen man keine Informationen auf das Urbild ziehen kann. Und man betreibt Massenüberwachung damit.
In diesem Fall sind die „Selektoren“ eindeutig und überprüfbar: in dem Moment wo die definierte Mindestmenge an Treffern erreicht ist werden die Bilder identifiziert und werden in einem manuellen Schritt überprüft.
Höchst spannende Folge, endlich mal wieder eine echte Diskussion zwischen Euch beiden! Danke dafür auf jeden Fall.
Auch wenn ich mir von Linus öfter mal gewünscht hätte, sich etwas stärker auf Tims Gedankenspiele einzulassen und sie nicht gleich von vornherein abzubügeln. Ich finde, sie waren einfach genug zu widerlegen (das Beispiel mit dem Hasubesitzer hat oben schon jemand geschrieben). Aber mich hätte durchaus auch mehr von dem technischen Hintergrund interessiert oder der Punkt, dass nur die User/Bilder betroffen sind, die in der iCloud landen. Gibt es da einen prinzipiellen Unterschied, oder ist das nur ein Flag, das in V2 invertiert wird?
Man hat deutlich herausgehört, dass da auf beiden Seiten der Blutdruck erhöht war, dadurch hatte ich den Eindruck, dass Ihr beide eher auf den Fundamentalpositionen gessesen habt anstatt auch Nuancen zuzulassen.
Somit hat es Tim leider nicht geschafft, mir seine Position auch nur ein kleines Stück näher zu bringen — ich halte das für einen zu krassen Dammbruch und bin dankbar für den GrapheneOS-Tipp.
P.S. Mit der Fehlerwahrscheinlichkeit von 1:1Billion, ist da die europäische oder die amerikanische Billion gemeint, also 1E-9 oder 1E-12?
Die Europäische. Im englischen Original ist von „1 in 1 trillion“ die Rede.
ich habe keine Fundamentalposition vertreten sondern lediglich versucht, die technischen Details zu erläutern und den Ansatz als solchen zu verstehen. Ich habe da auch keine Fundamentalposition, ehrlich gesagt nicht mal eine klare Position. Aber ich denke, es ist notwendig, die Logik mit der Apple argumentiert und das Design, was sich daraus ergibt, zu verstehen. Und ich denke, dass man in der Debatte eben mit Fundamentalpositionen nicht weiterkommt.
Da habe ich mich nicht klar genug ausgedrückt. Die Fundamentalposition hat auch eher Linus eingenommen und Dich daher kaum aus Deiner Ecke (in die Du jetzt als „Fanboy“ gedrängt wirst) kommen lassen. Dass Du daher kaum über die Argumentation „aber die Kinder“ hinausgekommen bist, das meinte ich mit „Fundamentalposition“. Es wäre schön, wenn Ihr die Diskussion nochmal etwas entspannter fortsetzen könntet.
Danke für das Format und Diskussion. Auf den Bericht zu Apple hatte ich bereits sehnsüchtig gewartet.
Was mir bei der technischen Betrachtung noch fehlt: „Neural Hash“ – also eine „KI“ … schnell, wie oft hat eine KI so richtig gut funktioniert (Bewertung von Bewerbungen, Straftätern, …)?
Eine Blackbox, die auf Millionen Geräten laufen soll und noch mehr Millionen Fotos analysieren darf … was kann da schon schiefgehen.
Und eine andere Frage, die mir direkt spontan eingefallen ist:
Dürfen Eltern noch Nacktbilder von ihren Kindern machen?! Früher hat man das ins private Fotoalbum geklebt und sich Jahre später drüber gefreut/lustig gemacht; heute ist man Straftäter … :(
Oft höre ich die Folge nur und fühle mich hinterher sehr gut informiert. Das war auch heute der Fall. Nur diesmal waren die vielen Kommentare fast noch Aufschlussreicher für mich. „Und das ist gut so“, wie auch die unterschiedlichen Meinungen der beiden Protagonisten. Danke.
Es wurde bereits viel geschireben: Ich denke ich setze ein Zeichen und beschreibe, was ich die letzten Wochen gemacht habe und in Kürze machen werde.
Meine Apple Dev Account habe ich nicht mehr verlängert, mein 2015er Mac Book Pro Retina Display bekommt in wenigen Wochen ein Fedora oder Debian verpasst. Seit 2016 nutze ich für alle meine Dokumente, xDAV Termine, Kontakte und vor allem Bilder die eigene Nextcloud, die genauso wie bei iCloud zwischen meinen Geräten gesynct werden.
Nach über 14 Jahren in der Apple Welt heisst es Bye Bye… es war eine schöne Zeit aber diese ist nun vorbei….
Apple hat den letzten Baustein geliefert und den Absprung am Ende ganz schnell und einfach werden lassen.
Wie Linus es sagte: Ich brauche 100% Konfidenz in mein Arbeits- und auch Freizeitgerät. Diese ist mit einem Closed-Source System, das gegen mich arbeitet nicht mehr gegeben.
Zu der Diskussion zum Thema CSAM von Apple:
Die war wirklich gut und ausführlich. Dem wichtigen Thema wurde sie gerecht.
Ich bin von den Argumenten voll bei Linus.
Bei Tim fand ich fast schon herzig, dass er auf Seiten der Regierungsverantwortlichen und der Verwaltung an das Gute glaubt. Mit meinen 51 Jahren Lebenszeit halte ich diese Einstellung für sehr naiv.
Trotzdem fand ich es spannend, wie Tim tapfer seinen Standpunkt verteidigt hat :-)
Ich habe mich zu den „Regierungsverantwortlichen und der Verwaltung“ nicht geäußert.
Indirekt schon. Linus hat das Thema ja mehrfach angesprochen. Und du hast keine Probleme darin gesehen. So kam das jedenfalls bei mir an.
CovPass Check App? Geht auch mit der normalen und man bekommt den Code gleich gespeichert.
Vielen Dank für einen weiteren sehr interessanten Podcast!
Ich habe eine große Bitte an Tim: Wenn Apple etwas veröffentlicht, was auf geteiltes Echo trifft, bitte einmal folgendes Gedankenexperiment durchführen:
„Was würde ich sagen, falls Google GENAU dieses Feature in GENAU diesen Rahmen umsetzen würde“.
Ich weiß natürlich, dass du Apple-Fan bist, aber manchmal ist es echt schwierig. Apple sagt: „Wir scannen auf DEINEM Device“. Natürlich erstmal nur, falls du Bilder in die iCloud hochladen willst, aber damit ist der Drops schon gelutscht! Wenn morgen China kommt und sagt „wir haben da Fotos auf die wir filtern wollen“ oder übermorgen Russland, und über-übermorgen die EU, dann kann sich Apple nicht damit herausreden, das sie so etwas nicht implementiert haben.
Sie können auch nicht sagen, das der Upload verpflichtend ist. Sie haben jetzt der ganzen Welt gesagt, dass es bald eine IOS Version geben wird bei dem ein Feature implementiert wurde, das das scannen auf dem Gerät erlaubt.
Wurde schon alles mehrfach geasgt.
Werden leider nie erfahren wieviele „Verbrecher“ China mit Appels Hilfe aus dem Verkehr gezogen hat und warum.
Als Linus seine Einleitung mit „und den Rest des Podcasts könnt ihr zuhören wie Tim sich das schön redet“, dachte ich bei mir so LOL, wie soll man sich das denn schön reden.
Aber Tim direkt Hold my Beer.
„Wir wollen eure Daten nicht durchsuchen.“
„Der Scan ist doch nur aktiv, wenn die Daten eh in die Cloud geladen werden“
„Wenn du nur wenige Bilder hast wird noch keine Alarm ausgelöst“
„2 Maßnahmen kann man gleich mal abtun, weil die eh nix machen, außer bei Geräten von Minderjährigen nach sensitive content zu scannen oder wenn jemand mit Siri danach sucht“
„Es wird ja nur nach Bildern gescannt die bei ZWEI!!! Institutionen als problematisch geflaggt sind“
„Es wird doch nur in den USA eingeschaltet“
„Es ist ganz schlaue Krypto im Gange und nicht mal das Telefon sieht ob ein Treffer stattgefunden hat“
„Alle anderen (Cloudanbieter) machen es doch auch.“
Am Ende muss man sich aber auch mal fragen was soll das ganze eigentlich?
Meint ihr nicht, die Tatsache, das bereits ein simples abschalten des Cloud uploads den Scan verhindert, spricht sich nicht bei den potenziellen Tätern herum? Was bringt die Technik dann noch? Ist es nicht vielmehr ein Testballon, um mal die Reaktion der Öffentlichkeit abzuchecken?
Eigentlich will man doch verhindern, dass zukünftiger Missbrauch verhindert wird. Aber genau das kann die Technik nicht – sie findet nur bereits dokumentierten Missbrauch. Oder etwas drastisch ausgedrückt, wenn die Schweine „frischen Content“ produzieren droht ihnen erst mal keine Gefahr. :(
Sicher hat jeder also auch die großen Tech Firmen eine soziale Verantwortung. Und es ist quasi „Bürgerpflicht“ solche Straftaten bei Kenntnis anzuzeigen. Genau so wie ich und ihr das wahrscheinlich tun würdet, wenn ihr bemerkt wie z.B. euer Nachbar seine Kinder missbraucht.
Daher finde ich es auch legitim, wenn (unverschlüsselte) Daten in der Cloud bei entsprechenden Inhalten zur Löschung führen und zur Anzeige gebracht werden. Ja legitim, denn in dem Falle gibt man seine Bilder an einen Dritten, der diese für einen aufbewahren soll – in der alten Analogwelt wie wenn das Fotoalbum bei einem Bekannten abgestellt wird.
Wenn der Anbieter aber technisch nicht in der Lage ist eine Kenntnis von den gespeicherten Daten zu haben (z.B. weil sie verschlüsselt sind), dann bietet das zwar ein Schlupfloch für Verbrecher aller Art, aber das ist ja schon immer die Diskussion seit es Verschlüsselung gibt. Ist der E-Mail Anbieter der alles Vollverschlüsselt speichert dann eigentlich nicht auch in der Bringschuld? Habt ihr nicht vor einiger Zeit noch z.B. den Anbieter Tutanota dafür gefeiert, dass er sich den Begehrlichkeiten widersetzt hat. Mit an Sicherheit grenzender Wahrscheinlichkeit wird aber auch dieser Dienst zum Teil von Verbrechern genutzt.
Ihr hattet ja das Beispiel mit dem Festplattenhersteller. Auch dem wird klar sein, dass seine Produkte zum Teil für die Begehung von Straftaten verwendet werden. Wäre es also gerechtfertigt, wenn die Firmware von Festplatten so einen Scanner enthalten würde?
Welche anderen Produkte sollten noch in der Lage sein proaktiv die Begehung irgendwelcher Straftaten anzuklagen? Der Staubsaugroboter hat gleich noch einen Scanner für illegale Substanzen an Bord? Das Auto stellt gleich selbst den Strafzettel aus, wenn man noch schnell bei gelb über die Ampel fährt?
Die Frage nach ab wieviel % es nicht mehr tolerierbar ist finde ich fast schon illegal. Es hat den Hersteller von Geräten einfach nicht zu interessieren, er hat keine Technologie einzubauen, welche in der Lage ist dieses festzustellen. Das ist fast so wie die Frage, ob man denn Kinderschänder decken möchte…
Andererseits könnte es wirklich so sein, dass Apple es „nur gut meint“, so wie Tim das unterstellt. Vielleicht glauben sie wirklich, durch ihre aufwendigen Maßnahmen könnten sie eine Privacy taugliche Methode schaffen die Verbreitung solches Materials zu verhindern oder zumindest einzudämmen.
Aber wie es manchmal so ist, man nerdet sich so in ein Thema rein, dass man Scheuklappen bekommt und das offensichtliche aus dem Blick verliert. Immer noch eine weitere technische Maßnahme entwickeln um das Szenario XYZ abzudecken. Am Ende hat man eine super duper technische Lösung und zig Seiten Papers aber das ganze ist und bleibt eine Technologie, die einfach äußerst problematisch ist, weil es einfach ein Inhaltscanner ist und bleibt.
Mal angenommen genau dieser Vorschlag mit genau dieser Vorgehensweise würde vom deutschen Innenminister kommen (ja ich weiß soviel Fantasie ist schwer aufzubringen). Von mir aus auch von einer zukünftigen Innenministerin Frau Baerbock. Würdest du den Vorschlag immer noch geil finden?
Warum vertraust du eigentlich einer privatwirtschaftlichen Firma, die in erster Linie ihren Aktionären verpflichtet ist mehr als den staatlichen Stellen demokratischer Staaten? Warum soll Apple für die Staaten die Weltpolizei spielen?
Hier gibt es eine gute Detailanalyse des Apple-Verfahrens zur CSAM Detektion von Yannic Kilcher https://m.youtube.com/watch?v=z15JLtAuwVI
Zweites Video von Yannic: https://www.youtube.com/watch?v=6MUpWGeGMxs
TLDR: der Neural-Hash ist nach nichtmal einer Woche kaputtgespielt
Ich muss zugeben, dass ich mich schon auf diese Folge gefreut hatte. Ich hatte die euren Beitrag zur EU-Chatkontrolle gerade gehört, als ich las was Apple für iOS 15 plant und war schon gespannt auf Tims Erklärung wieso das auf einmal alles kein Problem mehr ist wenn es von Apple kommt. Ich wurde wirklich nicht enttäuscht. Linus ging es ja offenbar ähnlich.
Mich würde aber wirklich interessieren weshalb Tim das vor wenigen Tag noch sehr blöd fand und heute stramm auf EVP Line argumentiert inklusive eines „Linus denk doch an die armen Kinder“! Ich bin mir sicher Apple wird die EU vorgaben zur Chatkontrolle zu Tims Zufriedenheit umsetzen. Auch die Kritik an Machine Learning scheint mir vergessen, weil Apple sich das ja zutraut. Bin beeindruckt das du dabei keine Kopfschmerzen bekommen hast.
Was mich davon unabhängig interessiert ist folgendes, wenn ich es richtig Verstanden habe hat Apple keinerlei Ahnung was hinter den Liste (den Neuroalisen) steckt die sie von der NCMEC bekommen, die Kontrolle findet ja erst dann statt wenn irgendwelche arbiträren Werte überschritten wurden. Dann schaut sich irgend ein Horst bei Apple die fraglichen Fotos an und entscheidet strafbarer Inhalt oder doch nur Familienfotos. Gut das das heutzutage Privatmenschen machen. Das macht mir Kopfschmerzen. Daher vermutlich die zwei unabhängigen Organisationen sonst landen da ja doch schnell irgendwelche hashes in der Liste.
Wieso es laut Apple ok ist weniger als 30 Bilder von Kindesmissbrauch auf dem Telefon spazieren zu tragen bleibt auch im dunkeln. Um sich das mal klar zumachen, Apple sucht auf den Telefonen seiner Nutzer nach strafbaren Inhalten, findet etwas und sagt dann „ne das melde ich mal nicht, zu wenig“. DAS finde ich moralisch fragwürdig.
Vermutlich mangelt es hier an Vertrauen in die eigene Methode und false positive wären bei <30 dann doch sehr häufig.
Sehr guter und richtiger Kommentar!
Das ganze System ergibt für den Kinderschutz in den genannten Parametern überhaupt keinen Sinn, dafür liefert es ernormes Missbrauchspotential.
Ich kann nicht im Ansatz verstehen, wie man (Tim) nicht über die zahlreichen Widersprüche stolpern kann, die Du treffend aufgezeigt hast.
Es hat schon ein Geschmäckle, wenn man z.B. die CDU (zurecht!) dafür kritisiert, dass sie faktenfrei und bar jeder Logik argumentieren, es dann aber selbst tut.
Vor Jahren hatte ich eine Diskussion mit einem Kumpel der an einer SW mitschrieb die durch ein Dongel geschützt war. Er argumentierte, daß er als Entwickler entscheidet, wie seine SW genutzt werden darf. Ich hielt entgegen, daß ich ihm nicht vorschreibe wie er mein Geld zu verwenden hat, welches ich ihm für seine SW zahle.
Jetzt sind wir an dem Punkt angekommen, wo der Hersteller nicht nur seine mir verkaufte SW als sein Eigentum ansieht, nein auch will er mir vorschreiben welche meiner Daten auf seiner HW und SW verarbeitet werden dürfen.
Beispiel:
Wenn ich also meinem Arzt 4.0 mehrere Bilder meines Geschlechtsteiles schicken will, weil es nach der letzten Party dort brennt und juckt, dann komme ich gleich auf eine Sperrliste von Apple und muss mich, vor irgendwelchen unterbezahlten Mitarbeitern die im Akkord Bilder sichten, rechtfertigen. (Diese Funktion wird, wie Linus vorhersagt, irgendwann kommen)
Und wenn mein Sohn irgendwo einen Ausschlag hat und ich diese Stelle dem Arzt 4.0 senden möchte, werde ich dann auch automatisch wegen Kipo angeklagt?
Vielleicht sollte die Post alle Pakete öffnen, denn es könnte ja sein, daß dort Substanzen gefunden werden können oder jemand Kipo analog versendet? Mit Tims Argumentation müsste auch der Stromanbieter meine Daten sichten dürfen. Es könnte sein, daß der Stromanbieter es nicht mit seinem Gewissen vereinbaren kann, dass mit seinem Strom ein Computer betrieben wird, auf dem Kipo verarbeitet wird.
Diese Funktion von Apple ist ein Grund mehr, keine Closed source SW zu benutzen.
Die Funktion „unanständige“ Bilder zu erkennen, hat nichts mit den CSAM-Hashes zu tun.
Aber auch die ist schlimm genug, wenn man den Kindern von klein auf antrainiert, dass (a) _immer_ jemand über die Schulter schaut und (b) nackig _immer_ unanständig ist.
Vielen Dank für das Streitgespräch zu dem Apple Cloud Scan. Das war echt super. Ich hatte nur zwischen drin nur häufiger Angst um eure Freundschaft. Hoffe ihr kommt bald dazu euch bei einem Bier zu versöhnen.
Zur Diskussion um Apples Child Safety Measures: Ich finde es spannend, dass Tim die Diskussion so eingeleitet hat, als wäre neben der Siri-Funktion auch die ML-Erkennung von Nacktfotos on device nicht weiter diskussionwürdig, die Debatte würde sich einzig auf das Scannen der iCloud Photos Library konzentrieren. Dementsprechend hat sich dann die Diskussion hauptsächlich um letzeres gedreht (mit einigen Versuchen seitens Linus, das Scannen on device einzubringen).
Wenn man sich aber die internationale Debatte anschaut, dann wird das Scannen on device mindestens so kontrovers diskutiert wie das Scannen der iCloud Photos Library, wenn nicht noch kontroverser. Und auch die NutzerInnenbasis scheint viel eher das Scannen on device als einen unzumutbaren Eingriff in die Privatsphäre zu beurteilen (sowohl jener der Erwachsenen als auch jener der Jungendlichen) als das Scannen der iCloud Photos [citation needed, ich weiss. Das ist natürlich ein subjektiver Eindruck].
Ich würde mir wünschen, dass diese Debatte über das Scannen on device noch einmal gewürdigt und ebenfalls zur Diskussion gestellt würde. Es ist nämlich gut, wenn Tim einen eigenen Zugang zur Newslage bereitstellt, aber in diesem Fall geht doch die „Chronistenpflicht“ des Ist-Zustandes zu sehr verloren bzw. wer nur LNP hört, würde ein sehr verzerrtes Bild der zur Zeit geführten Debatte bekommen.
Zur Einschätzung der Debatte selbst: Dass das Scannen on device so kritisch gesehen wird, hat wohl von seiten der US-Amerikanerinnen mit dem kulturellen Stellung und Sensibilität des Fourth Amendment zu tun. Eine Sache sind die Privacy-Erwartungen, die mit dem Hochladen eigener Daten auf fremde Server verbunden sind; eine ganz andere sind die Privacy-Erwartungen, die jene Daten betreffen, die auf dem eigenen Gerät gespeichert sind. Letzteres ist ein Ort (nicht zuletzt im Sinne der Extended Mind-These) in der Privatsphäre besonders schützenswert ist und nur auf richterlicher Ordnung vom Staat durchsucht werden kann. Dass hier der Hersteller der Geräte sich nun ein Recht nimmt, dass selbst dem Staat nicht gestattet wird, geht diesen Kritikerinnen (viel) zu weit.
Da schiesst Tims Bemerkung, dass Apple solch ein Scannen bereits einsetzt, über das Ziel hinaus: Ich vermute er spielt auf die ML-Erkennung an, die bereits zur Textsuche in der Photos app eingesetzt wird. Aber durch die Kritik an Apple wird klar, dass hier nicht das Scannen on device das eigentliche Ziel ist, sondern, dass hier die Resultate des Scannens in einer Weise eingesetzt werden, die 1) nicht in erster Linie dem Interesse der Gerätenutzerin dienen; und 2) womöglich das Gegenteil der intendierten Wirkung haben. (Ein Beispiel, das von den Expertinnen in diesem Bereich angeführt wird: das forcierte Outing der sexuellen Präferenzen von Kinder und Jugendlichen an Eltern/Erziehungsberechtigte, welches im Falle von queeren Identitäten in intoleranten (Familien-)Konstellationen zum erheblichen Schaden derselben Kinder und Jugendlichen führen kann.)
Tim, deine Argumentation ist absolut nicht schlüssig. Wenn Apple wirklich nur vorhätte Inhalte die sich in der iCloud befinden zu scannen, dann hätten sie den Scanner nicht AUF DAS TELEFON gebaut. In dem Sinne hat Linus einfach mall 100% recht und du bist auf das Marketing von Apple reingefallen.
Ich halte Apples Lösung in Deutschland für illegal, da sie die Vertraulichkeit und Integrität meines informationsverarbeitenden Systems kompromittiert und nebenbei in meine Intimsphäre eingreift und das mal wieder im großen Stil und eben nicht gezielt zur Strafverfolgung.
Zur Apple Thematik:
Leider an Argument was Linux kurz angerissen hat, dann aber von Tim nicht beantwortet wurde und dann nicht wieder aufgegriffen wird, auch nachdem Tim den Satz später sogar noch einmal wiederholt:
frei zitiert:
Tim „Ich bin Cloud Anbieter und habe Kenntnis darüber, dass der Service für CP genutzt wird, was soll man machen?“ Bin ich natürlich voll bei Tim, ist ein Problem, aber folgende wichtige Frage stellt Linux dann:
„WOHER hast du die Kenntnis darüber?“ und ich denke dass wäre der Start eines der wichtigsten Argumente dagegen, weil das auch sehr oft sogar von euch beiden bei tollen Verbrecher-Jäger-Tools vorgebracht wird. Wenn schon Kenntnis da ist, braucht man das Tool nicht mehr um Kenntnis darüber zu erlangen. Hoffe ihr nehmt diesen Punkt nochmal in einer Diskussion auf, mich hat wie gesagt Linus selbst auf diesen Gedanken gebracht, er wurde nur leider nicht weiter ausgeführt.
Ich vermute es war so gemeint, dass Du als Cloudanbieter für 20 Kunden sowas natürlich nicht weißt, aber wenn Du 20 Mio. Kunden hast, dann weist Du aus statistischen Gründen, dass da welche dabei sein müssen.
Da ist man dann aber ruck-zuck bei der Frage, ob eine Wohnungsbaugesellschaft mit Zigtausend Kunden nicht Kameras aufstellen sollte, weil die Wohnungen zur Ausübung häuslicher Gewalt missbraucht werden.
Begründet der Besitz eines Iphones einen hinreichenden Anfangsverdacht, den Kunden permanent zu überwachen und sein Gerät zu durchsuchen?
Lieber Linus, lieber Tim,
ich hatte währen Eurer Apple-Diskussion mehrfach das Bedürfnis, geeignete Maßnahmen zur Erhöhung Eures Denkvermögens zu ergreifen. Grundsätzlich fand ich die Diskussion gut, weil da harte moralische Dilemmata drinstecken über die man streiten muss.
Aber die ganze technische Diskussion lenkt doch vom Hauptproblem ab: Wie wäre es, mal was gegen Kindesmissbrauch zu tun, und nicht gegen die Dokumentation desselben? Schulung und personelle Ausstattung von Polizei und Justiz, Sozialarbeiter:innen und Vertrauenspersonen in Schulen, Vereinen und kirchlichen Einrichtungen, eine Verbesserung der regelmäßigen Untersuchungen von (Klein-)Kindern um Misbrauch besser zu entdecken, und last but not least ein beherrschterer Umgang mit Verdachtsfällen anstatt einer potentiell existenzvernichtenden Vorverurteilung. Das sind natürlich alles Maßnahmen die die öffentliche Hand direkt Geld kosten, das Licht auf das Versagen Gesellschaft in diesem Bereich lenken und außerdem fällt keine nützliche Überwachungsinfrastruktur dabei raus.
Das ist für mich ein wesentliches Problem der Debatte – der Fokus auf Technik und Datenschutz lenkt davon ab, dass Kinder ganz real missbraucht werden und die „Verbreitung der Dokumentation“ erst der zweite Schritt ist.
Also nix für ungut, klasse Sendung, aber das musste mal raus…
> Das ist für mich ein wesentliches Problem der Debatte – der Fokus auf Technik und Datenschutz lenkt davon ab, dass Kinder ganz real missbraucht werden und die „Verbreitung der Dokumentation“ erst der zweite Schritt ist.
Das ist ein wichtiger Punkt. Die technische Diskussion verschleiert den Blick daarauf, dass Apples Abschnorchel-Aktion keinen sexuellen Missbrauch von Kindern verhindern wird. Es kann aber den Besitz der Dokumentation einschränken.
Das Bestreben, die Verbreitung der Dokumentation von Missbrauch zu unterbinden, ist ja durchaus ehrenwert. Aber die Rechtfertigung dafür kann nicht sein, dass damit Missbrauch verhindert wird. Missbrauch findet zu einem großen Teil im familären beziehungsweise familennahen Umfeld statt. Je mehr man das Dunkelfeld untersucht desto mehr steigt der Anteil des familiennahen Umfelds. Eine Prävention in diesem Bereich ist aber sehr schwierig und so ist es naheliegend, dass man in einer moralisch aufgeheizten Diskussion versucht, Instrumente zu entwickeln, die in gefühlt naheliegenden Feldern zählbare Ergebnisse liefern. Ich vermute, Apple konnte sich der Debatte nicht weiter entziehen und hat nun ein Instrument gebaut, das diese zählbaren Erfolge liefert. Ein Instrument, das an dem eigentlichen Elend nichts ändern wird.
Nicht Aufgabe von Apple, aber ein guter Anfang wäre es sicherlich, wenn man fragwürdige Personen mit einschlägiger Vorgeschichte aus dem Polizeidienst entfernt und Jugendämter personell anders ausstattet. Jahrelange Untätigkeit trotz wiederholter Hinweise aus dem Umfeld in Verbindung mit einer dreistelligen Anzahl an Beweismitteln (Datenträgern) die einfach mal bei der Polizei „verschwinden“… sowas ist völlig inakzeptabel und tatsächlich erst 2018/19 in NRW passiert.
https://de.wikipedia.org/wiki/Missbrauchsfall_Lügde
Auch das Thema Verjährungsfristen wird von Betroffenen kritisiert:
https://tour41.net
Ich glaube, für bestimmte Arten von Problemen sollte nicht immer so schell nach einer technischen Lösung gesucht werden.
Zum Thema Datenschutz bei Apple:
Weiß jemand warum ich beim Umtausch eines fehlerhaften Gerätes während der Garantiezeit dazu gezwungen werde mich im Apple-Store mit Personalausweis zu registrieren? Die Verknüpfung von Klarnamen und meiner anonymen Apple ID finde ich äußerst unnötig. Eine Löschung sämtlicher personenbezogenen Daten nach Abwicklung des Auftrages verweigerte man mir ebenfalls, an einschlägigen Vorgaben durch die DSGVO oder dem EUGH-Urteil zu Safe-Harbour zeigte man leider auch kein Interesse. Ich würde mal behaupten, die Schulung der Mitarbeiter und die Abläufe beim Umtausch stehen im krassen Widerspruch zu Apples sonstigen Anstrengungen auf diesem Gebiet. Eine technische Lösung für mehr Datenschutz lässt sich vermutlich besser vermarkten.
Abschließend noch ein kurzer Gedanke zur letzten Folge und Apples Plänen:
Für die kontroverse Diskussion in der Sendung bin ich sehr dankbar. Die Argumentation von Linus ist für mich zwar weiterhin überzeugender und absolut folgerichtig im Verhältnis zu zahlreichen Debatten aus der Vergangenheit. Aber deine Gegenrede hat dazu geführt, dass ich über bestimmte Aspekte von Überwachung noch einmal genauer nachgedacht habe. Da Apples geplanter Ansatz eine dezentrale und scheinbar private Umsetzung direkt auf jedem Endgerät ermöglicht, wird das Thema Generalverdacht in ein paar Jahren vielleicht noch einmal ganz neu diskutiert werden müssen. Die dann aktuellen politischen Hardliner könnten bspw. eine VDS-re-re-reloaded der allgemeinen Bevölkerung bzw. der Hab-doch-nichts-zu-verbergen-Fraktion viel leichter als sicherheitstechnischen Durchbruch verkaufen (z.B. mittels fragwürdiger Analogien zu Virenscannern ;). Dank rasanter Fortschritte im ML-Bereich verpetzen die Geräte zukünftig nicht mehr automatisch jeden, sondern allein „die Bösen“ ™, was eine permanente Überwachung weniger invasiv und moralisch gerechtfertigter erscheinen lassen könnte. Am Ergebnis ändert das natürlich trotzdem nichts, weshalb ich auch Apples Grundgedanke bei der CSAM-Bekämpfung schon jetzt ablehnen muss, ohne die technischen Feinheiten abschließend bewerten zu können (gleiches gilt für ihren optionalen Nippel-Filter auf iMessage). Apples Einschätzung, die vorgestellten Technologien sein erforderlich, geeignet und angemessen, um dem Problem zu begegnen, teile ich nicht. Verbrechensbekämpfung muss aus meiner Sicht auch zukünftig anders funktionieren.
Es gibt unter den Apple-Nutzern offenbar drei Gruppen.
Die Apple-Fanboys, die sich das Verhalten von Apple schön reden und verteidigen (Tim), egal wie kaputt es ist. Diese leiden unter dem Stockholm-Syndrom.
Dann gibt es die, die das Verhalten von Apple nicht gut finden, aber zu tief im Apple-Käfig gefangen sind, um da ohne große Schmerzen raus zu kommen (Linus).
Und dann gibt es die, die jetzt endlich erkennen, dass man Apple eben nicht trauen kann, und sich von dem Hersteller abwenden.
Da die letzte Gruppe die kleinste ist, wird Apple keinen oder kaum Schaden nehmen. Die nächste Preiserhöhung wird das wieder ausgleichen. Der Markt regelt einen Scheiß.
Ich möchte ebenfalls meine Meinung zu Apples Vorschlag beitragen.
Auch ich stehe hier auf Linus Seite: dieses System zu Bauen ist ein Dammbruch und es wird sich in Zukunft kaum verhindern lassen, die Liste an „unerwünschten“ Materialien auf tatsächliches CSAM zu beschränken.
Das offensichtliche Problem ist natürlich (wie von vielen, inklusve Linus erwähnt) die Möglichkeit, durch eine Änderung der Zielliste neue Inhalte zu finden.
Ich möchte aber auch darauf hinweisen, dass die Zielliste einhergeht mit der eigentlichen Berechnung der „Neural Hashes“.
Credit where credit is due: Apple verwendet den Begriff „Neural“ hier angemessen. Ihr Whitepaper beschreibt in kurzen aber recht eindeutigen Worten ein embedding network, trainiert auf automatisch generierten „Transformationen“ von zufällig ausgewählten Bildern einfach nur bestimmen soll, welche Paare von Bildern „ähnlich“ sind. Der Knackpunkt für mich hier: die Definition von „ähnlich“ ist nur kurz umrissen: z.B. sollen rekompression oder leichter Zuschnitt die Ausgabe des Netzwerkes (das sog. „embedding“) nicht ändern. Ich würde mich so weit aus dem Fenster lehnen zu erwarten, dass auch bei Rotation, Spiegelung und ähnlich Operationen die embeddings stabil bleiben sollten.
Aber: diese Liste der Operationen, die den Hash nicht verändern sollen, wird sich im Laufe der Zeit mit an Sicherheit grenzender Wahrscheinlichkeit ändern. Was z.B. wenn auch Besitzer von CSAM „meme text“ auf ihre Bilder schreiben? Was, wenn sie Filter (ähnlich wie instagram) benutzen? Das Netzwerk muss nun neu trainiert werden, damit diese Operationen die embeddings nicht verändern. Die Parameter des neu trainierten Netzwerks müssen dann nur noch als Update ausgeliefert werden, nebst einer neuen List an Ziel-hashes (da ja auch das original Zielmaterial neue embeddings hat).
Das ist _normal_ und erwartet. Neuronale Netzwerke haben die *gute* Eigenschaft, dass mit mehr Daten und besseren Trainingsmethoden bessere, genauere Ergebnisse erzielt werden können.
Es bedeutet aber auch, dass die Nutzerin *erwarten* sollte, immer wieder einmal einige MB an neuen Hashes und Netzwerkparamntern als Update zu bekommen, aber keinen Weg hat zu sehen, wonach dieses neue Netzwerk jetzt sucht. Dies kann nur dann nachvollzogen werden, wenn die Nutzerin eine Ahnung hat, wonach gesucht wird, solches Material an den Filter gibt, und darauf wartet, dass ihr iCloud-account gesperrt wird.
Ich nehme Apple sofort ab, dass die Netzwerkparameter, die sie nun trainiert haben (oder wollen) sich nur dazu eignen, einfache Transformationen zu erkennen. Aber wenn einmal Instagram-ähnlich gefiltertes Material erkannt wird, warum dann nicht auch Fotos von der gleichen Szene, mit leicht anderen Posen? Quasi ein anderes Bild aus der gleichen Fotosession. Dabei handelt es sich schließlich um die gleiche Straftat.
Am Ende steht ein System mit gleich *zwei* „slippery slopes“:
1. Wird die Liste an gesuchtem Material wie schon erwähnt immer weiter ausgeweitete werden. Wenn dieses System erst einmal verfügbar ist, werden Copyright-industrie und Bekämpfer „schwerster Kriminalität“ zuerst an der Tür klopfen.
2. Wird das darunterliegenden Netzwerk immer „mächtiger“ werden, bis hin zu dem Punkt, an dem „zeigt eine ähnlich Szene“ auch als „ähnlich“ gilt.
von Daan:
> Es bedeutet aber auch, dass die Nutzerin *erwarten* sollte, immer wieder einmal einige MB an neuen Hashes und Netzwerkparamntern als Update zu bekommen, aber keinen Weg hat zu sehen, wonach dieses neue Netzwerk jetzt sucht. Dies kann nur dann nachvollzogen werden, wenn die Nutzerin eine Ahnung hat, wonach gesucht wird, solches Material an den Filter gibt, und darauf wartet, dass ihr iCloud-account gesperrt wird.
Danke! Das ist ein interesanntes Szenario:
Die „NeuralHashes“ habe ich mir noch nicht so gut angeschaut wie den Crypto-Kram danach, das ist aber wichtig und hier auch nochmal ZU BETONEN:
DIE DETEKTION (mittels NeuralHash) HAT NICHTS MIT CRYPTO ZU TUN!!!
Und genau hier, ein-drei schritte vor der ersten CRYPTO-Operation setzen hier auch alle Kritiken an!
Hier kann sich Tim noch so sehr für die TECHNIK interesieren, es bleibt ein Scanner auf dem Entgerät mit dem Potential ALLE bits-&-bytes zu „überprüfen“ und zu melden!
Wenn dan in zukunft immer wieder „Blinded-Hash-Tables“ geupdated werden (die nicht überprüfbar sind) ist es auch unmöglich wirklich zu wissen ob hier nicht auch andere Aktöre als die NCMEC beim Hashing „behilflich“ sind…
Heute CSAM…
Morgen Terror…
Übermorgen Urheberrecht….
und dann???… HK Proteste, Belarus… you name it
Und das alles AUF meinem gerät, bei daten die ich NIE veröffentlichen wollte!
Was mögen wohl Journalisten davon halten?
(spoiler: https://www.handelsblatt.com/technik/it-internet/iphone-hersteller-journalistenverbaende-verurteilen-apple-massnahmen-zu-kinderpornografie/27522098.html)
Ja man kann sich da natürlich immer in alle möglichen Endzeitszenarien reinsteigern und den Ist-Zustand immer mit irgendwie realistisch erscheinenden oder auch weniger realistischen Zukunftsprognosen anreichern, aber mir fehlt hier wirklich noch einiges bis zur Apokalypse.
Viele regen sich auf, dass hier ein Check on-device gemacht wird und dass das ja der Anfang vom Ende ist. Ich persönlich finde das erst mal nur interessant, weil es an sich überhaupt nichts Neues ist.
macOS (wie viele andere Systeme auch) hat einen Virenscanner und checkt Executables on-device mit Einträgen auf Listen, die regelmäßig aus dem Internet nachgeladen werden. Hier könnte man genauso argumentieren: Dammbruch! Wenn das Schule macht! Heute Viren morgen das Sonnensystem!
Am Ende besteht jede Cloud-Anbindung (genaugenommen auch jede Netzwerk-Interaktion) immer aus zwei Seiten: Code läuft auf dem Server, Code läuft auf dem Client. Das Vertrauen muss man immer beiden Seiten entgegenbringen.
Und das stört mich hier auch an der Argumentation: alle möglichen denkbaren Szenarien der Zukunft sind genau genommen auch schon Szenarien der Vergangenheit. Alles wäre schon gestern möglich gewesen und dieser Vorschlag von Apple führt hier überhaupt nichts wirklich neues ein.
Manches macht eben mehr Sinn auf dem Server, anderes ist besser beim Client aufgehoben sein und das kann in diesem Fall durchaus der Fall sein, zumal damit eben auch eine Vollverschlüsselung der Cloud möglich werden _könnte_ und gegenüber dem Gesetzgeber argumentiert werden kann, dass man ja trotzdem auf CSAM checken kann (und sonst eben auf gar nichts). Ich weiß nicht, ob das so kommen wird oder was Apple sonst noch von der Vollverschlüsselung abhält (wie der Tatsache, dass sie sich täglich mit tausenden Usern mit vergessenen Passwörtern rumschlagen müssen), aber es ist ein Gedanke, den ich für diskussionswürdig halte.
Würde Apple (bzw. auch alle anderen Unternehmen) von irgendwelchen Ländern gezwungen werden, geheime Zugriffe zuzulassen ohne die Nutzer davon zu benachrichtigen, es wäre schon alles da. Und vielleicht ist das auch so. Dafür braucht es diesen aufwändigen Prozess zu Checken von CSAM überhaupt nicht, der würde nur stören und ist viel komplizierter, als einfach eine direkte Online-Durchsuchung zu machen.
Ist es wirklich so viel verlangt, einfach mal über meine Argumente ruhig nachzudenken und zu diskutieren anstatt nur gehetzt Ländernamen aneinanderzureihen? Als ob ich hier auf einmal einem Überwachungsstaat das Wort reden würde. Kommt mal klar.
Möchte mich an dieser Stelle gerne vom Ton des GP distanzieren.
Natürlich höre ich deine Argumentation, Tim. Ich finde das Dammbruchargument allerdings schwer von der Hand zu weisen an dieser Stelle. Nicht nur aus historischer Betrachtung, sondern auch,weil Apple ja anscheinend schon damit begonnen hat, den Anwendungsbereich von „nur iCloud, nur bei Upload“ auszuweiten auf „wir können uns auch vorstellen, das anderen Apps als API anzubieten.“
Klar ist das noch nicht „wir scannen alles und jeden immer und überall“ aber es fällt mir dabei schwer, an eine ewige Begrenzung auf das iCloud-Szenario, oder auch nur auf generelle „pre-upload scans“ zu glauben.
Der Schutz durch Virenscanner ist übrigens ein anderer, wenn man denn einen benutzt. Abgesehen davon, dass deren Cloud-connections auch nicht ohne Kritik bleiben, ist ihr Zweck dann wenigstens ganz klar an die Interessen des Gerätebesitzers angelehnt.
Och komm Tim, das wird langsam unredlich.
Wesentliche Unterschiede:
1. Als User kann ich das konfigurieren/abschalten
2. Virenscanner arbeiten für mich.
Eben darum gehts.Vertrauen. Kann man Apple vertrauen, dass sie sich allen Ansinnen verweigern oder kommt letztendlich „wir werden lokalen Gesetze Folge leisten“?
Zuerst einmal möchte ich mir KLAR dafür Entschuldigen dass ich mich offensichtlich so im Ton Vergriffen habe, das lag keines wegs in meinem Interesse!
Um das wieder gut zu machen möchte ich dir Tim hier folgende Zugeständnisse machen:
Zum Crypto-Thema:
… das habe ich in einem anderen Kommentar bereits erläutert und sogar für „kass“->gut befunden: https://logbuch-netzpolitik.de/lnp403-leichte-schlaege-auf-den-hinterkopf#comment-164154
>> „…zumal damit eben auch eine Vollverschlüsselung der Cloud möglich werden _könnte_ und gegenüber dem Gesetzgeber argumentiert werden kann, dass man ja trotzdem auf CSAM checken kann (und sonst eben auf gar nichts)…“
Ja ich denke diesen Punkt haben alle durchaus auch in deiner Diskussion mit Linus verstanden. Und der Standpunkt ist in gewissen Grenzen durchaus nachvollziehbar.
Das möchte weder ich noch (hoffentlich) sonst irgendwer dir absprechen.
>> „…macOS (wie viele andere Systeme auch) hat einen Virenscanner und checkt Executables on-device mit Einträgen auf Listen, die regelmäßig aus dem Internet nachgeladen werden…“
Der Punkt ist auch nicht ganz schlecht, wenn auch nicht gut vergleichbar. Ich kann mich immer noch für einen Virenscanner meiner Wahl frei entscheiden, oder das SchlagenÖl doch nicht schlucken.
Mir fällt hier aber ein anderer Vergleich ein:
Windows, VS-Code, (apps) … senden auch immer Telemetrie daten nach hause, warum also in Zukunft nicht auch Terror material und Urheberrechts-Verletzungen?
Nur weil wir hier über Apple Diskutieren heißt das noch nicht dass wir Google/Facebook/Amazon/… als Halsbringer oder als „Privatsphäre-Schonend“ betrachten!
Ich Würde sogar behaupten dass genau das Gegenteil der Fall ist. Daher mein Vorschlag, betrachten wir diese Debatte doch mal unter folgendem Licht:
„Ich unterstelle mal allen dass sie Apple richtig toll finden und den Privatsphären-Schutz der ihnen hier geboten wird in keiner Weise missen wollen. Dann liegt es doch nahe dass wir hier nicht gegen Apple argumentieren oder ein -Apple-Bashing- veranstalten. Sondern dass viel eher das Gegenteil der Fall ist und wir FÜR Apple und für den erhalt der Privatsphäre schützenden Funktionen eintreten“
Was ich uns allen damit Unterstelle ist also kein Angriff auf Apple, und damit auch kein persönlicher Angriff auf dich Tim!
Oh was ich vergessen habe:
Ich hoffe wir können wie bei den 13,Fragen (mit Linus) hier alle ein Feld vor rücken in richtung Kompromiss und uns von einer absoluten Defensieven haltung ein wenig lösen.
Ich würde mich selbst durchaus auf dem Feld (3/4) sehen. Und mein Kompromiss Vorschlag wäre:
Warum nicht mal mehr Preventionen fördern? Wenn wir doch alle etwas gegen CSAM machen wollen wollen wir doch eher etwas gegen den Missbrauch an sich machen, oder? Also warum nicht Weltweit viel mehr Beratungsstellen und Hilfestellende NGOs unterstützen mit all dem Geld das derartige Großkonzerne zu viel haben?
Vielen dank für die Diskusion und bis zur 404, wo war die noch gleich?
Die Apokalypse steht nicht bevor und es wird auch keine geben. Aber die Baseline wird ein weiteres Stück weitergeshiftet – das was als Privatheit auf dem „eigenen“ Telefon und dem „privaten“ Cloudspeicher als Normal erwartet (und als gesellschaftlich akzeptiert) werden darf wird neu definiert. Die Tendenz in welche Richtung sich die Privacy-Baselines seit Jahren bewegen ist bei Shoshana Zuboff, Netzpolitik.org und LNP nachzulesen oder -hören. Statt einer Apokalypse nähert man sich schleichend einem System, bei dem Rundumüberwachung als Normalität empfunden wird (die nach 2010 Geborenen kennen ja nichts anderes) und gesellschaftliches Verhalten im Sinne der Überwacher beeinflusst wird, etwa so wie China (frei von Kriminalität aber auch frei von echter Freiheit) nur in Siliconvalleyisch. Ich halte dieses Szenario leider nicht für absurd.
Apple ist als Aktienkonzern in erster Linie seinen Shareholdern verpflichtet und wird von bezahlten Managern geführt. In so einer Struktur ist kein Platz für Ethik. Heilig ist dem Konzern sein Image, da es direkt auf die erzielbaren Preise einzahlt.
Ich räume ein, die vorgestellte technische Innovation mag, sofern und solange die (Vertrauens-)Randbedingungen erfüllt sind, in der Lage sein bestimmte Güterabwägungsprobleme gut lösen.
Zum Apple File Scan:
Wenn ich das System richtig verstanden habe kann Apple damit prüfen welche Dateien auf den Geräten sind. Whistleblowing können wir dann in Zukunft vermutlich vergessen wenn selbst Geräte die einem selbst gehören auf verdächtige Dateien gescannt werden. Gerade wenn es um die „nationale Sicherheit“ geht werden doch alle Möglichkeiten ausgeschöpft.
Lieber Linus, lieber Tim,
euer Disput ueber das vorhaben von Apple hat mir sehr gefallen. Es ist selten, dass gute Freunde eine offene und sehr divergente Haltung zeigen und es dennoch eine faire und freundschaftliche Trennung unter beibehaltung der eigenen Meinung in einem sehr delikaten Themas gibt, und zur Mitsprache des Netztes anregt.
Was mir allerdings hier fehlte ist die Benennung der tatsaechlichen und offentsichlichen Gefahr welche von der neuen Technik bzw. deren Implementierung ausgeht. (Hier muss man euch fast einen Vorsatz vorwerfen.)
Wenn Apple offen eine Technik propagiert, welche es ermoeglicht Bilder zu einem bestimmten Themenbereich trotz Verschluesselung zu Filtern, ist der Themenbereich sofort austauschbar und den immer wirtschaftlichen Interessen unterlegen.
Soll heissen, dass wenn China oder gar Staaten wie die Tuerkei oder Ungarn hingehen und nach Fotos von nackten Maennern scannen sobald das Endgeraet einem Mann gehoert etc. ist die Implementierung nur einer Androhung eines umfassenden Verkaufsverbotes von Produkten der Firma Apple in dem jeweiligen Land entfernt.
Und gerade Apple hat sich im Bereich der Abwaegung von wirtschaftlichen Interessen versus Schutz der Nutzer schon in China die Finger nachweisslich verbrannt.
Ich moechte hier noch ergaenzend ein bekanntes Sprichwort anbringen, dass sich durch die ganzen Diskusionen traegt, lange bevor Apple seinen Marketing Suizid angekuendigt hat:
„Wo ein Trog steht, kommen auch die Schweine“…
2000er waren es Terroristen
2010er war es CSAM
2020er sollten wir langsam an die arme Musik und Filmindustrie denken (Die Basteln bestimmt schon hashes)
Ich bin mir sicher, dass Apple das fuer Sony, Universal & co. macht, wenn diese im Zweifel ankuendigen, dass bei Netflixproduktionen die Protagonisten nur noch Samsung Galaxy Phones haben auf denen ein riesen Android Logo zu sehen ist, wenn Apple fleissig das hosten von Filmkopien weiter foerdert.
Laut einem Reddit Beitrag ist das System sogar schon seit iOS 14.3 versteckt integriert: https://twitter.com/atomicthumbs/status/1427874906516058115?s=21 und https://www.reddit.com/r/MachineLearning/comments/p6hsoh/p_appleneuralhash2onnx_reverseengineered_apple/
Zu Apples Bilderscanning ist bereits rausgekommen, dass die Funktionen schon seit iOS 14.3 (das war das Update im Dezember, wenn ich mich nicht irre) enthalten sind. Das Modell kann man wohl ohne größere Probleme aus einem aktuellen System prökeln: https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX
Und eine second preimage attack (Gegeben ein Bild, generiere ein Bild mit kollidierendem Hash zu diesem) scheint es auch schon zu geben: https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1
Ist ein interessant zu lesender Thread.
Apple dazu: https://www.macrumors.com/2021/08/18/apple-explains-neuralhash-collisions-not-csam-system/ das wäre ja nicht das finale System sie leugnen nicht, dass das gefundene Stück Code Vorläufer dessen ist, was am Ende kommen soll
Kann mir jemand erklären, inwiefern das hier Auswirkungen auf den Apple-Kram hat?
https://twitter.com/ghidraninja/status/1427952950647955463
Vielleicht Linus in der nächsten Folge?
Feedback zum CDU Connect Feedback:
Laut dem erfragten Dokument von FragDenStaat Seite 2, wäre laut dem Datenschutzbeauftragten eine DSGVO konforme Einwilligung nötig.
https://fragdenstaat.de/dokumente/9668-antwortschreibenudz_geschwaerzt/
VG
Ich muss sagen: Als langjähriger LNP-Hörer und Supporter war ich nie zuvo so gespannt auf eine neue LNP Folge, wie vor dieser Folge. Bereits mit den ersten Presseberichten zu Apples Scanvorhaben, war mir klar, dass es eine spannende Folge werden wird.
Linus Einstellung zu dem Thema war die mich absehbar und zu hundert Prozent nachvollziehbar. Bei dir Tim, war ich doch ein wenig verwundert, wie wenig kritisch du das Thema siehst.
Ich nutze nun seit gut zehn Jahre Android Geräte und kämpfe mit Entgoogelung ein wenig für meine persönliche Privacy. Anfang des Jahres habe ich die Entscheidung gefasst, mit dem nächsten Smartphone komplett ins Apple Universum zu wechseln. Mit der Ankündigung haben sie jetzt leider herbeigeführt, dass ich doch nicht mehr so sicher bin, ob das eine gute Entscheidung ist.
Kurzer Hinweis zu Linus in der (sehr interessanten) Apple-Diskussion:
Einmal argumentiert er, dass bei den vielen Devices eine Fehlerquote im Promille-Bereich hohe absolute Zahlen bedeuten. Später sagt er, dass die Nutzung für CSAM ja nur im Promille-Bereich liegen würde und darum als Kollateralschaden in Kauf zu nehmen sind.
Dem Unterschied zwischen Facebook als Sharing-Platform und iCloud als privates Speichermedium musste ich gedanklich spontan entgegenhalten, dass das Argument doch eigentlich Facebook vs. SSD in der Schublade sein müsste. Und die automatisiert und flächendeckend zu scannen wäre wohl eine andere Diskussion.
iCloud scheint mir irgendetwas dazwischen.
Die geringen Fehlerraten des Apple-Scanners von 1:1Billion war das Argument von Tim. Zu kurz kam mir aber der Angriffsvektor durch untergeschobenes Material: iPhone liegt unbeaufsichtigt auf Party rum, Kamera aus dem Sperrbildschirm wird aufgerufen, 30 Fotos später hat der Besitzer dann ein Problem.
Aber nur, wenn jemand mal eben 30 Fotos von bekanntem CSAM-Material machen kann. Nicht die beiden Features von Apples neuen Funktionen verwechseln.
Ich denke was Utz meint geht hier eher in die Richtung gezielter Angriff eines Geheimdienstes gegen unliebsame Personen.
Da wären die 30 Bilder dann x Tage nach der Party auf einmal in den Datenbanken. Und das ganze würfe sich vermutlich nie wirklich zu gunsten der betroffenen Person klären lassen.
Würde gerne mal fragen, ob ich den Scan so ungefähr richtig verstanden habe und falls ja, ob dann das im Anschluss an die Schilderung meines Verständnis Folgende möglich ist:
Da gibt es diese Kinderschutz-Organisation(en), die KiPo Bilder kennt und diesen mittels einem speziellen Verfahrens einen Hash zuordnet.
Dieser Hash wird auf das IOS-Gerät geladen und Fotos, die dann in die I-Cloud hoch geladen werden sollen, werden auch diesem Verfahren unterzogen. Gibt es bei diesen Bildern nun solche, die auch KiPo beinhalten und eigentlich bekannt sind, aber einer leichten Veränderung unterzogen wurden, dann werden diese durch das neue Verfahren trotzdem erkannt und dem Hash von der Kinderschutz-Organisation zugeordnet werden.
Sollten sich mindestens 30 solcher vermeintlich ähnlichen Bilder mit KiPo-Inhalt ermitteln lassen, so wird bei Apple ein Alarm ausgelöst und die Bilder werden auf dem I-Cloud-Server noch mal überprüft, ob es sich dabei dann wirklich um die bekannten, wenn auch eventuell leicht veränderten KiPo Bilder handelt.
Falls ja, so werden rechtliche Schritte eingeleitet.
Ist das soweit richtig verstanden?
Wenn dem so ist, wäre dann auch eine Gesichtserkennung denkbar?
Dieses Hash-Verfahren wird ja auch von einem Porträtfoto beispielsweise von mir einen Hashwert ausrechnen können. Dieser Hashwert, der ja quasi nur die Infos enthält, wie ich aussehe (weil Porträt), könnte der dann nicht auch zu einem Treffer führen, wenn er auf dem Iphone meiner Freundin landet, die einige andere Bilder von mir hat und bei denen es Ähnlichkeiten mit dem Porträt gibt (weil halt quasi alles vom Porträt auch auf den anderen Bildern, auf denen ich mit drauf bin, mit vorhanden ist)?
Falls dem so wäre, ist dann folgendes Szenario so unrealistisch?
Amerikanische Behörde sucht Person X und hat von dieser Person auch Fotos. Sie nimmt diese Fotos und unterwirft diese Fotos von dem Gesuchten ebenfalls diesem speziellen Hashverfahren.
Mit diesem Hash-Wert geht es dann zu diesen Kinderschutzorganisationen und zwingt diese, aus Gründen der nationalen Sicherheit mit Gerichtsbeschluss, diesen Hashwert auf die Milliarden IOS-Geräte da Draußen zu senden. Bis hierhin denke ich, sollte das Szenario denkbar sein. Falls die amerikanische Behörde nicht an das Verfahren gelangt, dann zwingt es eben per Beschluss die Kinderschutzorganisationen dazu, die Bilder des Gesuchten in ihre Datenbank als KiPo zu übernehmen und dann den Hashwert selbst ermitteln und auf die Geräte zu senden.
Was dann für die Behörden möglich wäre, ich glaube, ich muss es nicht ausmalen.
Was, wenn die Chinesen sagen, hey Apple, tolles System, aber eure amerikanische Kinderschutzorganisation kennt doch gar nicht den asiatischen KiPo-Markt, wir müssen da unsere chinesische Kinderschutzorganisation ins Boot holen, damit ihr bei uns noch weiter eure Geräte verkaufen könnt.
Keine Ahnung, ob das Szenario mit der Gesichtserkennung da in dem System drin ist. Aber das System weiß ja nicht, was KiPo ist und wenn ich dem Verfahren ein Bild gebe, dass ihm nur die Info über das Aussehen einer Person gibt und dann Hashes erzeugt werden, die ähnliche Bilder suchen, also solche, wo auch die Infos über das Aussehen der Person enthalten ist, dann dürfte diese Möglichkeit nicht so unrealistisch sein.
Und dann freuen sich alle diejenigen, die Tim bisher eher in ihrem Wirkungsbereich einschränken wollte.
Aber vielleicht sind meine Gedanken ja auch Quatsch, dann bitte Sorry ob des langen Textes.
Ohne Experte auf dem Gebiet zu sein:
ad 1) Kinderschutzorganisation: Die mögen eine Datenbank mit Hashes haben, aber für ein Verfahren, das Bilder nicht auf Identität, sondern Ähnlichkeit prüft, braucht man einen anderen Hashalgorithmus. Man muss also die bekannten Bilder mit dem neuen Algor. hashen. Die alten Hashes nützen einem da gar nichts.
Aber praktisch wird natürlich irgendwer eine Datenbank der bekannten Bilder haben, der auch dazu befugt ist.
ad 2) Ein ähnliches Gesicht ist noch kein ähnliches Bild. Lichtverhältnisse, Kameratechnik, Teile der Kleidung (Kragen) und Umgebung im Hintergrund sowie Perspektive, Mimik – das ist ja alles von Portrait zu Portrait unterschiedlich. Gesichtserkennungssoftware ist sicher auf andere Merkmale spezialisiert und abstrahiert von anderen Merkmalen, als die hier in Rede stehende.
Wobei mir nicht ganz klar ist, was die Software nun sucht. Modifikationen wie Beschneidung, anderes Grafikformat usw. wurden genannt, aber andererseits soll die Software – so habe ich es verstanden – auch klassifizieren, also neues Material erkennen können.
Das würde bedeuten, dass sie aus zwei Hauptmodulen bestünde, die unabhängig voneinander arbeiten und ganz unterschiedliche Methoden benutzen.
Bei letzterem will man aber gerade nicht ein Opfer wiedererkennen, nur diessmal in Schuluniform auf dem Gruppenbild, sondern eher im Gegenteil, man will vom Gesicht abstrahieren, außer insoweit, dass man erkennt: Sieht wie ein Kind aus.
Also bezogen auf Fahndungsfotos würde ich, von dem was ich zu wissen meine, annehmen, dass die Software dafür nicht geeignet wäre.
Zu möglichen Angriffen auf das Bilder-Scanning von Apple:
https://twitter.com/atomicthumbs/status/1427874906516058115
„someone found Apple’s Neurohash CSAM hash system already embedded in iOS 14.3 and later, and managed to export the MobileNetV3 model and rebuild it in Python
how many months until there’s a GAN that creates innocuous images that’re detected as CSAM?“
Können wie bei dieser ganzen CSAM-Geschichte nicht schon wieder mal vergessen, dass wie auch immer geartete technische Maßnahmen keinen Missbrauch verhindern? DA sollte man vielleicht mal ansetzen.
Weshalb müssen eigentlich in der digitalen Welt immer wieder längst akzeptierte Grundsätze und Menschenrechte, wie in diesem Fall das Recht auf Privatsphäre, in Frage gestellt werden? Kindesmissbrauch gab es schon immer und auch die Darstellung desselben in Wort und Bild zur Befriedigung einiger weniger kranker Menschen. Dennoch wäre ein Aufschrei durch das Land gegangen, wenn man zur Bekämpfung mal eben ansatzlos alle Bürger unter Generalverdacht stellen und in einem regelmäßigen Prozess irgendwelche scheinbar neutralen Stellen die Diasammlung der Menschen in deren Häusern durchsuchen ließe. Jetzt sind die Bilder digital und der Diakasten oder das Fotoalbum nicht mehr zur Ablage geeignet. Und deshalb soll nun alles anders werden? Weil es technisch möglich ist? Warum lassen wir uns immer wieder vom technischen Fortschritt diktieren, was wir machen MÜSSEN, sobald wir es machen KÖNNEN? Ganz abgesehen davon, dass es für diejenigen, die es darauf abgesehen haben, jederzeit genügend Alternativen zur Beschaffung oder Verbreitung dieses Drecks geben wird. Auch in dieser Bubble gibt es aller Wahrscheinlichkeit nach findige Informatiker, die sich nicht von einem Diktat Apples beeindrucken lassen.
Die offensichtliche Möglichkeit des Missbrauches solcher Techniken durch andere Matching Datenbanken habe ich von Tim auch nicht widerlegt gesehen. Und das Argument, mit Einführung einer solchen Technik die scheinbare Notwendigkeit von Staatstrojanern o.ä. zu verkleinern, naja, das sehe ich auch eher als marginal an. Sind doch Terrorabsprachen oder ähnliches, was hier als Begründung von staatlicher Stelle aufgeführt wird, nicht mit neuralen Hashes zu erfassen.
Dennoch würde mich bei aller begründeten Kritik von Linus doch sehr interessieren, welche Alternativen er oder auch der CCC hier dem Staat anbieten kann, um seiner Schutzpflicht gegenüber seinen Bürgern und in dem Fall den Kindern nachzukommen. Gibt es da etwas, mit dem man konstruktive Kritik an solchen Überwachungsvorhaben üben könnte anstatt immer nur ablehnend zu wiederholen, dass es so ja nicht ginge?
„Dennoch würde mich bei aller begründeten Kritik von Linus doch sehr interessieren, welche Alternativen er oder auch der CCC hier dem Staat anbieten kann, um seiner Schutzpflicht gegenüber seinen Bürgern und in dem Fall den Kindern nachzukommen.“
Gute alte Polizeiarbeit. Das wichtigste ist doch der Schutz der Kinder und da sind Bildungseinrichtungen und das Jugendamt gefragt. Des weiteren werden oft reichhaltige Daten über weitere Täter auf den Rechnern/Telefonen von Tätern gefunden – bei einer ganz normalen Hausdurchsuchung (mit Richtervorbehalt). Dafür brauchen wir keine verdachtsunabhängige Generalüberwachung.
Um mich an dieser Stelle selbst ein wenig zu widerlegen würde ich antworten, dass sich die Möglichkeiten der Polizei. mit zunehmender Digitalisierung und Nutzung verschlüsselter Speicherung und Kommunikation auf Täterseite, vermutlich doch um Einiges verringert haben. Hinzu kommt wohl auch, dass hierdurch die Möglichkeiten der Vermarktung des Missbrauches oder zumindest der Tätergruppenbildung stark gestiegen sind. Da finde ich die Frage, welche Möglichkeiten auf Strafverfolgerseite dieser Entwicklung Rechnung tragen könnten, ohne Menschenrechte ansatzlos einzuschränken, doch gerechtfertigt. Warum es beispielsweise noch Kinderschänder gibt, die ihr Endgerät nicht vollverschlüsseln und daher bei einer Hausdurchsuchung auffliegen, weiss ich nicht. Aber es kann eigentlich nur eine Frage der Zeit sein, bis auch der letzte von ihnen erkannt hat, welchen Schutz ihm derartige Techniken bieten können.
Das mit der Schutzpflicht ist etwas schwierig. Ich nehme hier ein Missverständnis wahr.
Oft wird die Schutzpflicht aus den Grundrechten, wie z.B. körperliche Unversehrtheit, abgeleitet.
Dabei handelt es sich aber um Abwehrrechte gegen den Staat, was insbesondere im Kontext der deutschen Geschichte Sinn ergibt.
Eine Schutzpflicht in der Art „der Staat muss Verstöße gegen Grundrechte der Bürger untereinander verhindern“ würde sich damit nicht vertragen. Das Bundes Verfassungsgericht erkennt aber an, dass die Gesetzgebung eine Verpflichtung hat die gegenseitigen Schutzrechte der Menschen untereinander auch durch das Strafrecht zu regeln. Sehr Eindrucksvoll ist dazu das Urteil zur Frage der Streichung des Abtreibungsverbotes aus dem Strafrecht. Hier hat das Verfassungsgericht die Schutzrechte des ungeborenen Kindes als Grund angesehen zumindest den Straftatsbestsnd auch bei Straffreiheit bestehen zu lassen. Eine bekannter maßen nicht gerade unumstrittene Entscheidung die eine Abwägung des gleichen Grundrechts von zwei Personen darstellt.
Spontan fällt mir nicht Juristen aber nur eine Gesetzgebung und das betreffende Urteil dazu ein in der eine Schutzpflicht des Staates unterstellt wurde: Stichwort Flugzeugabschüsse bei Terrorismus um „unbeteiligte“ zu schützen. Hier war das Haipargument, wenn ich es richtig erinnere, dass der Staat nicht Menschenleben gegen einander abwiegen darf.
Auch das steht in einem Krassen wiederspruch zu einer uneingeschränkten Schutzpflicht.
Ich glaube nicht das es hier einfach nur eine sehr eingeschränkte Schutzpflicht des Staates gibt, sondern vor allem individuelle Verantwortung der TäterInnen und des Umfeldes. Der wird über das Strafrecht bereits Rechnung getragen. Ich tue mich schwer damit im Bereich dokumentierter Kindesmissbrauch von gesellschaftlicher Verantwortung zu sprechen. Wir haben als Gesellschaft zweifellos ein Interesse daran derartige Straftaten zu verhindern, aber Verantwortung … ich empfehle dazu den Podcast Betrag von “ was denkst du denn“.
Zum Thema Grundrechte sind erstmal Schutzrechte gibts paar schöne Ausführungen im WRINT Politikunterricht.
Man darf übrigens durchaus erkennen, dass man ein nicht Lösbares Problem vor sich hat, weil alle vorgeschlagenen Lösungen unzählige neue Probleme verursachen. Und dann können wir JS mal abwägen welche Probleme wir lieber haben.
Bezüglich der Apple-CSAM scanner: Ich bin ganz bei Linus – verdachtsunabhängige Überwachung jeglicher Art ist mit einem demokratischen Rechtsstaat nicht vereinbar.
Anschaulich wird das, wenn man die falsch-positiv Rate mit berücksichtigt: Es fiel die Zahl 1 zu 1 Million falsch Positive. Die Anzahl der richtig positiven wird vermutlich in einer ähnlichen Größenordnung liegen – tendenz fallend, da selbst die dümmsten Täter, die das bisher gemacht haben, nach Einführung der Filter solche Daten nicht mehr in Apples Cloud hochladen werden. Das bedeutet, dass ca. jeder zweite, dessen Bilder von Apple gesichtet werden unschuldig ist. Das finde ich Inakzeptabel!
Nach Tims Argumentation könnte man auch von den Kameraherstellern verlagen, dass sie Kindesmissbrauch erkennen und die Aufnahme verweigern. Auch das würde den Missbrauch nicht verhindern sondern nur die Dokumentation (bzw. würden die Täter dann halt alte Kameras verwenden).
Es war 1:1Billion, also 1E-12, vermutlich aufgrund der 30 notwendigen Treffer. Wobei das auch nicht ganz passt: Wenn es 30 Bilder braucht, um auf 1E-12 zu kommen, dann wäre das System pro Bild schon krass schlecht.
Ich kann übrigens sehr diesen Artikel zu Apples CSAM scanner empfehlen:
https://www.hackerfactor.com/blog/index.php?/archives/929-One-Bad-Apple.html
Da tun sich Abgründe auf (z.B. kann man anscheinend Microsofts PhotoDNA Algorithmus umkehren um aus den Hashes Kinderpornographie zu machen…)
Hi,
die LNP403 hat mich dann doch recht verwirrt zurückgelassen und ich denke ich bin in dieser Hinsicht nicht der/die einzige. Ich würde mich freuen wenn Ihr in einer der nächsten Folgen noch auf drei Punkte eingehen könntet (wobei Punkt 1,2 mir wichtiger ist):
1. In wie weit unterscheidet sich der Vorschlag von Apple zu den groben Ideen der EU lokale Scanner in z.B. Messegern einzubauen. Für mich, der nicht so tief in dem Thema steckt, ist es die gleiche Kategorie und Apples Vorschlag ist nur die technische Ausführung des EU Vorschlages. Aber bei dem EU Vorschlag wart Ihr beide strikt dagegen, was beim Apple Vorschlag nicht der Fall war.
2. Warum Apple nicht wie andere Cloud Anbieter einfach seine iCloud scannt. Warum also den technischen Aufwand betreiben um die Photos in der iCloud zu prüfen. Weil bei den lokalen Scanner ist der nächste logische Schritt z.B. das Anbieten einer OS API für Messenger oder ähnliches.
3. Noch einmal beleuchtet, dass es sich bei dem genutzen Machine Learning, aber auch dem Threshold um eine Blackbox handelt. Niemand weiß wie gut/schlecht das System ist, welche Trainingsdaten genutzt werden oder wie hoch der Threshold am Ende ist (kann jederzeit ohne Benachrichtigung von Apple geändert werden).
zu 2) Vielleicht, weil dann der Kunde den Strom bezahlt und den SSD-Verschleiß? Bei 100 Millionen Kunden kommt da sicher was zusammen!
zu 1. Das hast Du richtig erkannt. Bei Apple gab es jetzt eben eine konkrete Implementierung, die man genauer diskutieren kann als den abstrakten EU Vorschlag.
zu 2. Weil das prinzipiell nicht geht, so lange die Daten in der Cloud sicher verschlüsselt sind. Der Clou von Apples Ansatz ist ja gerade, dass die Daten nur dann unverschlüsselt bei Apple landen, wenn der Algorithmus sie verdächtig findet.
zu 3. In diesem Fall kommt noch erschwerend hinzu, dass es sich bei den Trainingsdaten für das Machine Learning um Kinderpornographie handelt! Die kann man nicht so einfach veröffentlichen, um den Algorithmus transparenter zu machen und zu verbessern.
Nach dem Motto es ist schon Alles gesagt nur nicht von jedem möchte ich hier auch noch meinen Senf dazugeben.
Auch mir hat eure Doppelfolge 403/409 vor allem mit eurer lebhaften Diskussion um Apples neue Filtersysteme gut gefallen. Ich fand die Reaktion auch insgesamt sehr interessant die man so in Foren und diversen Kommentarbereichen ablesen kann (ich weiß, ich weiß, im Zweifelsfall nicht repräsentativ). So hab ich dann auch hier die Kommentare gelesen und war etwas überrascht dass es doch mitunter sehr undifferenziert ist.
Ich bin generell, wie augenscheinlich die meisten hier im Kommentarbereich, ganz generell bei Linus insofern dass ich zustimme dass man so ein Feature im Zweifelsfall einfach nicht baut, da man einfach bei staatlichen Stellen Begehrlichkeiten auslöst.
Allerdings finde ich die Kritik die hier in so manchem Kommentar Tim entgegengebracht wird undifferenziert und mitunter sehr plump und möchte deswegen mal eine Lanze für ihn und seine Überlegung treffen.
Zunächst muss man ja mal sagen dass Tim nicht gesagt hat dass er das Feature prinzipiell unterstützt. Er führt lediglich Überlegungen aus wie und ob das Feature technisch funktionieren könnte und dann warum Apple das wohl machen will (wo es auch in moralische Überlegungen geht). Ja, dort nimmt er einen Gegenpart zu Linus ein, aber zumindest aus meinem Dafürhalten nicht aus grundlegender Überzeugung, sondern weil er das halt mal gedanklich durchspielen will (Tim – Bitte korrigiere mich falls mein Eindruck hier falsch ist. Wie gesagt ich mache das an meinem Höreindruck fest).
Einige Kommentare hier fallen dadurch auf dass man Tim’s Ausführungen wohl einfach nur durch die er-ist-ein-Apple-Fanboy-Brille betrachtet. Das liest man dann auch zwischen den Zeilen bzw. manche sprechen es ja auch explizit an. Ich finde es immer wieder erstaunlich wie Menschen die anderen vorwerfen sich nur durch ihre Apple Nutzung bzw. Apple Sympathie zu definieren, sich im wesentlichen selbst nur durch Apple Antipathie definieren. Naja, aber das ist eine andere Diskussion. Mein Eindruck ist: Tim ist zwar leidenschaftlicher Nutzer aber auch sehr sehr scharfer Apple Kritiker. Ich habe die Diskussion so gehört dass Tim zwar Linus Argumente kontert, aber für mich war das keine fundamentale Verteidigung von Apples Plänen.
Und da liegt für mich der wesentliche Punkt. Wie Tim auch anspricht hab ich mich auch gefragt warum sie ohne Not diesen völlig hirnrissigen Plan haben den scan von der Server seite direkt auf das Gerät zu verlegen. Selbst wenn Apple grundsätzlich glaubt dass das System eine super Idee ist haben sie doch wissen müssen dass sie da in einen Riesen shitstorm reinlaufen. Zumal sie natürlich in den letzten Jahren privacy als USP ausgegeben haben. Warum also?
Erstens glaube ich dass Tim tatsächlich nicht weit weg ist mit seiner Überlegung zur moralischen Verantwortung des Unternehmers. Ich kann mir gut vorstellen dass das einigen in der Führungsriege eine Herzensangelegenheit ist (so falsch der Schluss ist deswegen den Scan auf das Gerät zu verlagern). Das wäre für mich aber immer noch keine schlüssige Antwort gerade wenn man mal rein vom unternehmerischen her denkt ist das immer noch ein immenser (image) Schaden den man deswegen in Kauf nehmen würde der sich dann eben auch u.U. in der Bottom Line zeigt.
Wie Tim auch gesagt gibt es ein Scan im Moment schon für alle die iCloud Photo Library benutzen – allerdings ’nur‘ Serverseitig. Welchen ‚Mehrwert‘ bietet es Apple das auf das Gerät zu bringen (augenscheinlich ja eigentlich nur Reputation-bedingte Nachteile). Ich fand den Punkt den Tim kurz angerissen hat sehr interessant der ja auch an verschiedenen anderen Stellen kolportiert wurde: Bedeutet das dass Apple die iCloud ‚zumacht‘, i.e. endlich Ende-zu-Ende verschlüsselt? Denn wenn man sagen kann man hat jetzt ein aufwendiges Verfahren entwickelt um Kinder zu schützen und ihren Teil im Kampf gegen Kindesmissbrauch zu tun und to support our men and women in uniform and law enforcement (man setze pathetische Sprachregelung ein), dann wird es halt schwierig eine Verschlüsselung mit der Argumentation zu verhindern dass man ja damit Verbrechen ermöglicht – und wie so oft erwähnt wird hier ja gerade Kindesmissbrauch als erstes angeführt (kurz vor Terror). Wie gesagt das ist Spekulation. Apple hat das meines Wissens nach so nicht kommuniziert und auch keine Andeutungen hinsichtlich iCloud Verschlüsselung gemacht. Aber ich fände es andernfalls ein wirklich sehr sehr verwunderlichen move vor dem Hintergrund der Privacy, Privacy, Privacy Kommunikationsstrategie die Apple zuletzt gefahren ist. Das System jetzt so zu bauen – und dabei eben versuchen das nach ihren Dafürhalten möglichst Privacy-freundlich zu machen – nimmt dann eben auch den Leuten den Wind aus den Segeln die Kindesmissbrauch als vorgeschobenes Argument nehmen das halt emotional ‚zieht‘.
Man muss jetzt abwarten und schauen was auf Apples Seite passiert. Kann sein das man mit derartige Überlegung vollkommen auf dem Holzweg ist. Interessieren tut es mich trotzdem was Apple vorhat, warum sie das jetzt einführen wollen und ob es so funktionieren kann wie Apple es sich vorstellt. Dennoch, bevor jetzt hier die Antworten kommen, ich sehe es grundsätzlich als Fehler an und befürworte das vorgehen ausdrücklich nicht. Selbst dann wenn sich die obigen Spekulation auch als nur einigermaßen richtig herausstellen sollten.
Korrekt. Du hast mich richtig verstanden.
Ich glaube, dass haben alle anderen genau so verstanden.
Auffällig ist halt nur, dass bisher bei jedem solcher Überlegungen du IMMER gesagt hast, das geht gar nicht.
Nur jetzt, wo es von Apple kommt, da wird so eine Überlegung angestellt.
Und man muss kein Psychologe sein, um da etwas rein zu interpretieren.
Oder, wie ein Psychologe, der dich sehr gut kennt, meinte: „und den Rest des Podcasts könnt ihr zuhören wie Tim sich das schön redet“.
Das nicht zu thematisieren geht nur, wenn man LNP und Tim das erste Mal gehört hat.
Danke, endlich stellt sich jemand mal auf Tims Seite, mir ist das ja nicht so recht gelungen.
Was an der Apple Diskussion so unglaublich frustrierend ist ist dieses Augen und Ohren zuhalten der Verteidiger und Apple. Auf Kritik wird nicht eingegangen, stattdessen wird nochmal beschrieben wie toll doch die Bilderkennung funktioniert. In jedem Apple Statement wird dann so getan als ob die Kritiker einfach nur die Technologie nicht verstanden hätten denn das wäre doch alles ganz toll.
Allein bei dem Verhalten sollten bereits die Alarmglocken läuten, wirkt auf mich persönlich sehr unehrlich.
Alternative Verteidigungswege: Denk doch an die Kinder (noch NIE gehört…) oder „Wir werden doch eh alle schon überwacht warum beklagt ihr euch“ und der Klassiker „Lasst uns doch jetzt erstmal schauen das wird schon nicht schlimmer werden“, na dann…
Und ich liebe LNP und wie ihr diese Show macht dafür bin ich euch seit jeher dankbar, aber auch ich empfinde eine gewisse Enttäuschung dabei wie Tim hier plötzlich auf die Verteidigungsschiene aufspringt. Dass er das nur tut weil Apple es diesmal macht ist natürlich eine Unterstellung, aber wenn ich in Vergangenheit blicke ist es ein Gedanke den ich zumindest bisher nicht abschütteln kann, denn überzeugende Argumente waren das wirklich nicht.
Ich finde es schade, dass Tim’s sonst starke analytische Fähigkeiten stets kräftig nachlassen, sobald da irgendwo Apple involviert ist. Mag sein, dass er sich bereits seit 30 Jahren intensiv mit dieser Firma auseinandersetzt und da eine _differenzierte_ Meinung zu hat. Für mich persönlich ist er jedoch auf diesem Auge blind und er würde nicht analog argumentieren, wenn da statt Apple in den News stehen würde. Das schwächt für mich persönlich auch etwas die anderen, sonst ganz klugen Dinge ab, die er zu erzählen hat.
Bezüglich der konkreten Methode, so scheint es, dass der Neural Hash bereits gebrochen ist und die ganze Methodik daher keinen Wert für den eigentlichen Zweck mehr besitzt: https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1
Der Tag an dem dieser Podcast veröffentlicht wurde hätte auch der Tag sein sollen, an dem Tim aus dem CCC austritt.
Die anlasslose Massenüberwachung aller(!!) iPhone-, iPad- und Mac-Nutzer derart zu euphemisieren ist in keiner Weise vereinbar mit den Werten des Vereins.
Und nein, andere Hersteller machen das nicht genauso. Und auch nein, Apple wurde nicht gesetzlich zu diesem Schritt verpflichtet, so dass es eine Rechtfertigung dafür gäbe.
Ich bin wirklich entsetzt.
NACHTRAG zur Apple Diskussion:
Das Verfahren (NeuralHash) wurde Reverse Engineered und auf GitHub veröffentlicht, Issue No. 1 lieferte dann direkt eine Hash-Kollision zweier Bilder. Damit ist das ganze Verfahren einfach nur strukturell kaputt…
(Quelle: https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1)
Habt Ihr eigentlich eine Ahnung, dass Existenzen von ehrbaren, normalen Menschen in Gefahr geraten wenn plötzlich früh morgens die Polizei wgen Kinderpornos zur Hausdurchsuchung vorbeikommt? Nur weil die Hash-Werte von Bildern in der iCloud über die Schwelle kamen und ein frustrierter, unterbezahlter Clickworker in einem Callcenter in 3 Sekunden die letzten Urlaubsbilder mit den nackigen eigenen Kindern am Sandstrand oder Garten zum Anlass nahm auf den roten Knopf zu drücken? Vollkommen egal ob die Hashes nur zufällig bei Mrd von Bildern und Geräten kollidierten oder jemand bewusst einem etwas untergeschoben hat?
Was haben wir alle über die Dilettanten bei Luca gelacht, das hier ist eine durchaus größere DImension von Leuten, die Ihr Fach eigentlich beherrschen und nicht solche Amateure sind.
Tim ich möchte Dir einfach nur die Hand reichen damit Du aus Deiner Apple-Blase findest…
Ich will auch noch Senf dazu geben. Tim hat beim Thema Apple echt zuviel confirmation bias.
https://de.m.wikipedia.org/wiki/Bestätigungsfehler
Krass anzuhören. Lässt mich richtig ratlos zurück!
Will jetzt noch etwas dazu sagen, aber jetzt bin ich schlicht sprachlos .,.
Vielen Dank für eure spannende Diskussion. Ich schlage mich mit Fragen dieser Art herum seit ich euren podcast höre und habe noch keine Antwort für mich gefunden – zuletzt beispielsweise als ihr die FBI-Operation besprochen habt, Kriminellen manipulierte Telefone unterzujubeln. Wollen wir (hypothetisch) in einer Welt leben in der unbrechbare privacy für jeden Menschen zur Verfügung steht? Jede_r zahlt mit Monero, alle chats sind e2e-encrypted, der gesamte Speicher meines Telefons sowie alle cloud-backups sind für den Hersteller zu jedem Zeitpunkt unauslesbar? Ich dachte immer ihr würdet diese Frage mit einem klaren „Ja“ beantworten und jetzt höre ich zum ersten Mal, dass ihr (bzw. hier Tim) doch die Perspektive der Güterabwägung einnehmt – 1%, 5%, 20% Nutzung für Kinderpornographie – ab wann rechtfertigt das den Herstellerzugriff auf die Daten?
Ich würde mich freuen, wenn ihr darauf nochmal tiefer eingeht, vielleicht auch unabhängig von der Apple-Frage, sonst kommt hier in den Kommentaren wieder nur der (aus meiner Sicht unberechtigte) Fanboy-Vorwurf.
Man kann natürlich über Abwägungen argumentieren (z.B. Die Sicherheit und Freiheit von Journalist_innen ist in diesem Fall höher zu gewichten als der Schaden durch kriminelle Inhalte). Aber es gäbe auch noch Argumente wie: Verletzung der Privatsphäre ist immer falsch, die kriminellen Inhalte sind ein gesellschaftliches Problem, das an der Wurzel behoben werden muss, nicht durch Überwachung.
Mal abgesehn von der bezahlmethode, gibt es Heute bereits einen Grund nicht in einer derartigen (sehr begrenzten) Welt zu leben?
Ein Zitat von Linus: „Wir haben heute schon alle Probleme der IT-Sicherheit Theoretisch gelöst.“
Was ich damit Zeigen möchte ist, dass wir zwar heute sagen können: viele diese CSAM Verbrecher sind zu Primitiv und zu unwissend um ihre Materialien vernünftig zu Verbreiten.
Eine derartige Unterschätzung ist aber ein Schwerer Fehler! Wenn ich heute schon all meine Chatts E2E-Verschlüsseln kann, all meine Daten AES256 Verschlüsselt auf jeder Cloud speichern kann, dann ist es doch nur naiv zu sagen „die Kriminelle können das noch nicht“ !
Also: JA Ich möchte in so einer (leider noch hypothetischen) Welt leben!
Denn der andere Fall würde bedeuten, dass nur Kriminelle und Nerds wie wir verschlüsselt und Privatsphäre-schonend Kommunizieren werden. (Oder es können)
„When encryption becomes criminal, only criminals have encryption!“
> Wollen wir (hypothetisch) in einer Welt
> leben in der unbrechbare privacy für jeden
> Menschen zur Verfügung steht?
JA!!!!
Ohne Einschränkung!
Setz für „privacy“ mal die Deutsche Übersetzung „Privatsphäre“ ein.
Ich bin nicht sauer, Tim, nur enttäuscht.
Apple hat wohl einfach den Gefallen an Privatsphäre verloren und geht gleich an mehreren Fronten dagegen an.
Mitarbeiter sollen bitte auch nichtmehr Arbeit und Privataccounts (icloud, mail etc.) trennen damit Apple alles was geht (auch private Nachrichten und Fotos) „archivieren“ kann.
https://twitter.com/ashleygjovik/status/1428495420917837826
https://twitter.com/oilyraincloud/status/1428497203253833731
Besser wird das dort sicher auch nicht mehr…was für ein ekliger Haufen, die Leute bei Apple. Nie im Leben kaufe ich denen ab dass es wirklich darum geht Kinder zu schützen.
Ich möchte mich für die Diskussion über Apples Maßnahmen bedanken, denn auch wenn eure Positionen verlässlich stabil und erahnbar waren, ist mE die Diskussion darum sehr wertvoll. Danke, dass ihr euch dafür die Zeit genommen habt. Gern mehr davon.
Der Impact der CSAM Technologie scheint auch mir sehr gering für den erwartbaren Widerstand zu sein. Bei nur 200.000 Bildern, die bereits als illegal bekannt und registriert sind, müssen die Nutzer erstens solches Material besitzen wollen, dies zweitens in die Cloud speichern wollen und das dann auf einem iOS Gerät tun. Es erscheint mir auch irrelevant gering, wenn auch aus dem Bauch heraus.
Vielleicht ist die Hoffnung, die bekannten Bilder als Pointer zu nutzen, da bei solchen Accounts noch weiteres Material zu vermuten ist und die staatliche DB dann erweitert werden kann.
Was mir als ein wahrscheinlicher weiterer Schritt einfällt, ist nach vermissten Kindern zu suchen, wenn das System erst einmal aktiv und akzeptiert ist. Wer würde denn dann schon argumentieren können, dass die Gesichter von vermissten Kindern nicht auch erkannt werden sollten? Wenn man doch ihr Leben retten könnte? Ich glaube, das wird nicht lang auf sich warten lassen.
Was spräche dagegen, die Kontaktnetzwerke zuzuschalten, um den Weg eines Bildes nachzuvollziehen, damit wir auf die richtige Person treffen? Das Kind ist vielleicht noch am Leben.
Man baut so etwas nicht, das ist auch meine Meinung.
Ich weiß nicht wie das Tauschen von Bildern in solchen Kreisen funktioniert, aber vermutlich ist die Chance vermisste Kinder durch zweifelhaftes Material ausfindig zu machen, so groß, wie vermisste Katzen durch Katzenvideos zu retten…
Im übrigen passiert es meines Wissens nach gar nicht soooo häufig, dass Kinder gekidnapt werden. Die meisten Fälle von Missbrauch passieren direkt vor unseren Augen vom Vom Erzieher im Kindergarten, von Verwandten von Bekannten.
Aber Du hast schon recht… Danach fragt vermutlich niemand. Hier heiligt der Zweck die Mittel.
Bei der Apple-Kontroverse werdet ihr keinen gemeinsamen Nenner finden. Linus argumentiert deontologisch, wie der CCC und Tim es bei Datenschutzthemen sonst auch meist tun. Tim argumentiert utilitaristisch.
Danke an Tim und Linus für diese tolle Diskussion!
Auch bin ich der Meinung, dass die Argumentation von Tim hier nicht fehlen darf, egal wie man es persönlich einschätzt!
Eine Sache ist mir allerdings noch nicht klar:
Apple will auf dem Endgerät von Organisationen gelistetes CSAM erkennen können, sobald dieses in die Cloud geladen werden soll. Wie kommt aber dieses bereits bekannte Material auf das Endgerät? Vermutlich über eine bereits verwendete Austauschplattform außerhalb der Apple Cloud. Warum sollte so eine Person dieses Material zusätzlich über die iCloud teilen? Den großen Nutzen dieses Vorhabens bei den dargestellten Risiken und Gefahren kann ich nicht erkennen, bzw. glaube ich nicht, dass es bei dem Vorhaben tatsächlich um CSAM geht.
Das Vorhaben, mit Hilfe von KI Minderjährige (nur bis 12 Jahre) vor Sexting zu schützen, halte ich für mindestens genauso katastrophal. Neben den vielen bereits bekannten Problemen bzgl. des Einsatzes von KI bei diesem Thema, ist das wieder ein Schritt in die Richtung, den Erziehungsauftrag auf Computersysteme auszulagern, diesem bitte gutgläubig und blind zu vertrauen, ohne selber Verantwortung übernehmen zu müssen. Bei Nacktbildern oder Videoüberwachung von kleinen Kindern sind auch viele Eltern Teil des Problems.
Es wird nicht „geteillt“. Es geht um die iCloud Photo Library, den persönlichen Speicher für Photos.
Hallo Tim,
ich nutze das nicht, deshalb habe ich wenig Ahnung, in wie weit man hier etwas mit anderen teilen kann (oder eben nicht). Aber warum sollte jemand CSAM dort überhaupt ablegen, wenn er sich über eine andere Plattform bereits erfolgreich mit Gleichgesinnten austauschen kann? Ok, anscheinend geschieht das über andere Clouds oft genug. Kopfkratz!
Weil es nicht um den _Austausch_ geht sondern um das _Ablegen_ in der eigenen Fotobibliothek. Das ist der Sinn und Zweck der „iCloud Photo Library“. Hence the name.
Man kann jedoch über „Shared Albums“ mit anderen teilen, indem man ein gemeinsames Album anlegt.
Eine Library ist auch eine Bibliothek, und in der kann man Dinge ausleihen. Hence the name.
Die einzige redeeming quality die ich Apples Client-side Scanning erkennen kann, ist die von Tim angedeutete Option, echtes E2E in iCloud Backups und Cloud Storage zu ermöglichen. Technisch und algorithmisch ist das System sicherlich eine hervorragende Möglichkeit ein solches Ziel zu erreichen und gleichzeitig keinen “perfekten CSAM Speicher” in einer für Consumer Verhältnisse sehr sicheren Umgebung zu bauen. Leider wird sich damit wie von Linus vertreten *automatisch* die Büchse der Pandora, d.h. der BOS Begehrlichkeiten öffnen. Solange kein seriöser politischer Dialog zur Abwehr von ML unterstützen Fantasien der totalen Überwachung und Regulierung jedweder Dissidenz durch Sicherheitsbehörden am Horizont zu erkennen ist, gibt es m.E. nach keine Alternative als solche Systeme grundsätzlich *nicht* zu implementieren. Solange dieser Ungeist politisch nicht wieder zurück in die Flasche getrieben worden ist, wird sich die Geschichte im Sinne von Linus Narration wiederholen.
Es wird keine E2E Verschlüsselung für die iCloud geben. Die Apple-Mitarbeiter sollen doch bei Erreichen der Schwelle die Bilder prüfen, bevor sie das weitergeben. Wie sollen sie das machen, wenn sie keinen Zugriff auf die Bilder in der iCloud haben?
Man kann sich das Einknicken von Apple nicht schön reden.
Nein, so passiert das nicht. Apple hat die original CSAM-Bilder gar nicht (und darf sie wahrscheinlich auch nicht haben?) und braucht daher auch nicht die persönlichen Bilder im Original angucken.
Es werden „visual derivatives“ miteinander verglichen, so zumindest der Wortlauf in der CSAM Detection Technical Summary.
Dass Apple die Originale nicht hat und daher nichts vergleichen kann ist klar.
Aber was beinhaltet ein „visual derivate“? Wenn es dem Inhalt oder einem Teil des Inhalts des Bildes entspricht, muss dieses „visual derivate“ für Apple zugreifbar gespeichert werden. Die E2E Verschlüsselung ist in dem Moment also hinfällig, in dem der Mechanismus ein entsprechendes Bild erkennt. Ich muss bei jedem hochgeladenen Bild damit rechnen, dass zumindest Teile davon für Apple zugreifbar sind.
Nein, musst du nicht.
Die visuellen Ableitungen sind Bestandteil der Safty Voucher. Diese Image Informationen sind über 2 Encryption Layer gesichert. Layer 1 ist der lokale Abgleich gegenüber der auf dem Gerät vorliegenden Datenbank. Layer 2 sind die Secret Shares, also der Threshold.
Nur wenn beide Layer entschlüsselt werden können, kommen die visuellen Ableitungen zum Vorschein und werden dem Apple-Team zur Kontrolle vorgezeigt.
Der Punkt ist, es gibt einen Mechanismus, der es Apple ermöglicht, Bilder seiner Nutzer einzusehen. Da können sie die iCloud noch so sehr verschlüsseln.
Vor lauter Apple hier in den Kommentaren — nett übrigens, tendenziell bin ich eher bei Linus — kommt mir Luca aber etwas zu kurz.
Also ehrlich, wäre es nicht Zeit für ein juristisches Nachspiel?
Betrachte ich die Sammlung von Michael Atug (https://twitter.com/HonkHase/status/1427369250226851849) ist ja mindestens eine vorsätzliche Vernachlässigung (=Ignoranz) von Due Dilligence beim Anbieter und mindestens Fahrlässigkeit seitens Bund/Länder/Kommunen. Der Steuerzahler fragt: da geht doch was? Da muss doch was gehen!
Zum Thema „im Handy rumscrollen zum Einlass“: genau das ist auch die Praxis am Flughafen. Von der Bundespolizei. Leider kein Witz. Mir so vergangene Woche in Frankfurt passiert – meinen QR-Code, den ich zur Ansicht nicht in der CWA, sondern ganz normal als Grafik auf dem Handy geöffnet hatte, war für sie nicht nur „nicht überprüfbar“, sondern ob ihrer Reaktion, eine Beleidigung. Sie seien ja keine Dienstleister-Behörde. Wtf? Es ist vermutlich überflüssig zu sagen, dass meine freundliche Aufklärung über die Funktionsweise der Technik nicht auf Gegenliebe gestoßen ist…
Danke für das Teilen eurer beiden Argumentationen für und wider das Scannen von Bildern durch Apple auf den Geräten.
Ich hoffe, dass eure Beziehung darunter nicht leiden wird, da ich davon überzeugt bin, dass ihr beide nur das Beste für Alle im Sinn habt!
Ich finde ihr habt beide sehr überzeugende Argumente geliefert und bin auch froh, dass ihr einen Dissens hattet. So eröffnen sich den Zuhörer*innen gleich mehrere Perspektiven.
Apple geht es doch primär darum, keine KP Bilder in ihrer Cloud zu haben (zum Teilen oder auch nicht). Warum genügt hierzu nicht folgende Lösung:
Das Endgerät analysiert anhand der CSAM-Liste jedes Bild, das auf das Gerät kommt oder dort gespeichert wird. Wenn es match-t wird angezeigt, dass der Inhalt des Bildes möglicher Weise problematisch ist und Apple sich deshalb weigert, das Bild in der iCloud abzulegen. Fertig.
So ist dem User transparent was los ist und Apple ist aus dem Schneider.
Dass es über kurz oder lang dann „böse“ Apps geben wird, die die API nutzen werden, um die Erkennung als KP oder sonst etwas zu umgehen, gilt wohl für jede andere Lösung auch.
Ändert nichts daran, dass Apple Daten auf meinem Rechner durchsucht – und da haben sie gefälligst die Finger von zu lassen!
Mein Rechner!
Meine Daten!
Mein Hoheitsgebiet!
Wie Linus sagt: Ich kaufe hier Speicherplatz ein – wie eine Festplatte!
Ich finde dass uns die Situation in Afghanistan eine weiteres sehr aktuelles Beispiel dafür liefert warum solche Aktionen wie die von Apple nicht im geringsten zu Befürworten sind. Dort müssen sich jetzt nämlich einige Menschen notgedrungen darum bemühen ihre Spuren online so weit es geht zu verwischen [1]. Das geht bei öffentlichem Material noch vergleichsweise gut, aber darauf was wirklich auf dem Server liegen bleibt hat man als Individuum aber eher keinen Einfluss und die gängigen US Konzerne stellen sich hier ja gerne quer.
Was wenn man in einem solchen Staat dieses tolle System ausgerollt und sich an die örtliche „CSAM“ Datenbank geklinkt hätte. Plötzlich gibt es einen Regierungswechsel und das neue Regime das es auf allerlei Leute abgesehen hat hat freie Hand was diese Datenbank betrifft, neue Gesetze werden radikal etabliert.
Viele Länder begründen harte Strafen für Homosexualität [2] und in vielerlei in Gesetze gegossene Homophobie übrigens auch mit dem Schutz von Kindern. Wie sieht es mit diesen Ländern aus sobald Apple den Spaß dann global ausrollt? Ich tippe mal auf das übliche „Tja so ist das Gesetz dort halt und Apple muss sich eben an Gesetze halten“, wie immer.
[1]: https://www.theepochtimes.com/stranded-afghans-delete-social-media-as-taliban-seizes-us-surveillance-equipment_3958444.html
[2]: https://en.wikipedia.org/wiki/Capital_punishment_for_homosexuality
Nehmt’s mir nicht übel. Wenn Ihr jetzt anfangt, Datenschutzkatastrophen zu rechtfertigen nur weil Ihr Apple-Fanboys seid (bin ich auch, gebe ich zu), dann verliert Ihr Eure Existenzberechtigung. Tim hat hier 1:1 die gleichen Argumente vertreten die man sonst von Seehofer & Co zu hören bekommt.
Was kommt als nächstes?
„Was ist wenn Du der Innenminister der CDU bist und die Industrie erwartet, dass Du sie pamperst?
Das ist eine Perspektive die man auch mal beachten muss!“ (O-Ton, Tim)
Ich halte es für unredlich, menschliche Grundrechte (respektive Schutz der persönlichen Daten) und Bekämpfung Missbrauch gegeneinander in Stellung zu bringen.
Sorry. Missbrauchstaten sind schlimm und müssen bekämpft werden, aber NICHt um jeden Preis! Der Zweck heiligt hier NICHT die Mittel!
Anderer Aspekt: Was passiert, wenn mein Cloudanbieter meine Mails durchsucht und mir einfach jemand eine (oder 30) Mail(s) mit fragwürdigen Inhalten zuschickt und dadurch irgendein Algorithmus Alarm schlägt und ich eine Anzeige an der Backe habe? Damit könnte man Menschen gezielt zerstören, bei dem Thema braucht es keine Verurteilung, da reicht schon der Verdacht aus.
Imo wird in der Öffentlichkeit viel zu viel in das Thema Austausch von Bildmaterial investiert, und viel zu wenig in das Thema Prävention und Hilfe von Betroffenen Pädophilen (Bevor jetzt das Geschrei kommt: Als jemand der selber missbraucht wurde, kann ich es mir erlauben, das Maul hier etwas weiter aufzureißen).
Ich frage mich eigentlich schon länger, ob es nicht eine Lösung wäre – dank moderner CGI – legalen Content zu erstellen. Und ja, die Idee ist schräg… Aber würde das nicht viele Probleme Lösen und die Ursachen bekämpfen anstatt an den Sympthomen rumzudoktorn?
Mit Stigmatisierung erreicht man jedenfalls nur, dass die Leute sich noch weiter in düstere Ecken zurückziehen.
Und hier gilt das gleiche wie bei allen Überwachungsthemen: Die wirklich schweren Jungs, werden es einfach irgendwann drauf haben, wie man gute Crypto benutzt. Der Preis der Grundrechtseinschränkungen ist viel zu hoch dafür!
Die Afghanistankrise zeigt doch, wie sinnlos das ganze Abschnorcheln von Daten doch ist.
Hat alles nichts gebracht: Die Einschätzung des BND, dass man noch Monate Zeit hat, war falsch.
PS: Warum wird hier plötzlich immer betont, wie wervoll die Diskussion hier doch sei?
Es hat doch vorher auch nie jemand gesagt, die Argumente von Seehofer & Co müssten mal näher beleuchtet und diskutiert werden.
Aber jetzt geht es auf einmal um das hochheilige Apple auf dem güldenen IT-Thron und auf einmal schmeiß man alles über Bord…?
Traurig!
Zum Thema Apple und Inhalte-Scanner
Zeitlich ist es mir leider nicht möglich über 160 Kommentare zu lesen.
Tims Position kann ich zu 100 % nachvollziehen, bin aber trotzdem eher bei Linus.
@Tim
Wenn du ein Anbieter einer Photo-Cloud bist, dann stellst du Infrastruktur zur Verfügung. Nicht alles was hinkt ist ein Vergleich: Autobahnen. Da gibt es schöne Dokus über Großkontrollen. Der Verkehr wird zwangsweise über einen Parkplatz gelenkt und bei jedem KFZ entscheidet die Polizei, ob sie einen Blick hinein wirft, oder nicht. Bei JEDER dieser Kontrollen werden illegale Gegenstände und Substanzen gefunden. Selbst Kriegswaffen sind oft dabei. Hier in Deutschland.
Bei deinem Szenario würden nun alle KFZ kontrolliert werden, immer.
Das ist unverhältnismäßig.
Eine freie Gesellschaft muss bis zu einem gewissen Maß Kriminalität aushalten.
Es ist nicht dein Dienst, als Betreiber einer Infrastruktur, für Recht und Ordnung zu sorgen.
Selbstverständlich wird diese Technologie auf andere Bereiche ausgeweitet werden. Das ist in westlichen Demokratien ein Naturgesetz.
Sich auf eine Moraldiskussion einzulassen, halte ich bei dem Thema für völlig falsch, weil es vom eigentlichen Thema ablenkt. Apple interessiert es nicht aus moralischen Gründen, ob bei ihnen CSAM Material liegt, sondern nur aus Image- und strafrechtlichen Gründen – das unterstelle ich, weil sie sich sonst im Herstellungsprozess für ihre Produkte auch bei den Zulieferern darum kümmern würden, daß es keine Kinderarbeit gibt und die Rohstoffe konfliktfrei sind.
Es gibt immer einen nächsten Schritt nachdem die Begründung CSAM eine Bresche geschlagen hat. Würde es hier um Terrorismus gehen, wäre die Diskussion analog und genauso am Thema vorbei. Die Frage ist doch – ist es für mich akzeptabel, wenn ein Anbieter meine Daten nach „illegalen Inhalten“ durchsucht oder nicht. Und die Antwort ist nein, weil es sich damit um verdachtsunbhängige Überwachung handelt. Genau deswegen kämpfen wir doch für Verschlüsselung und gegen Backdoors und gegen jeden Versuch der Analogparteien an welcher Stelle auch immer in unsere Daten zu gucken.
Tim verhält sich zu Apple wie Smudo zur Luca App :)
Edward Snowden:
https://twitter.com/snowden/status/1430703961179312128?s=21
Hallo in die Metaebene,
Linus hatte in der Diskussion zu dem vielleicht gut gemeinten aber leicht zu missbrauchenden Spionagemechanismus in iios 15 (Marke „Lasst doch diesen Hash auch mal mit auf den Geräten scannen!“) gesagt, dass er nicht zuletzt mangels Alternativen ein ios Kunde ist.
Da habe ich einen Tipp, der tatsächlich auch ohne viel Aufwand fast vollständige Android-Funktionalität bringt ohne Standleitung zu Google. Calyx-OS. Das ist AOSP mit MicroG, also der quelloffene Teil von Android mit einer professionell einsatzbereit verbauten Re-Implementierung der Play-Services. Läuft auf allen aktuell unterstützten Pixel-Geräten.
Habe mich immer vor dem Aufwand mit MicroG gescheut, aber Calyx nutze ich jetzt seit fast 11Monaten und habe noch keine Funktionseinbußen festgestellt.
Weiter so, Jungs!
Nochmal ein Kommentar, spät: ich halte auch die Einschränkung, daß „nur“ in der Cloud gescannt wird, ebenfalls für kein gutes Gegenargument. Die Geräte, ob von Apple von egal, werden alle mit ihren Cloudfeatures als wesentlichem Merkmal vermarktet und die Intention ist auch, daß sie im Normalfall damit genutzt werden. De facto zahle ich bei einem iPhone die Cloudnutzung über den Gerätepreis mit. Wenn ich als sicherheitsbemühter Mensch die Cloudfeatures abschalte (und nach jedem Update dafür sorge, daß sie wieder ausgeschaltet sind), ist das die Ausnahme. „Schalt’s halt ab“ bei einem wesentlichen Feature würde in der Blase doch auch nicht als Argument gegen Microsofts Telemetrie bei Windows10 u.ä. akzeptiert. Dazu kommt, daß Gerät und Cloud mit der Zeit untrennbar und ununterscheidbar werden, quer über alle Geräte und Hersteller. Das heißt, der Punkt, an dem ich ein Feature, daß in der Cloud eingesetzt wird, am Gerät gar nicht mehr abschalten kann, ist morgen.
Ich muss vorweg schicken, dass ich nicht jeden Kommentar gelesen habe und mir da vielleicht was entgangen ist. Um Verzeihung muss ich die bitten, die weiter als den ersten Absatz lesen. Der Kommentar ufert weit über den Anlass hinaus. Ich möchte das aber gern so bestehen lassen.
Was mir aber so an der Diskussion auffällt ist, dass sehr wenig oder -nicht mehr- darüber geredet wird, ob es einem -Privatunternehmen- in einer demokratischen Gesellschaft zustehen darf, formale und inhaltliche Aspekte der Kontrolle und Regulierung in dieser oder ähnlicher Form auszuüben und falls, was die Folgen davon sein könnten.
Deutlich ausgedrückt in Abgrenzung von einer neoliberalen, faktischen Realität und der Schwierigkeit Regelungen dieser Form überhaupt supranational definieren zu können. Ich sehe dafür keine ertragbare Lösung hier überhaupt eine Regelung definieren zu können, die auch nur im Ansatz demokratisch zu legitimieren wäre.
Ergänzend, das Argument hat Linus schon gebracht, muss es doch faktisch inzwischen als völlig absurd gelten, zu glauben, dass eine erste grenzüberschreitende (so gerechtfertigt sie vielleicht im ersten Anschein erscheinen mag) Überwachungsmaßnahme nur wenig später nicht massiv ausgeweitet oder gar zurückgenommen wird. Weg und Absicht sind aus den letzten 20 Jahren, in Praxis und Papier, mehr als deutlich ablesbar. Niemand „verschenkt“ erstmal implementierte Systeme, wenn sie auch gegen die nutzbar sind, die gegen sie protestieren.
Wir stolpern mit dem „Neuland“ in ein massives technokratisches, kybernetisches Steuerungs- und Überwachungssystem. Oder nein, „wir sind schon drin“. Es bietet die beste, die allerbeste Infrastruktur dafür.
Das ist nicht, kein bischen, die hierarchiefreie, basisdemokratische, weltweite Kommunikations- und Wissensbasis geworden, die man sich naiv mal erträumt hatte.
Die aktuelle Form des „Neulands“ ist derzeit doch nur die Potenzierung einer depressiven, völlig desillusionierten, kaputten Struktur. Eine Struktur, die ‚um alles‘ an den alten Hierarchie-, Kontroll-, Überwachungs- und Ausbeutungsschemas festhält. Sei es aus Profit-, Machtinteresse oder nur Tradition „das macht man eben so – wenn man’s denn kann“. Die Dekadenz oder Konsumgeilheit mit Scheiß-doch-drauf-Appeal, die desinteressierte naive Haltung der Nutzer_innen, deren absolute technische Überforderung und Isolierung hat dem kaum etwas entgegenzusetzen.
Davon im Interesse einer positiven Utopie kooperativer, respektvoller humanistischer Gesellschaften zu stehen, ist das weiter entfernt als der Späti auf Keppler1625b.
Für eine Diskussion darum, wie wir die äußerst negative Entwicklung aufhalten können, ist es, innerhalb des Kontextes, zu spät. Es wäre wahrscheinlich schon 1985 zu spät gewesen.
Nebenbei: Darauf zu hoffen, dass „das ‚wertvollste‘ Unternehmen der Erde“ in unserem positiv utopischen Interesse handeln könnte – auf was fußt denn bitte eine solche Erkenntnis? Das widerspräche aller historischen Erfahrung und kapitalistischen Logik.
Im positivsten Fall einer beiläufigen Erkenntnis „Oops, die Erde geht kaputt“ wird das Internet, führt man die Entwicklung so fort und betrachtet die enorme Abhängigkeit von Zugängen zum Netzwerk, zu einem Werkzeug konsumistischer, technokratisch streng geführter und stramm konditionierter Gesellschaften aus humanen Ressourcen. So wie das derzeit prognostiziert werden muss, ist da, denke ich, kaum besseres zu erwarten.
Es ist wohl an der Zeit damit weiterzumachen sich alternative Szenarien, Medien und Methoden auszudenken, die uns helfen die Spirale zu verlassen. Solange wir noch das noch können.
Hallo LInus, du argumentierst, und ich stimme dir da zu, dass eine sehr kleine Fehlerquote bei der hohen Nutzung von iPhones zwangsläufig zu vielen False Positives in absoluten Zahlen führen wird. Etwas später argumentierst du aber, dass nur ein winziger Prozentsatz Anteil der Nutzer eines Cloudproviders und/oder Festplattenhersteller fragwürdige/illegale Inhalte speichern. Hier greift jedoch die gleiche Argumentation. Auch ein kleiner Anteil führt bei hoher Nutzung zu großen absoluten Zahlen. Ich finde deine Argumentation an dieser Stelle widersprüchlich und sie ist auch keine Antwort auf die Frage der moralischen Verantwortung, die TIm aufgeworfen hat.
Ansonsten fand ich den Beitrag klasse und ich fand es tatsächlich schön, dass ihr mal unterschiedliche Positionen eingenommen habt. Ansonsten habt ihr ja oft ähnliche Meinungen.
zum Thema Covid-Impfung:
Ihr verlangt von den den Menschen, dass sie eine medizinische Behandlung über sich ergehen lassen, die sie nicht verstehen. Das ist psychologisch dasselbe, wie sich dem System (dessen Verkommenheit ihr uns ihr hier wöchentlich zu Augen bzw. Ohren führt) zu ergeben. Diesen Gehirn-Spagat versteht ihr ja wohl.
zum Thema Apple-Kinderporno:
Das Problem ist nicht nicht der Konsum, sondern die menschenverachtende Produktion (d.h. die tatsächlich stattfindende Folter von den schutzlosesten Lebewesen auf dieser Erde: unseren Kindern.)
Hier wird nicht das Problem angegangen, sondern die Infrastruktur so benutzt, um Menschen, dessen Seelen das Internet in den letzten 20 Jahren schon größtenteils zerstört hat, endgültig mit der Drohung einer Institutionalierung fertig zu machen.
Und das ganze jetzt sogar in Neusprech (CWAS) zu verpacken, ist so perfide, dass ich nichtmal in meinen Alpträumen auf diese Idee kommen würde.
Bitte entschuldigt die Tippfehler, ich muss mich immer erst bist 2 Promille saufenm um noch zusammenhängend zu formulieren.
zum Thema Apple:
Linus hört doch, wie ich, den Sam Harris Podacast. Dort wurde das Thema dieser NGO, die angeblich die X Millionen von Kinderporno-Fällen verfolgt, behandelt. Dazu kann man nur abschließend folgendes destillieren: (sinngemäße Aussage des NGO-Guys:) >Wenn wir alle Anzeigen verfolgen würden, müssten wir gegen jeden 2. Mann in New Jersey ermitteln.< WTF
Unglaublich, wie grundlegende Prinzipien der Community hier aufgeweicht wurden.
Mit eigenen Kindern scheint sich die Sicht auf Lösungen in Richtung mehr Überwachung zu verschieben… Ist schon komisch, wie sich das Mindset über die Jahre ändert. KiPo ist halt immer noch das TodschlagArgument für noch mehr Überwachung… Das macht auch Apfel nicht besser.
… mir fällt noch mehr ein, denke aber, dass mein Punkt klar geworden ist.
Es gibt nicht „dass Gute im Bösen“ TM….
Authentifizierung gegenüber dem Proxy – das hat man in der Tat wohl nur im Unternehmenskontext. Und die Reaktion auf einen Statuscode 407 dürfte dann sein, dass dem User ein Popup angezeigt wird, um Benutzername und Passwort einzugeben.
Da das ein eher selten genutztes Feature ist, hatte ich da eine Weile einen schönen Firefox-Bug (den die auch nur durch Raten fixen und nicht selbst verifizieren konnten): https://bugzilla.mozilla.org/show_bug.cgi?id=1682240
Hiho,
angeblich wurde das CSAM schon seit iOS 14.3 ausgerollt und hier hat das jemand reverse engineered [0]. Gibt auch ein reddit-post der Autor:in dazu [1].
[0] https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX
[1] https://amp.reddit.com/r/MachineLearning/comments/p6hsoh/p_appleneuralhash2onnx_reverseengineered_apple/?__twitter_impression=true
Ich glaub, das liest zwar hier niemand mehr, aber der Vollständigkeit halber:
Am 15. Oktober 2021 haben einige Koriphäen der Cryptowissenschaften [u.a. W.Diffie, C.Troncoso und B. Schneier – alles Leute die glaube ich in LNP schon mal Erwähnung fanden ] dieses [0] doch recht eindeutig verdammendes Paper über Client-Side-Scanning auf arxiv.org veröffentlicht.
https://arxiv.org/pdf/2110.07450.pdf
Gelsen. ;-)
Wird ja wohl doch noch gelsen.
Heute kündigten die EU-Innenminister:innen an, Client Side Scanning verpflichtend zu machen [0]. Wird natürlich mit Kinderpornographie vermiytelt, aber nicht darauf beschränkt (nicht einmal von ’schwersten Verbrechen‘ ist die Rede).
Apple hat gezeigt, dass es technisch machbar ist – und wo ein Trog, da tummeln sich uA EU-Innenminister:innen.
[0] https://www.derstandard.at/story/2000131217486/eu-innenminister-wollen-private-chats-auf-dem-handy-ueberwachen