LNP403 Leichte Schläge auf den Hinterkopf

Feedback — Impfzertifikate — Apples Child Safety Initiative — Lucafails — DSGVO-Strafe für veraltete Software

Neben Eurem Feedback nehmen wir uns heute viel Zeit die umstrittene "Child Safety" Initiative von Apple unter die Lupe zu nehmen. Wir stellen vor, mit welcher Technik Apple sich auf die Suche nach "Child Sexual Abuse Material (CSAM)" machen möchte und welche Implikationen das hat. Ist das System der Türöffner für Hintertüren oder verhindert das ausgeklügelte Kryptosystem deren Einführung. Auch wir sind da nicht unbedingt einer Meinung und diskutieren über Technik und Moral.

avatar
Linus Neumann
avatar
Tim Pritlove

Für diese Episode von Logbuch:Netzpolitik liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.

Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.


Transkript
Tim Pritlove
Guten Morgen Linus.
Linus Neumann
Guten Morgen Tim.
Tim Pritlove
Schon was vor, lass doch mal Domino spielen.
Linus Neumann
Verboten.
Tim Pritlove
Oder Fallschirmspringen.
Linus Neumann
Verboten.
Tim Pritlove
Hüttenkäse essen.
Linus Neumann
Abends oder morgens auch verboten.
Tim Pritlove
Buch, Netzpolitik Nummer vierhundertunddrei vom, was haben wir denn heute eigentlich? Den sechzehnten August zwanzig einundzwanzig. Es ist ein Montag, wir verraten es euch und wir machen jetzt schon die Wochenendplanung. Und stellt sich raus, egal, was man machen will, alles verboten. Und zwar ist Domino spielen am Sonntag verboten in Alabama. Fallschirmspringen in Florida oder auch in Florida, wenn auch nur in Tampa Bay. Achtzehn Uhr keinen Hüttenkäse verzehren. Hat das Internet gesagt.
Linus Neumann
Immer sonntags, ne? Sind wir immer so ein.
Tim Pritlove
Ja, immer sonntags, hat das Internet gesagt.
Linus Neumann
Schon. Ja, aber wir haben halt nur Sonntag Zeit und das ist halt genau unsere Reiseroute.
Tim Pritlove
Genau.
Linus Neumann
Ja? Scheiße.
Tim Pritlove
Aber bevor ihr jetzt wieder mit irgendwelchen Kommentaren kommt, dass das ja alles ganz anders ist. Wir haben das recherchiert. Wir haben mindestens zwei Minuten lang im Internet gesucht und die erstbeste Seite genommen, die das behauptet hat und. Was soll man noch mehr tun? Also ja, so viel Zeit haben wir jetzt auch nicht. Das ist aber schon äh finde ich ein Recherchestandard, der zumindest für ein Introvolumen von der Politik ausreichen sollte. Kleiner Spoiler, für den Rest haben wir uns ein bisschen mehr Mühe gegeben.
Linus Neumann
Ja, wobei jetzt, man muss auch sagen, so mit dem, was, was verboten ist und was nicht, da kennen wir uns einfach nicht so aus. Selche, das ist nicht so unsere äh unsere Primärkompetenz, die auseinandersetzung mit Verboten.
Tim Pritlove
Wir sind nämlich mehr so zweihunderter Typen. Ja, wir dürfen alles, aber äh Wir haben's ja schon angedeutet, wir wollen ja uns ja auch ein wenig dem HTTP Status qoot äh holen und heute ist halt vierhundertdrei ran und vierhundertdrei, wer das schon geahnt haben, heißt schlicht und ergreifend vor Bitten, und ist halt eigentlich hätte man ihn auch verboten nennen können, weil es ja das Wort ja so populär ist auch im englischen Sprachraum.
Linus Neumann
Das ist.
Tim Pritlove
Verboten.
Linus Neumann
Verboten.
Tim Pritlove
Ja, da da kocht das Blut. Ich finde verboten ist die Steigerung von vor Binnen. Verbinden ist eine so.
Linus Neumann
Ja, ich habe also ich muss auch tatsächlich sagen, ich habe ähm. Ja, also ich habe gerade äh glaube ich, du erinnerst mich daran, dass ich, glaube ich, gestern in einem Code, da hätte ich ein vier null drei setzen müssen, habe ich aber nicht. Also ist auch für uns äh sehr, sehr lehrreich hier Und äh da haben wir auch Feedback zu bekommen, nämlich von Andre. Und das ist auch das äh war mir nicht so bekannt, Zu den dreistelligen Ziffernfolgen habe ich einen historischen Hintergrund, weil ich mal aus Spaß die frühen RFCs durchgestöbert habe. FCs sind die, die de facto Internet-Standards, ja? Das Prinzip wurde zuerst bei FDP eingeführt, also dem Fall Transfer Protokoll, wo nebenbei Mail. Ja, nebenbei Mail zuerst eingeführt wurde. Wenn ich das grade spontan richtig gefunden habe in RFC sechs vierzig, die Notation war das ein eins XX, ein tendenziellen positiven aber unfertigen Zustand meldet, zwei XX positiv und fertig. Drei ist nicht schlecht, aber auch nicht fertig, wie zum Beispiel die frage da drüben mein Nachricht Redirection. Vier was Negatives, was auch wieder weggehen kann. Also vier null vier könnte sich auflösen, wenn die Datei dann doch noch auftaucht, vier null zwei könnte durch Bezahlung zu zweihundert werden. Und fünf permanente Fehler, Das passt mit fünfhundert, ähm dem Server ist grad übel oder er macht Kur in natürlich nicht mehr wirklich, aber als jedenfalls hatte DDP entwickelt wurde, war FDP schon gut gereift. Gut gereift.
Tim Pritlove
Der war der war.
Linus Neumann
Das stimmt. Damals war das gut gereift, inzwischen macht's dann etwas überreifen Eindruck. Ähm, Und das Konzept der Response Codes auch mit SMTP durchgesetzt, da war es nicht schwer, die Notation leicht angepasst zu übernehmen. Und so kommt es, dass man die Response Codes eine Reihe von Internetprotokollen sehr ähnlich aufgebaut findet. Ja, super. Danke Andre. Tatsächlich wird man mit den anderen Codes natürlich nicht so oft konfrontiert, weil äh. Ja, warum eigentlich? Weil man diese, Protokolle eher dran äh nicht nicht direkt sieht oder nicht die Fehlermeldungen direkt bekommt, äh einfach nur, wer jemals versucht hat, ein Mählkleid einzurichten, weiß, dass da die in der steht, funktioniert nicht. Nicht wieso. Ähm. Aber sehr schön.
Tim Pritlove
Das kam überhaupt erst dadurch, dass eigentlich die Webbrowser äh und das ja auch heute eigentlich noch relativ lazy dabei sind, weil sie eigentlich diese Fehlermeldung dann, nicht unbedingt immer selber aufgelöst haben oder nicht nicht unbedingt immer wussten was zu tun ist, ja, beziehungsweise bei diesem, Einser ist ja sozusagen ja, ist ja tendenziell positiv, da passiert ja überall noch was, nur bei vier ist halt irgendwie so dieser klassische Fehler und manches wurde dann auch erstmal einfach nur so angezeigt, deswegen ist grad vier null vier so populär geworden, weil's halt. Oft kam, Ja und die Fünfhunderter, die kommen nicht so oft, aber die hat man sicherlich auch schon mal gesehen, wenn dann wieder irgend so ein Jaba-Code einem so sein sein inneres Magengeschwür auf dem Bild schon malt, dann äh dann ist so ein Fünfhunderter-Zustand erreicht.
Linus Neumann
Ja oder äh Datenbankverbindung, Schlickfeder oder so, ne. Denn insgesamt, glaube ich, kann man sagen, in HTTP werden die. Äh weißt du, wenn du mit HTTP Statusmeldungen umgehst, als Mensch ist es eigentlich. Relativ egal, ja? Und wenn du jetzt irgendwie zwischen zwei mit einer API sprichst oder so, dann sagst du natürlich auch häufig einfach nur guck mal, ob der Staat es Q zweihundert ist, ansonsten ähm.
Tim Pritlove
Ist sowas anders.
Linus Neumann
Ist irgendwas anders, ja? Also deswegen kann man sich auch vorstellen, warum die eben nicht so. Nicht so dogmatisch umgesetzt werden. Das als Entschuldigung, weil mir gerade einfällt, dass ich eben in in einem Stück Code, was ich gestern geschrieben habe, das auch nicht korrekt gemacht habe. So Georg, äh kommentiert, ach herrje, die HTP-Status kurz lesensicher, wie das Drehbuch zum LNP French heißt und es ist es wird wirklich spannend in ein paar Wochen. Vier null neun. Konflikt. Nach der Bundestagswahl gibt es einen epischen Streit darüber welche Partei mit der jeweiligen Partei Connect App am meisten Wählerdaten verloren hat. Linus beharrt darauf, dass die CDU in diesem Fall den besten Job gemacht hat Mit Hilfe der sogenannten Leeken Migration hat eine der anderen Parteien dies ausgenutzt, die Kräfteverhältnisse verschoben. Tim glaubt eher, dass es die SPD war, die am meisten Daten verloren hat und dass es eine Zählweise liege? Die Positionen sind unvereinbar, die Folge endet mit Smoke on the water. Eine Ankündigung eines LNP Fox durch Linus.
Tim Pritlove
Vier null zehn, Gon, Tim moderiert die Sendung alleine und lässt einen aus den Audioaufnahmen der Vergangenheit angelernten deep fake, Audio Avatar von Linus zu Wort kommen. Das wird allerdings erst im Produkt der LNP vierhundertelf verraten. Einige Hörer mutmaßen in den Kommentaren zur Sendung bereits das Linus irgendwie anders rübergekommen sei auf Fragen ernsthaft ach komm, lass uns das mit Blockchains machen und Backups sind für Anfänger geantwortet hat. Tim stellt im Nachhinein fest, dass er beim Training für das ML Modell, für den minus Audio Avatar das Fleck, Bindestrich nicht mitgesetzt hatte.
Linus Neumann
Ich glaube, Mindes Irony, oder? Mindest, also ohne Irony, oder? Mit Irony, keine Ahnung. Vier null eins. Der echte Linus ist zurück, Klammer auf yay, hat in der Zwischenzeit einige Folgen vom Zugfunk-Podcast gehört und nimmt sich an deren mittlerer Dauer von mehreren Stunden. Ein Beispiel, sei neu, auch Ironiefähiger, Audia Avatar aus LMP vierhundertzehn, übernimmt inzwischen Standardberatungsdienste und entlastet damit das Original.
Tim Pritlove
Vierhundertdreizehn nach höherer Beschwerden a la, ich komme nicht mehr zum arbeiten, weil die LMP vorhin jetzt auf fünf Stunden dauert, wird Besserung gelobt.
Linus Neumann
Tim und Linus schlürfen in der Weihnachtsfolge eine Stunde lang nur Heißgetränk.
Tim Pritlove
Sehr schön. Ist vierhundertachtzehn schon Weihnachten.
Linus Neumann
Wenn wir so ähm also wenn wir unsere Frequenz weiter so niedrig halten, dann vielleicht auch vorbei.
Tim Pritlove
Das ist sehe ich noch nicht so ganz, aber es könnte so der Glühwein im im Frühherbst sein.
Linus Neumann
So, dann hatten wir ein bisschen gesprochen in der letzten Sendung über. Da antwortet MSPherre hat bisher ja so gut funktioniert, weil im Prinzip alles vorbei war, bevor das Opfer überhaupt den Angriff bemerkt. Halte ich bei Dogsing oder Erpressung in Verbindung mit denen in Deutschland üblichen Uploadraten verdeutlich unwahrscheinlicher. Also er nimmt darauf Bezug, dass die inzwischen ja mit der Veröffentlichung von Daten. Drohen und ich habe das interpretiert als, sage ich mal, den Siegeszug des Backups, das äh sich eben die sagen so, hm, nicht, dass die nachher doch auf die Idee kommen, nicht zu zahlen, weil sie einen weil sie einen Backup haben. Deswegen drohen wir außerdem noch mit der Veröffentlichung von Daten. Und natürlich diese Daten müssen erst exfiltriert werden und das ist ähm. Dass es ein langwieriger Zeitraum oder ein langwieriger Prozess bei niedrigen Datenraten? Oft hast du aber bei diesen Erpressungsdingern, wo also mit der Veröffentlichung von Daten gedroht wird, ähm bestimmte Unternehmen betroffen, die ähm vielleicht auch bessere Anbindungen haben und nicht irgendwie mit Consumer oder ähm Mittelstands DSL äh Verbindung arbeiten. Muss man natürlich auch sagen. So ein heute üblicher Angriff auf eine Organisation, der geht dann doch durchaus mit einer längeren Zeit einher. Die vergeht zwischen der initialen Infektion. Und dem tatsächlichen Zugriff durch die. Hauptsächlich liegt das daran, ähm dass sie nicht mehr alle Hecken, die sie initial infizieren, sondern sich nur bei einigen halt die Mühe machen, ne, die das Active Directory zu kompromittieren und dann hast du natürlich auch äh Zeit, vielleicht äh langsam. Oder auch über längere Zeit ein paar Daten zu zu exfiltrieren, ja? Also insofern das ist natürlich schon richtig, dass uns. Niedrige Datenübertragungsraten eben auch davor schützen, dass viele Daten in kurzer Zeit äh übertragen werden, aber da diese Gangs äh, beschäftigt genug sind potenziell auch äh auch Zeit. Also da würde ich mich jetzt nicht äh also niedrige niedrige Bandbreiten sollten wir jetzt nicht als Sicherheitsfeature bewerben, wenn das die CDU hört, ja, dann, für ein sicheres deutsches Netz. Bandbreiten Limit auf der Datenautobahn, damit hier damit der Hacker, die die Daten nicht wegnehmt. Ihr denkt, ist auch gut für dich.
Tim Pritlove
Na toll.
Linus Neumann
Aber äh eine schöne äh eine schöne äh Ironie, die ich dann, die mir nicht entgangen ist natürlich. Dann hatten wir über die CDU Connect App äh gesprochen, da haben natürlich sich auch sehr viele zu Wort gemeldet. Er sagte, ACY zur CDU-App, ich vermisse eine Diskussion über das Thema Datenschutz. Haben denn alle Bürgerinnen, deren politische Einstellung dort protokolliert wurden, der Datenspeicherung zugestimmt. Ähm Achtung, ich bin kein Anwalt, aber ich interpretiere die Situation folgendermaßen. Natürlich haben die Leute dem nicht zugestimmt und wahrscheinlich mussten sie es auch nicht. Weil ja ein großer Teil der Leute eben dort auch nicht namentlich erfasst wurde. Jetzt gibt es also weil die App das nicht vorgesehen hat, die hatte nur ein Kommentarfeld und da haben dann die Nutzerinnen gerne mal die Daten den den, Namen eingetragen, ne, irgendwie so heißt der Wilfried aus dem aus dem Schützenverein, der war schon zweimal König, den kenne ich und die Frau, die Gertrud, die war ja auch schon hier. Dieser Naturengruppe mit der Gerda, so dass äh hast du dann irgendwie. Äh das ist dann natürlich ein DSGVO äh Verstoß vermutlich. Allerdings glaube ich, muss man dann auch so ein bisschen sagen, ja, das ist ähm. Nicht strukturiert erfasst. Und ich glaube nicht, dass man da jetzt ernsthaft dann, also dann müsstest du nämlich den Leuten zuleibe rücken, die diese CDU-Connect-App genutzt haben. Also da bin ich mir nicht so sicher, ob da wirklich was äh. Schiefgeht. Oder ob das, ob das irgendwie juristisch wirklich Aussicht hat. Zumal die Daten hier hat ja auch eh irgendwie keiner ähm diese, dass die irgendwo veröffentlicht wurden, erscheint mir ja auch eher nicht so, sonst hätte ich die Daten ja inzwischen. Äh gesehen irgendwo. So und ähm dann haben wir äh ja als CCC entschieden, wir werden Schwachstellen nicht mehr der CDU melden und ähm das sondern auf den traditionellen Wegen machen und da gibt's einen schönen Blog also eine schöne Mail auf der Liste. Das ist eine sehr alte, Mailing-Liste, die äh ja, Full discloseer heißt, in der ähm vollständige ähm, Schwachstellen direkt geschildert werden und zwar an erster Stelle dort und niemand anders ja? Also im Gegensatz zu der responsible Disclosure, äh wo man vorher Bescheid sagt und sagte übrigens, hier in dem, also wenn ihr es gefixt habt, veröffentliche ich es oder jetzt in dieser sehr äh, und sehr klug abgewandelten Form. Wir veröffentlichen in so und so vielen Monaten, egal ob ihr ob ihr es gefixt habt oder nicht. Ähm, wacht man bei der, schreibt halt alles sofort dahin. Und äh ja, dampft einfach dieses Wissenswissen im Netz und gibt den äh Verantwortlichen keinen Vorsprung zur Behebung. Ja und da gibt's eine in der CDU in der Version drei Punkt acht von Team Smack Back, die eine sehr peinliche, Cross Side Scripting im Registrierungsform haben, also du kannst quasi, ähm in den als Name sagen, du heißt wie ein Java Skript äh im Frontend und dann wird das äh potenziell im Back-End. Ausgeführt. Die das Team schreibt dazu, üblicherweise wollten wir diese Schwachstelle als äh machen, aber wir waren abgeschreckt von den von den ähm Vorkommnissen, die äh hier bei der, Widmann stattgefunden haben und deswegen haben wir hier einen anderen Weg gewählt und diese Schwachstelle in einem, Aktuellen Produkt eben hier als und dann hat noch, Twitterer, auch in im Prinzip eine äh gemacht und hat gesagt. Ähm ey hier übrigens CDU ähm. Fix doch mal bitte euren Mailserver, da ist noch die Schwachstelle drauf. Der Mailserver läuft unter. OWA zwanzig zehn Punkt CDU DE. OWA steht für Outlook Web Exces und ich muss sagen, wenn ich mir die anschaue. Ohne wie das jetzt genauer anzuschauen, sieht das wirklich aus wie ein relativ alter Outlook Web Access Login, die sehen seit vielen Jahren echt anders aus, wenn ich das mal so sagen darf. Äh insofern scheint da wahrscheinlich auch der Domainname Programm zu sein und ähm der Twitter-Nutzer. Verdächtigt dort, dass es dort noch den, die gibt, also diese Schwachstelle, die seit einigen Monaten sehr problematisch ist. Oder vor einigen Monaten problematisch war, jetzt einfach nur noch für komplett. Also nur noch in in den, in den dunkelsten Ecken der Verwesung, findet man die noch, also keine Ahnung, so um die zehntausend Server in Deutschland vielleicht, ja? Ja, fand ich sehr lustig, hat hat also stattgefunden, wurden halt nicht mehr an die CDU gemeldet, sondern direkt veröffentlicht. So ist das manchmal.
Tim Pritlove
Tja, Pech gehabt.
Linus Neumann
Ne? Haben wir ja gesagt, wir lehnen dafür die Verantwortung vorsorglich ab. Äh aber sowas kommt eben von sowas. Dann vielleicht noch ein kleine zwei ein kleines äh Adendom. Wir hatten über die, Impfzertifikate gesprochen, die nicht mehr ausstellbar waren von den Apotheken weil es die Schwachstelle gab, dass jeder behaupten konnte, er oder sie hätte eine Apotheke und dann eben auch in die Lage versetzt wurde, ein ähm, Also Zertifikate auszustellen, mit den Servern. Die Schwachstelle haben sie gefixt und äh ich entnehme also der Berichterstattung entnehme ich das jetzt die Anbindung mit Hilfe der Hardware der Telematik Infrastruktur erfolgt. Also das, was Martin auch in den Kommentaren zur vorletzten Sendung, die ich in der letzten Sendung vor äh besprochen habe auch kommentiert hatte. So interpretiere ich diesen Artikel. Zusammen hätten Experten von IBM, der Gematik und des deutschen Apothekerverbands, die, Bei der Ausstellung der QR-Codes dann auch identifiziert und beseitigt, weil das System lief dann erstmal nicht und hatte Performanceprobleme, nach denen sie's wieder in den, in den Gängen hatten. Aber, okay, diese Schwachstelle wurde also jetzt beseitigt, ähm, so wie ich das lese, mussten dann die Apotheken sich neu anmelden. Und äh über die Telematik identifizieren. Und das war ja auch das, was der äh Martin, wie gesagt, vorgeschlagen hat.
Tim Pritlove
Genau, weil. Und das wussten wir ja am Anfang noch gar nicht, diese Apotheken tatsächlich daran schon teilgenommen haben und sie eigentlich auch nur Zertifikate ausstellen dürfen, wenn sie diese äh Infrastruktur haben, nur benutzen mussten sie es nicht. Also es ist schon. Ja haben sie denn auch hier die vorgeschriebene Sicherheitstechnik? Ja, die steht dahinten in der Ecke. Ja super, alles klar, weiter. Das ist so ein bisschen wie Impfausweis auf Veranstaltungen zeigen und dann scrollen irgendwie irgendwelche Leute am Eingang da so kurz und drin rum und sagen, ja ist okay, Ich so, ja, müsst ihr doch, müsst ihr doch scannen. Ja, da haben wir nicht das Gerät für.
Linus Neumann
Das Gerät ist in der Tasche heißt Smartphone und du baust die aber was willst du machen?
Tim Pritlove
Ja, was willst du machen? Ja, man kann denen dann halt auch einfach nur sagen so, ja, ich meine, ist ja auch deutlich zeitaufwendiger und fehleranfälliger, aber na ja Gott, egal. Ja, ja, ja, ja, ja. Na ja, also auf jeden Fall äh äh läuft es immerhin wieder, es gibt da allerdings auch so einige andere Sachen. Ich habe auch gehört, dass Leute jetzt irgendwie abgelehnt werden, wenn sie bei einer Apotheke versuchen, ihren Impf äh Ausweis sich äh zu holen, der. Und die Apotheke ist dann nicht in dem, in der Region, wo sie geimpft wurden. Sie auch nicht verstehe, also ich meine, entweder sind sie in der Lage, das zu verifizieren oder ist in der Lage, das nicht zu verifizieren, aber sieht das jetzt eine räumliche Nähe da in irgendeiner Form hilfreich sein soll.
Linus Neumann
Na ja, das also ich vermute, dass das ein naiver Versuch ist, ähm.
Tim Pritlove
Missbrauch zu verhindern?
Linus Neumann
Diese Telegram-Gruppen da, ähm denen entgegen zu treten.
Tim Pritlove
Ja, das äh das stimmt jetzt, wo du's sagst, ähm tja, macht's natürlich für Reisende dann auch nicht unbedingt einfacher, aber hm.
Linus Neumann
Und vermutlich also der sinnvolle Check wäre eigentlich, du du wohnst in der Region, wo du auch in die Apotheke gehst. Aber du behauptest jetzt irgendwie, was weiß ich, in einem anderen Bundesland geimpft zu sein worden zu sein. Was eben unwahrscheinlich oder äh Erklärungs. Ähm bedürftig wäre.
Tim Pritlove
Ja, wenn auch mittlerweile möglich und ja, aber dann solltest du halt beim Impfzentrum zumindest, aber nicht beim Arzt. Ähm genau, den Nachweis ja auch schon direkt also es ist, ja, man hätte sich über die Sachen schon vorher Gedanken äh machen müssen und jetzt durch solche Maßnahmen versucht, diesen ähm potentiellen Betrug zu verhindern.
Linus Neumann
Ich glaube ehrlich gesagt ähm. Ja, also der, der, der, der Betrug findet nur statt, weil du diese Checks machst. Und sonst würde sich kein wird's auch keiner fälschen. Also da, das, Ja, äh, du kennst meine Meinung dazu, dass ich das auch nicht gut finde, diese Dinger zu kontrollieren und dass ich diese äh dass ich das nicht nicht schön finde. Wobei man natürlich gleichzeitig auch sagen muss, ähm. So leichte Schläge auf den Hinterkopf erhöhen das Denkvermögen. Und wenn man mit diesen Impfausweisen eben die Impfverweigerer ein bisschen piesacken kann, dann wird man daraus unter Umständen halt zumindest insofern die Sprache vom Weizen trennen, dass man, Verweigerer von den Impfverpeilern trennt und die im Verpeiler halt beim dritten Mal sagen, boah ey, na ja, jetzt reicht's aber, Telegramm ist gefälschter Impfausweis, kostet ein Huni Impfzentrum gehen oder zum Hausarzt gehen kostet nüscht. Dann haste bis halt eben also für halbwegs normal denkende Verteiler ist es dann immer noch ein ähm sage ich mal ökonomisch, der steht, steht die Impfung im Vorteil.
Tim Pritlove
Genau, genau da sehe ich den äh Vorteil und wir sehen das ja jetzt auch, auch wenn's.
Linus Neumann
Eine Bratwurst.
Tim Pritlove
Bratwurst oder äh Zugang zum Stadion, also gibt durchaus gibt durchaus Incentives, die man da jetzt hochhalten kann und ich glaube, das wird dann eben auch die faulen von den äh wirklich chronischen Leugnern und Verweigerern trennen und dann wird sich ja zeigen, wie die Prozentsitze wirklich sind. Aber wenn man sich so die aktuellen Impfzahlen anschaut, äh ist da auf jeden Fall der ein oder andere Schlag auf den Hinterkopf erforderlich. Das könnte er schon sein, ne. Na ja, also Es ist äh ein ein, ein, ein schwieriges äh Feld. Genauso wie der Bereich, über die wir jetzt äh sprechen, Ist eigentlich so ein bisschen der Klassiker der schwierigen Felder. Ne, gerade wenn's um Privatsphäre, Sicherheit und äh Überwachungsmaßnahmen geht. Nämlich der Bereich des dokumentierten Kindesmissbrauchs. Was.
Linus Neumann
Ich muss mich korrigieren, sorry. Es tut mir leid, dich unterbrochen zu haben, aber ich muss mich korrigieren. Ähm leichte Schläge auf den Hinterkopf erhöhen, nicht das Denkvermögen. Haben Forscher untersucht. Sorry.
Tim Pritlove
Weil.
Linus Neumann
Sei es das Gegenteil der Fall. Gehirnerschütterung und Risse im Gehirn können entstehen. Ja, also sorry, habe ich äh bevor jetzt die die Korrekturen kommen, tut mir leid. Ja, es stimmt gar nicht.
Tim Pritlove
Oh Gott.
Linus Neumann
Sorry, ja nicht, das ist doch irgendwie Ärger gibt, ja.
Tim Pritlove
Ja, nachdem du jetzt meine meine vorsichtigen äh Versuch, hier wirklich einen gepflegten Übergang zum von einem schwierigen Thema zu einem schwierigen Thema äh torpediert hast und das äh du aber versuchen, das einzuleiten.
Linus Neumann
Die Situation, in netzpolitischen Debatten dreht sich sehr häufig um das Thema des dokumentierten Kindesmissbrauchs. Ähm das sicherlich ein sehr ernstes und großes, Problem ist, dass fast so groß ist wie der tatsächliche Kindesmissbrauch über den äh ja hier Beweismittel. Verteilt werden von Menschen. Und das ist natürlich ähm illegal in so gut wie jedem Land dieser Erde und ähm gesellschaftlich geächtet, aus gutem Grund und wird ähm, strafverfolgt, ja? Wir haben ja auch immer wieder, darf man ja nicht vergessen, durch gute Polizeiarbeit dann so Ermittlungserfolge wie denke vor einem Jahr ungefähr war das länger herein in Münster ähm wo es da diesen Missbrauchsring gab und diese Menschen nutzen. Natürlich auch ähm. Technologien der Verschlüsselung und des anonymen Datenaustausches, um dieses Material, in Umlauf zu bringen. Immer mal wieder gibt es offenbar auch Leute, die da dann damit tatsächlich Geld verdienen und. Allerdings, was man so hört, scheinen das auch eher äh viel einfach ja Tauschbörsen zu sein, wo Menschen diese Materialien eben anonym miteinander. Teilen. Wie gesagt, das Problem ist fast so groß wie der tatsächliche Kindesmissbrauch, der da stattfindet. Und ähm natürlich ist es verständlich. Dass man dagegen vorgehen möchte als Gesellschaft. Ähm der Weg, der gewählt wird, Ist aber häufig so die Idee der Unmöglichmachung, ja? Ähm in Deutschland die prominenteste Ansatz war das mit den Stoppschildern, Ursula von der Leyen, die also ein sehr untaugliches und verfahren. Umsetzen wollte, dass also DNS-Server so etwas nicht mehr auflösen. Die einzige Folge davon wäre gewesen, dass eben die äh die Seiten sich nicht mehr auf DNS konzentrieren, sondern zum Beispiel als Hidden Services angeboten werden. Und äh eine ganze Reihe Overblocking stattgefunden hätte. Und durch diese ähm da gab es dann eben diesen Aufruf löschen statt Sperren und vor allem auch die Forderung. Führt das einer Strafverfolgung zu, wenn Menschen diese Materialien anbieten, besitzen äh oder teilen oder und äh ja, oder dafür bezahlen oder was auch immer, die juristischen Formulierungen sind. So, jetzt hat es sich ergeben, dass fast alle großen Tech-Anbieter. In den USA solchen solche Materialien, melden und zwar an das. Das ist das National Center von Missing and Explorted Children. Also das nationale Zentrum für äh Vermisste oder ähm. Äh missbrauchte Kinder oder ausgenutzte Kinder. So und die Unternehmen ähm, die großen Unternehmen wie jetzt Facebook oder Google, ähm die melden dort die Fälle hin, die ihnen ähm. Bekannt werden. So, jetzt hat Facebook. Wie wie werden die ihnen bekannt? Die haben automatische Scanner dafür. Das ist dieses Verfahren Foto-ID von Microsoft. Das haben wir hier auch schon mal in einer Sendung früher genauer erklärt. Das. Basiert im grob gesagt darauf, dass das Bild in. In ähm schwarz und weiß, quasi ganz hoher Kontrast gezogen wird und dann in Vierecke aufgeteilt wird und diese Vierecke, Also quasi das Bild nach und nach symblifiziert wird und darüber am Ende dann einen Fingerabdruck errechnet wird, der mit hoher Wahrscheinlichkeit gegen. Minimale kleinere Veränderungen des Bildes resistent ist. Ja, also zum Beispiel wenn du jetzt, einen Farbstich reinmachst, ist ja jeder Pixel des Bildes anders, aber dadurch, dass du den Kontrast halt wieder äh krass ziehst, lässt du lässt sich quasi wieder technisch das Bild auf seine wesentlichen Komponenten reduzieren und dafür haben die eben so einen Fingerabdruckverfahren entwickelt. Ähm was da bei solchen Scans zum Einsatz kommt. Und ähm wenn man sich die Meldungszahlen anschaut, hat Facebook zwanzig Komma drei Millionen Fälle an die Neckmac gemeldet im vergangenen Jahr, glaube ich, Google fünfhundertsechsundvierzigtausend. Der Unterschied ist mir auch noch nicht ganz klar und Apple hat zweihundertfünfundsechzig Fälle gemeldet. So, jetzt müssen wir natürlich fragen, so natürlich werden auf Facebook vermutlich sehr viel mehr Bilder getauscht als bei. Apple, aber Apple hat eben die Fotolibraries der Menschen, ja? Ähm und Google, da würde ich jetzt vermuten, dass Google ähm die haben ja kein soziales Netzwerk mehr, da kann es wahrscheinlich Google Mail betreffen und vielleicht auch tatsächlich das, was die Google Suche ähm findet. Ähm Apple hat aber hier natürlich sehr viel sehr viel weniger Nullen hinter der Meldungszahl und es scheint, dass sie da äh für schlecht dastehen. Ähm und jetzt haben sie angekündigt, dass sie diese Suche. Vornehmen möchten. So soll's aber eine Sache sagen, diese ganzen Scan-Verfahren funktionieren natürlich nur bei unverschlüsselten Daten, Wenn ich also jetzt so, Bild hätte und das unverschlüsselt in, was ich in lege oder so, dann wird das nicht lange dauern, bis das verschwindet und ich potenziell eben äh der Strafverfolgung äh zugeführt werde. Wenn ich das verschlüssele und irgendwo hinlege, gibt es keine Möglichkeit, dass das zu detektieren. Und glücklicherweise gibt es ja den. Tendenz dahin, dass wir immer mehr Daten verschlüsseln, weil wir immer mehr Daten äh haben, bauen, austauschen, bereitstellen und ähm, Das ist ja gut, das ist ja positiv, aber genauso wie das dann im Falle von Staatstrojanern dazu führt, dass der die eigentliche Scanner auf das System soll und auch bei diesen Sachen der Chatkontrolle, wenn wir mit Patrick Breier darüber gesprochen, wo dann gesagt wird, wir wollen diese Scanner in euren Messenger bauen, ja, also die E-Privacy Richtlinien, Ausnahme, die nachher zur Pflicht werden soll, über die wir, glaube ich, auch in der letzten Sendung gesprochen haben hört man natürlich schon die Nachtigall trapsen und bei Apple ist die Nachtigall jetzt ähm im Betriebssystem ab Herbst. So die Ankündigung von Apple. Und jetzt können wir uns anhören, wie der Tim sich da schön redet.
Tim Pritlove
Na ja, ich äh will das gar nicht erst mal äh bewerten, sondern erstmal wollte ich mal äh vorstellen, was eigentlich jetzt sozusagen der Plan ist, ne. Also der Grund, warum Apple so wenig Fälle meldet, ist schlicht und ergreifend, dass ihr halt diese Fotos nie gescannt haben, Und das ist ja schon mal auch äh eins ihrer Argumente äh gewesen, dass sie das halt auch überhaupt nicht tun wollen. Wollen halt nicht äh die Datenbestände von Nutzern durchforsten. Und das wollen sie halt weder in der Cloud noch, auf dem Telefon tun. Das ist quasi so der der Kern auch ihrer Ankündigung. Also was haben sie jetzt gemacht, wie du schon richtig gesagt hast, also das ist jetzt quasi der Ausblick auf eine ganze Reihe von neuen Betriebssystemen, also einmal so ihren ganzen Kladderadatsch von vorne bis hinten durch. IOS für das äh iPhone, iPad, US, fürs iPad, Watch OS für die Uhr und natürlich macOS für die Max, also alles kommt jetzt im äh Herbst in der neuen Version raus. Eiweiß fünfzehn und äh Ist acht und wie sie alle heißen. Auf jeden Fall ist es mittlerweile auch so, dass die ganzen mit einzelnen Varianten eines Kernbetriebssystems mittlerweile so ähnlich sind, dass sie jetzt mehr oder weniger Technologien jetzt auch auf allen Plattformen gleichzeitig releasen können. Ja und ihre Aussage ist, dass sie halt äh so lange äh da jetzt gar nichts getan haben, weil sie meinten, dass eben die Technologie noch nicht da sei. Sie das auf die Art und Weise machen können, wie sie es gerne machen wollen, nämlich unter Beibehaltung der Privatsphäre, das ist so quasi ihre ihre. Ähm. Auf jeden Fall erstmal auseinander halten sollte, ist. Was tun Sie eigentlich? Sie haben jetzt irgendwie drei Sachen angekündigt. Die ersten beiden kann man, glaube ich, schnell mal abhaken, die sind äh nicht sonderlich äh umstritten und auch nicht sonderlich umfangreich. Also zunächst einmal. Sie sprechen hier von Siri und Search, als ob sie irgendwie große Suchdienste am Start hatten, aber man kann ja quasi mit diesem Siri, mit diesem Apple Alexa äh auch Internetsuchen äh ausführen ja und wenn man das halt benutzt und ähm dann dann äh interpretieren sie halt, wie sie sagen, entweder so Hilfe suche oder eben so Sesam, Relate Topics, wie sie das nennen, also Cesam ist so jetzt der, ich weiß gar nicht, wie lange es diesen Begriff schon gibt, aber das steht eben für Charles, oder sozusagen. Fotos, ne, äh aller Art, die eben Kindesmissbrauch dokumentieren, also Sesam werde ich jetzt mal hier auch einen weiteren benutzen als ähm Abkürzung dafür. Und wenn man halt danach äh sucht dann wird halt irgendwie Hilfe eingeblendet, Ressourcen eingeblendet, hier melde dich doch da und so weiter. Äh beziehungsweise wenn halt Leute jetzt aktiv sich auf auf die Suche nach solchen Material machen meinen sie halt auch, dass sie dann äh entsprechende Warnungen einblenden und darauf hinweisen, dass das ja alles irgendwie nicht so geil wäre oder nicht so oder verboten oder was auch immer. Also da weiß ich jetzt auch nicht genau was da steht, aber das ist sozusagen das Erste. Ähm das Zweite ist, dass sie halt explizit in diese Messages App auf dem, Eiweiß, also auf dem auf dem iPhone eine Funktion einbauen, die halt ja, Wie sie das so schön sagen, sensitive Content erkennt. Ja, also sie benutzen quasi ihre Machine Learning, Algorithmen, die ja in der Lage sind, mittlerweile alles Mögliche zu erkennen, und sind da wohl recht konfident, dass sie halt tja, erkennen können. Das ist halt, sagen wir mal, eine. Eine eine Antwort auf diese Problematik von so Sexfotos verschicken und soll eine Funktion sein. Die ähm vor allem Eltern in die Lage äh versetzt, das eben bei Kindern sozusagen als Warnow einblenden zu lassen, also entweder um Kinder davon abzuhalten, äh selber Nacktfotos zu verschicken oder eine Warnung anzuzeigen, wenn sie welche empfangen. Ja, also um dieses Problem der der Anbahnung. Ähm irgendwie an äh anzugehen. Und das Ganze ist halt gekoppelt mit diesem Familysharing. Also das ist jetzt sozusagen keine Funktion, die auf allen Telefonen ist, sondern dass es eben in dieser Konstellation, wo man äh so verschiedene AppleIDs gruppiert zu einer Familie und dann sind bestimmte eben als Kinder ausgewiesen und da ist ja auch das Alter dabei und die Funktion verhält sich halt ein bisschen anders. Ähm je nachdem wie alt die Kinder äh sind. Sprich bei Kindern unter zwölf äh ist dann auch eine Benachrichtigung, der Eltern äh mit dabei und bei älteren, werden sozusagen die Kinder nur selber gewarnt, das ist auch alles Opt-In, also nicht die folgtmäßig äh eingeschaltet, und die Funktion ist halt so, dass wenn du jetzt so ein Foto bekommst, wo die der Algorithmus schlägt an und sagt so, ja hier Sensitive Content, dann ist es erstmal blöd und dann wird halt so drauf hingewiesen, so ja, hier könnte problematischer Inhalt sein, willst du das wirklich sehen? Dann kannst du aber immer trotzdem noch dich drüber hinweg setzen und ja sagen. Bei den kleineren Kindern ist es halt so und dann wird dann auch gesagt so ja okay kannst du dir jetzt angucken, aber wir benachrichtigen dann auf jeden Fall auch deine Eltern, So, ne? Das ist der der Modus, den sie jetzt hier machen. Dadurch, dass es in dieser Messe App ist, ist es halt keine Funktion von iMessage, sondern es deckt dann quasi auch SMS mit ab aber eben nicht die anderen Messaging Dienste. Es ist wohl auch im Gespräch. Diese Funktionalität generell im Betriebssystem auch anzubieten. Ohnehin werden diese ganzen Funktionen als Teil des Betriebssystems äh angeboten und werden nicht über noch einen anderen Seitenkanal äh aktualisiert. Ähm das wird sich zeigen, ob ob sich sowas dann äh etablieren, wird das dann andere Messenger sich sozusagen derselben Funktion bedienen, dass sie einfach sagen, ja hier Betriebssystem, ich habe gerade ein bekommen, sag mal was dazu und dann im Prinzip in der Lage werden ja auch diesen selben Prozess oder vergleichbaren Prozess anzusteuern. Das äh liegt jetzt alles noch ein bisschen. In der Zukunft. So, das sind so die ersten beiden Maßnahmen, die Sie angekündigt haben. Ähm und die. Die Maßnahme, die jetzt am meisten Aufmerksamkeit bekommen hat, ähm die bezieht sich auf, i-Cloud-Fotos, i-Cloud Fotos ist ja quasi Apples, Methode, wie ähm Apple-Nutzer, ihre Fotosammlung, ihre Foto Library, im iCloud-System hinterlegen können, so dass man das nicht alles auf den die Weiße speichern muss, ich mache ein Foto aufm iPhone und wenn die iCloud Library eingeschaltet ist, dann wird das halt automatisch in diese Cloud hochgeladen und mit den ganzen anderen Rechnern, die da äh mit derselben Apple ID arbeiten und wo auch iCloud-Fotos eingeschaltet ist, wird das dann halt gesündt, sodass man halt hier ein Foto macht und es dort sofort verwenden kann. Und was sie halt machen werden und ähm man muss nochmal darauf hinweisen, Das ist jetzt eine Funktion, die jetzt erstmal nur in den USA zum Tragen kommt. Das ist jetzt quasi nichts, was jetzt in Deutschland aktiv werden würde, also zumindest nicht jetzt, nicht zu diesem Zeitpunkt, Ähm das halt, wenn, Fotos in diese, also wenn i Cloud Fotos eingeschaltet ist und nur dann, dann ähm werden diese Bilder geprüft, ob es sich dabei um bekanntes Cesar Material, handelt. Und hier kommt die anfangs erwähnte ähm dieses Anfangs erwähnte Nationalcenter Children, dieses Neckmack oder NCMEC äh mit rein, was halt in den USA quasi, die einzige Organisation ist, die solche Bilder überhaupt vorrätig haben darf. Das heißt, deren Datenbank existiert nur dort. Und wie du schon gesagt hast, gibt verschiedene Methoden, wie man eben, auf die Identität dieser Fotos prüfen kann, ohne dass die Fotos selber wieder in die Welt geschickt werden, Ne, also mit entsprechenden Fingerprintmethoden. So wie du das von der Microsoft-Methode beschrieben hast, scheint das hier äh noch ein bisschen anders äh zu laufen. Ähm ich vermute mal, dass Apple hier äh mit der Organisation das, technisch gemeinsam, koordiniert hat und hier sprechen sie von sogenannten Noyalas, also ist die ganze Zeit von die Rede, Hashtag ist ja so allgemein so, so ein bisschen in der in der Debatte so ein ist, du nimmst irgendeine Datei, du bildest einen Hash und dann hast du so eine ID, die quasi so ein bisschen für die ganze Datei spricht, ohne dass so die ganzen Daten durchackern musst. Und in der Theorie ist es halt so, du änderst irgendwo ein Bit und dann ändert sich auch irgendwo ein Bit in diesem, das heißt also aus sehr viel mehr Daten wird ein sehr viel kleinerer Zahlenbereich gemacht, der aber trotzdem so ist, dass dass er in der Regel jede Änderung irgendwie, bekommt und äh das würde natürlich sofort fehlen, wenn du halt bei irgend so einer Bilddatei auch nur ein Bike weglässt oder äh von Farbe auf schwarz weiß gehst oder das Bild äh abschneidest, anderes, äh machst oder auch irgendwelche Filter drüber jagst, dann ändern sich ja im Prinzip alle Bits auf einmal und so normaler Hashtag würde dann einfach überhaupt nicht mehr greifen Und dieser ist halt eher so diese Methode wie heutzutage mit Machine Learning, auch Bilder generell analysiert werden, ne? Dieses Deep-Learning geht ja mehr auf Features ein und ähm schaut sich quasi die eigentlichen Struktur dieses Bildes an. Und sie sagen halt, dass eben mit dieser Methode sie eben auch. Mehrere Varianten eines Fotos ähm auf einen eindeutigen Wert zurückführen können, selbst wenn eben solche Filterkopping und Farbmodifikationen durchgeführt worden sind. Wie gut das funktioniert, kann ich nicht sagen, aber das ist äh die Behauptung, die hier im Raum ist. Man nennt das dann perceptive äh Hashing, ne. So und was passiert jetzt? Du hast also ein neues Bild, ja, was irgendwoher kommt, vom Internet oder äh aus irgendeiner anderen äh Quelle und das soll halt in die iCloud-Foto Libri hochgeladen werden und dann wird eben. Dieses Bild wird von diesem Bild, dieser neurollas gebildet und das Ganze wird. Verglichen mit einer Liste von die eben von diesen, NCMEC kommt. Diese Liste, dieser Bilder der bekannten Bilder, die ist Teil des Betriebssystem Updates, wird mit dem Betriebssystem quasi mit ausgeliefert. Und das findet dann ein Vergleich statt. Und der Vergleich ähm findet. Auf eine kryptographische Methode statt. Also man nennt das Private Intersection. Und in dem Fall äh werden also quasi diese beiden Sets, also auf der einen Seite hier meine Fotos, hier äh die Foto-IDs, diese von der äh Datenbank werden miteinander verglichen. Und damit soll verhindert werden, dass eben diese Sets komplett zugänglich werden, man aber trotzdem irgendwie diese Inhalte miteinander vergleichen kann. Eine ähnliche Technik wird wohl schon zum Einsatz gebracht, um zum Beispiel Passwörter im Schlüsselbund mitliegt, Passwörtern ähm zu vergleichen. Das hatten wir ja hier auch schon mal besprochen. Äh wie hieß noch gleich diese Passwörterdatenbank? Minus.
Linus Neumann
Die hören diese Liste. Da schickt man quasi äh einen Teil des aber nur hin, das Ende und kriegt dann alle, die auch so enden und vergleicht dann lokal, ob man diesen hat.
Tim Pritlove
Mhm. Also Apple sagt zumindest, dass sie dieselbe Technik dort äh auch, äh dass sie sie dort auch verwenden. So und jetzt kommt der eigentliche Punkt. Es gibt dann also quasi in diesem cryptographischen Vergleich gibt es ein Ergebnis, und das Ergebnis ist dann, würde man sagen, es ist so, ja, ist Bestandteil dieser Datenbank oder nicht, aber ganz so einfach ist es nicht, sondern was sie machen ist, sie erzeugen, sie kriegen sozusagen ein kryptographisches Vergleichsergebnis, was dem Code selber in dem Moment auf dem Telefon gar nicht sagt, ob das jetzt ja oder nein war. Sondern sie schließen das in so einen Wauscher ein, also ist so ein kleiner Kryptographischer Anhang, der dann einfach mit dem Bild hochgeladen wird, in die Wolke. Und man kann diesen Wortschal selber erstmal nicht ansehen, Wie das Ergebnis eigentlich war. Und der Grund, warum man das nicht sehen kann in dem Fall, ist, dass es ein sogenannter. So ein Schwellwert, Kryptosystem ist, dass diese zusätzliche Absicherung das bedeutet, dass du. Eine bestimmte Mindestmenge an solchen Vergleichen insgesamt positiv haben muss, bevor du sehen kannst, dass diese Menge positiv das lässt sich irgendwie einstellen, er bleibt gesagt, es liegt so ungefähr derzeit bei dreißig Bildern. Mit anderen Worten, wenn du ein Bild in deiner Foto Librier hast, was jetzt mit dieser Datenbank. Datenbank von positiv verglichen wird, löst das erstmal noch gar nichts aus. Wenn du aber, dreißig Bilder in deiner Datenbank hast, dann werden die überhaupt erst als solche in der Cloud erkennbar. Und dann kann ein System erst sagen, so, ah okay, hier ist der Schwellwert überschrieben und dann kann man eben diese Wortschau überhaupt erst auslesen. Und das wiederum. Triggert dann. Also sollte das jetzt sozusagen passieren. Ich habe jetzt irgendwie dreißig Bilder mit diesem Schwellwert sozusagen äh erreicht, dann ist Cloud-seitig überhaupt erst der Einblick möglich, und dann triggert das bei Apple eine manuelle Überprüfung. Das heißt, Apple. Hat dann irgendwie ein Team, die dann Zugriff auf diesen Benutzer-Account äh bekommen, sich diese fraglichen Bilder anschauen können, ob das sozusagen, nicht irgendwelche waren, sondern ob das jetzt wirklich problematischer Inhalt äh ist und der Account wird äh auch erstmal gesperrt. Ja und wenn ein Nutzer der Meinung ist, er wäre zu unrecht äh gesperrt, so dann gibt's auch einen Prozess, äh mit dem man da sich sozusagen entsprechend beklagen kann. Aber diese. Ähm dieses Schwellwertsystem soll die Chance von Fehlmeldungen reduzieren. Sie sprechen von eins zu einer Billion, sozusagen wahrscheinlichkeit. Ja, also das ist das ist sozusagen das, was sie äh tun und sie treiben da einen relativ großen Aufwand, eben dazu führt, dass weder der Code auf dem Telefon eigentlich weiß, was das Ergebnis dieser Untersuchung ist, ja? Noch äh das. Es ähm irgendwelche Aussagen, aber irgendwelche Bilder äh gibt in der, nicht erst dieser Schwellwert erreicht ist, also zu sagen erst, wenn sie sich wenn sich, ich sage mal so etwas erdrückender Beweis angesammelt hat, ist der Beweis als solcher überhaupt erst sichtbar und das triggert dann den manuellen Prozess und wenn der dann halt positiv beschieden wird, so ja OK hier wirklich problematisches Material dann erfolgt eine Meldung an diese NC MEC Organisation. Ja, also das ist sozusagen das. Das Modell, was sich jetzt äh Apple hat einfallen lassen, um. Ja, ob zu sagen, das ist ihre Position so. Wir sehen das als problematisch an. Dass sowohl Kinder aufgefordert werden, das ist diese Sache mit den Messages, ja? Als auch, dass Leute. Solche Fotosammlungen anlegen und wenn halt Fotosammlungen eine gewisse Menge annehmen, dann. Weist es darauf hin, dass es sich um problematischen Account handelt, der sie dann. Quasi verpflichtet, ähm das zu melden.
Linus Neumann
Ja, aber das hat ja sehr, sehr lange erzählt, dass sie letztendlich einen Inhaltescanner. Auf deinem Telefon laufen lassen für ähm Inhalte, was weiß ich, die dir zugesendet werden und die für dich privat sind. Und, das ist denke ich in dieser Form noch nie da gewesen und eine Dammbruch, da könnt ihr noch so viel Mühe geben, denn was ich eingangs natürlich nicht erwähnt habe, ist es sämtliche solcher Maßnahmen, die anfangs mit äh Terrorismus und Kindesmissbrauch begründet werden, ihren, Weg in die allgemeine Nutzung finden. Um mal ein ein einfaches Beispiel zu nennen, weiß nicht, ob das immer noch so ist, aber ähm. Wenn man irgendwie für iTunes, für Apple Music zahlt, dann kann man ja auch eigene MP3s in äh in in dieses iTunes reinwerfen. Und äh die werden auch über Geräte synchronisiert, ja? Wenn man jetzt irgendwie, wenn Apple erkennt, das ist ein Song, den es auch bei uns in besserer Qualität gibt, da gebt ihr sogar den in besserer Qualität. Was so ein sicherlich eine Funktionalität ist, die. Ähm irgendwelchen Urheberrechtsinhaberinnen nicht so äh nicht so gut gefällt und die haben sicherlich Lust, dass äh auch sie eine Liste mit, nicht zu verwendendem Material pflegen und für die Anbieter verpflichtend machen können. Siehe Uploadfilter, ja? Wir haben ja genau diese Diskussion gerade, dass also ähm. Sämtliche Inhalte gescannt werden und ähm in diesem Fall dann die den die Veröffentlichung Uploadfiltern, also die Veröffentlichung auf der Plattform präventiv sofort verhindert wird. Und ähm nichts anderes als genau eine solche Filtertechnologie, egal wie sie jetzt im Detail anders funktioniert, will Apple jetzt auf die äh iPhones selber bringen bei den Nutzern in die Geräte, für die sie sehr viel Geld bezahlt haben. Und das sind genau die, ähm ja, Handlung und Szenarien, vor denen ähm. Also vor denen immer gewarnt wird, wenn man sich mit closed Software auseinandersetzt, dass nämlich genau äh in dem Moment, wo sich das Unternehmen entscheidet äh nicht mehr unbedingt in meinem Interesse zu handeln und da eine äh Risikotechnologie in diese Geräte einzubauen, äh die, dann eben, mit großer Wahrscheinlichkeit eben oder mit mit an Sicherheit grenzender Wahrscheinlichkeiten, Begehrlichkeiten anderer äh Interessengruppen, wecken, die dann nämlich sagen, die Technologie ist doch da. Ihr könnt jetzt nicht mehr sagen, das ist unmöglich und jetzt möchten wir bitte, dass ihr die auch nutzt. Ähm, um dann denen du eben nicht mehr entgegentreten können. Und dann hast du genau das Problem, dass du, sage ich jetzt auch, ist ja kein Geheimnis, dass ich einen Nutzer dieser Plattform bin. Und äh da lange, jetzt auch ja wie sagt man so schön, investiert bin, also ein verabschieden aus diesem Ökosystem würde mir auf jeden Fall schwerfallen vor allem natürlich auch in in Ermangelung an brauchbaren Alternativen, aber das ist ein anderes Thema. Ähm. Dass sich jetzt hier eben ein, ein, ein System, das sich, viele Jahre relativ zufrieden genutzt habe oder eine Plattform in diesem Gerät, dieses Gerät iPhone ähm, auf einmal potenziell gegen mich wendet und gegen meine Interessen verstößt und ich denn nichts machen kann, außer was weiß ich jetzt irgendwie und versuchen, das irgendwie wieder auszubauen, dass Apple nicht meine ähm meine Inhalte scannt. Und ähm. Wenn ich das an einem Cloud-Anbieter äh missachte, ja, den kann ich in der Regel einfacher wechseln, noch ja? Oder. Habe mich nie dazu entschieden, äh ihn zu benutzen, ja oder da war zumindest auch klar, okay, du nutzt eine Cloud Das sind die Computer von anderen Leuten und die werden sich potenziell äh nicht nicht deinen Interessen, verpflichtet fühlen. Das ist aber was anderes, wenn ich irgendwie über tausend Euro für ein Telefon ausgebe, dann erwarte ich, dass da eine Software drauf ist, die ausschließlich meinen Interessen gehorcht und diese nicht aufs Spiel setzt. Und jetzt weiß ich das natürlich für für Hörerinnen und Hörer der Eindruck entsteht, äh dass wir jetzt das das das wir jetzt hier gegen äh Maßnahmen. Zur Verfolgung oder Erschwerung des Austausches von Sesam ähm. Argumentieren, darum geht es nicht. Es geht einfach um eine probate Technologie oder eben um eine nicht probate Technologie und das ist keine, probate Technologie, zumal es nicht dabei bleiben wird, ist, weil es nicht dabei bleiben wird. Keine einzelne, keine einzelne Technologie dieser Art. Tim, wurde jemals irgendwo eingeführt, ohne dass ihr ähm Anwendungszweck unmittelbar ausgedehnt wurde. Unmittelbar. Ja, Beispiel, Uploadfilter gegen äh Urheberrechtsverletzungen und jedes andere äh äh System, der das das ursprünglich mit mit derartigen Materialien, argumentiert wurde. Ja, Staatstrojaner waren ursprünglich auch nur gegen äh schwere Verbrechen und Terrorismus, ja. Zack, inzwischen werden damit irgendwelche von der Ecke äh angegriffen Es ist ein ein so sicher wie das Amen in der Kirche.
Tim Pritlove
Ja, also machst es dir jetzt doch ein bisschen einfach, ne? Also ich meine.
Linus Neumann
Nee, das ist nicht einfach, das ist eine Tatsache, dass äh Grund, unumstößliche Tatsache, dass wenn solche Systeme gebaut werden, sie anfangs mit schweren Straftaten begründet werden und dass dann im weiteren Verlauf gibt der Sache fünf, gibt der Sache zehn Jahre die Anwendung ähm ausgeweitet wird. Ein einfaches Beispiel du wartest gerade in den USA, ja? Wirst du nur, äh da brauchst du auch nicht lange zu warten. In den USA, bis wieder irgendein durchgeknallter Waffennarr ähm auf den Balkon tritt und ein paar Menschen erschießt. Ja? Und dann hast du zum Beispiel diese Situation. Ähm die haben wir auch in Deutschland, wenn so etwas passiert. Äh zuletzt war das, glaube ich, in München der Fall, dass dann die Polizei sagt, okay, verbreiten sie nicht diese Materialien oder so ja? Du hast jetzt gerade die Situation in Afghanistan, wo ähm wahrscheinlich, auch eine ganze Reihe an ähm sehr, sehr unschönen Bildern, politisch motivierte Tötungen und so, dokumentiert werden. Das sind auch alles wieder Materialien, äh die die man dann zum Beispiel als Terrorpropaganda und sonstiges bezeichnen kann, wo du selbstverständlich, als als Staat an Apple herantrittst und sagt, hör mal, ihr habt doch dieses System, mit dem man sicherstellen kann, dass solche Daten nicht auf den Geräten sind. Ähm nutzt das bitte für diesen Anwendungsfall. Und das ist, du kannst mir doch nicht erzählen, dass diese ähm dieser Bedarf nicht innerhalb der nächsten fünf Jahre an Apple herangetragen wird.
Tim Pritlove
Ja, aber die Technologie ist auch schon lange auf diesen Geräten. Das ist doch jetzt gar nix Neues in in der Hinsicht. Also jetzt einzelne Bilder zu finden, ist äh schon immer möglich gewesen. Und wenn jetzt halt, zu irgendwas gezwungen werden, irgendwas zu tun, dann wäre Ihnen das ja schon immer möglich gewesen.
Linus Neumann
Argument erschießt sich mir nicht. Also das ist immer möglich gewesen. Es heißt ja nicht, dass es jetzt getan werden muss.
Tim Pritlove
Apple hat ja jetzt nur eine Methode dokumentiert und sehr öffentlich auch dokumentiert. Wie man so etwas tun kann unter der Maßgabe, dass eben die Privatsphäre dabei trotzdem erhalten wird und sie eben nicht in der Cloud alles durchsuchen. Das ist ja quasi ihr ihr Pitch an der Stelle. Ja, so nach dem Motto, wir versuchen das eine, machen, von dem ja, was sie so jetzt quasi für moralisch geboten halten. Ne, so weil schützen von Menschen ist ja durchaus auch ein Aspekt, den man mal hier äh mit aufbringen muss. Und versuchen eine Methode dafür zu äh posolieren, die sicherstellt, dass dass die in der Form, wie sie so läuft, wie sie dokumentiert ist, so nicht missbraucht werden kann.
Linus Neumann
Wie, wieso kann die nicht missbraucht werden?
Tim Pritlove
Na wie würdest du sie denn missbrauchen wollen? Also was.
Linus Neumann
Habe ich doch gerade formuliert. Also was wäre denn also was ist definiere, Missbrauch und sage wie das unmöglich gemacht wird durch dieses System?
Tim Pritlove
Bin jetzt nicht in der Lage, einhundert Millionen verschiedene äh Angriffsvektoren äh mir auszudenken ich sehe jetzt erstmal nur, wie diese Technik funktioniert und was sie durch diese Technik versuchen zu verhindern. Ja, sie versuchen zu verhindern, dass sie selber darüber Kenntnis erhalten, wie dieser Vergleich ist. Sie sagen im Übrigen auch in ihrem. Ähm in ihrem in ihrer Technologie Summery äh Dokumentes, habe ich's nicht komplett durchgelesen, ist ziemlich lang, wo sie eben so verschiedene Angriffsszenarien, auch ähm. Beschreiben und wie sie denken, wie ihr System dagegen äh resistent ist, dass unter anderem diese Listen, mit denen sie arbeiten, von zwei Organisationen kommen müssen, wobei sie jetzt noch nicht gesagt haben, wer denn jetzt bitte die zweite Organisation ist Ja, also ich spreche jetzt, dass ihr mit dieser NCMEC zusammenarbeiten. Auf der anderen Seite sagen sie aber auch, dass sie quasi die Listen aus zwei Quellen haben wollen und dann nur die Idetyfire benutzen, die eben in beiden Datenbanken drin ist, aber fehlt mir noch ein bisschen die Information, was diese zweite Organisation ist und ähm jetzt, müsste man sich halt überlegen, okay, auf welche Art und Weise könnte dieser öffentlich dokumentierte Prozess missbraucht werden? Ich meine, in dem Moment, wo ein Unternehmen, im Geheimen irgendwas macht.
Linus Neumann
Indem sie jetzt einfach zu dem nächsten verpflichtet werden. Ist doch, also zwei Organisationen, die sagen, das sind jetzt hier Terrorinhalte. Es geht ja nicht darum, es geht nicht um einen Ist-Zustand, der ist, es ist ja immer so, dass solche Technologien mit einem also schleichend eingeführt werden, äh anhand eines Themas, ähm bei dem alle sich einig sind, dass das schon, hier eine eine sagen wir mal angemessene Abwägung stattfindet, ja? Ähm das ist natürlich naheliegend und auch, Ich sage natürlich auch, ich habe hier nix zu verbergen, äh ich habe auch keine nennenswerte Befürchtung hier durch dieses System drangsaliert zu werden. Man redet sich das natürlich klein mit einer unglaublich geringen, Wahrscheinlichkeit ähm im Betrieb sind irgendwie, weiß ich nicht, über eine Milliarde iPhones auf diesem Planeten, wenn ich das wenn ich mich da nicht täusche, die Leute machen Bilder am laufenden Band. Egal wie klein die Fehlerwahrscheinlichkeit ist, sie wird in absolut Unmengen an Zahlen landen äh äh zu zu absolut sehr großen Zahlen führen, egal wie klein die Fehlerwahrscheinlichkeit ist, gegen äh wir weiten dieses System auf andere Themenbereiche aus, ist eben jede technische Implementierung nicht ähm nicht gewachsen. Also da können ja noch so viel schreiben.
Tim Pritlove
Ja gut, sagen wir mal, du bist ein Fotocloud-Anbieter, ja? Du, du bietest jetzt diesen Dienst Leuten an. Dann ist deine Position, dass sozusagen du keinerlei Verantwortung für die Inhalte hast, die die Leute dort speichern.
Linus Neumann
Absolut. Und äh ich sollte auch weiterhin keinen Einblick haben in die Inhalte, die die die Leute dort speichern. Und ich kann das auch begründen.
Tim Pritlove
Okay und jetzt sagen wir mal jetzt weiß man dann irgendwann, ja, dass dieser Speicher massenhaft zum speichern von diesem Caesar-Material verwendet wird von Leuten.
Linus Neumann
Das äh also diese Frage, also ich muss mal ganz ehrlich sagen, so ähm wenn man das weiß, woher weiß man es denn? Stellt sich doch schon die Frage, dürfte man doch gar nicht wissen. Ich stelle das übrigens auch in in ich ich ziehe das in Zweifel, dass das der äh dass das äh bei Apple der Fall ist. Also ich kann mir, ich meine, du müsstest schon wirklich echt mit einem Klammerbeutel gepudert sein, um äh um derartige Materialien in deine Privatcloud zu zu laden. So ähm, also die Befürchtung, dass das passiert, ja, durchaus klar, kann sein, ähm aber ich kann, ich sehe, sehe keine Zahlen, dass es tatsächlich stattfindet.
Tim Pritlove
Aber wie kann es dann sein, dass Facebook zwanzig Millionen Fälle meldet in einem Jahr.
Linus Neumann
Da bin ich also das ist also bei Facebook reden wir auch von einer Veröffentlichung, ne? Und jetzt ich äh es gibt auch einen entscheidenden Unterschied von zwischen Facebook und Apple. Und der, denke ich, ist hier ähm relevant. Wenn du dich in einer Facebook, also die werden ja nicht. Ich habe keine Ahnung von Facebook oder ich habe keine Ahnung von ähm Sesam, ja. Aber die werden ja nicht äh morgens aufstehen und sagen, äh hier, was weiß ich, schönen guten Morgen. Guck mal hier, schönes Bild. So, das werden wir nicht tun. Die werden im Zweifelsfall irgendwie Facebookgruppen äh oder andere derartige Wohnzimmer, die andere Menschen ihnen bereitstellen, nutzen und machen dort, Auf jeden Fall irgendeine Art, der zugänglichmachung. Ja, die, die einzige Weg, etwas, also der einzige Grund, warum etwas bei Facebook landet, ist, dass du es mit mindestens einer weiteren Person teilen möchtest. Ja, wenn wenn du es für dich hältst, dann bist du bei Facebook falsch. Ja? Und die Foto Library deines privaten, Smartphones ist deine persönliche Fotolibray. Und zwischen den beiden gibt es einen Unterschied, und zwar einen fundamentalen. Und wir haben ähm. Ohnehin, ja, also meine ersten Computer, ja, die waren für mich offline, auch. Eingeschränkt brauchbar, ja? Mit denen konnte ich, was weiß ich, irgendwelche Spiele äh spielen, dafür brauchte ich keine Mode im Verbindung oder ich konnte ein Word-Dokument bearbeiten und brauchte äh keine keine Onlineverbindung damit. Diese ähm diese Tendenz überhaupt, Personal Computer zu haben, weicht grade massiv auf. Und ähm und zwar durch diese ganze Klauderei und natürlich auch das das äh ja das Nutzungsverhalten, natürlich interaktiver geworden ist, ne, man irgendwie die ganze Zeit auf sein Essen fotografieren muss für Instagram und Selfies von sich selber veröffentlichen muss und so. Klar. Aber es gibt eben auch nun mal die private Nutzung und es gibt Dateien, die möchte ich auf meinem Computer speichern und ich muss, sicher gehen, absolut sicher gehen. Ähm beruflich oder äh journalistisch oder sonst was, dass diese Datei niemals meinen Computer verlässt. Und ich muss meinen Computer einhundert Prozent vertrauen können, dass der nicht meine Dateien scannt, ja? Äh einer der Gründe so und heute hast du eine, hast du eine Situation, wo du was weiß ich, irgendwelche Cloud basierten Virenscanner hast, die dir am laufenden Band irgendwelche Dateien zu Virus Toy werfen, ohne mit dir darüber gesprochen zu haben, äh du hast äh deine Foto Library. Liegt auf anderen Servern und wird dort synchronisiert deinen Apple Notes, deine äh wenn du nicht aufpasst, lädt der deine Passwörter bei denen in die Cloud. Und das, was du zurecht als privaten. Ähm als privates Gerät auch wahrnimmst, ja ähm erodiert, zu einer Plattform, wo alle möglichen Daten gesammelt werden. Ja, das ist äh schon dramatischer heutzutage gebe ich gerne zu, wenn du dich zum Beispiel in in einem Standard-Google-Kontext äh befindest, äh mit einem Android-Telefon, ja? Ähm, und das ist immer noch. Eine krasse Veränderung, wenn du dich irgendwie in diesem Apple-Bereich befindest. Du hast ja auch kürzlich werde ich mich nicht täusche, darüber, dich, äh, geärgert, dass die äh HomePots äh ohne Internet überhaupt nicht mehr zu bedienen sind, nicht mehr nutzbar sind.
Tim Pritlove
Ja, okay, aber das ist jetzt, das ist, führt mir jetzt, ehrlich gesagt, ein bisschen in die falsche äh äh Richtung so. Äh abgesehen davon kannst du dieses i-Cloud-Fotos Dieses Hochladen in deren Cloud abschalten, dann greift diese Methode nicht. So an diese Methode greift nur für die Leute, die ihre Cloud benutzen. Greift nicht für Leute auf, die auf ihrem Telefon irgendwas speichern. Und ihre Überprüfungsmethode ist ja auch eine Überprüfungsmethode, die auf dem Telefon überhaupt keinerlei Entscheidungen fällen kann. Sondern es geht sozusagen nur in der Cloud. Das kannst du tausendmal argumentieren, dass das ja auch alles anders sein kann Das ist die Methode, die sie jetzt öffentlich dokumentiert haben. Das ist ihre Ansage, das ist das, was wir tun wollen und aus folgenden Gründen ist das irgendwie durch Security-Resserch auch überprüfbar, da kann ich mich nicht zu äußern. Das haben sie jetzt irgendwie da in ihren Dokumenten äh behauptet. Es gibt da irgendwie diverse Papers, die da beiliegen, aber das habe ich jetzt nicht alles durchgelesen und das würde ich wahrscheinlich auch nicht alles unbedingt verstehen. Ich wollte aufhören auf was anderes hinaus und das ist eine Perspektive, von der ich finde, dass wir sie auch mal beachten müssen, weil sie nämlich Teil dieser öffentlichen Debatte ist. Und wenn man in dieser öffentlichen Debatte auch ein Punkt vertreten möchte, wie auch immer dieser Punkt ist, ja? Muss man den einfach berücksichtigen. Und deswegen habe ich gesagt, was ist, wenn du ein Anbieter bist? Jetzt sage ich mal, was ist, wenn ich ein Anbieter bin, Ich stelle jetzt diesen Space für die Leute bereit. Und mir kommt es zur Kenntnis, dass der eben dafür verwendet wird. Habe ich damit ein Problem. Ist das für mich moralisches Problem, ist vielleicht kein legales Problem. Vielleicht gibt's diese Gesetze nicht und so weiter, aber habe ich als Anbieter ein Problem damit? Ist das für mich sozusagen wichtiger, dogmatisch zu sagen, mit. Ja nee, äh mir doch egal, was ihr macht. Ja, oder äh dringt in mein Gewissen, äh die Erkenntnis rein. Das, was ich jetzt hier mache und womit ich Geld verdiene, trägt auch dazu bei, dem Treiben, Vorschub zu leisten, weil ich denen eine Dienstleistung anbiete. Und wir haben oft solche Diskussionen, Bitcoin, was das irgendwie trägt und so weiter. Kann man irgendwie Kryptosysteme, die völlig anonym sind, ist das sozusagen moralisch haltbar. Ja, legal mag das alles sein, aber ist das, ist das moralisch vertretbar, dass man das äh sozusagen gegen alle politischen Versuche, das zu regulieren verteidigt, Wenn man gleichzeitig weiß, was dadurch auch ermöglicht wird, das sind abwägen. Und in dem Fall und ich sage dir das auch ganz ehrlich. Mia, wer das nicht egal. Mir wäre das nicht egal und jetzt muss ich quasi ein, ein Weg finden, wie ich das, wie ich das balanciert bekomme. Und die eine Möglichkeit wäre, ich stelle den Dienst ein. Ja, das wäre definitiv die eine Methode und es gibt einiges in meinem Leben, was ich nicht tue oder weil ich das Gefühl habe, dass das für die Gesellschaft in irgendeiner Form, schädlich wäre. Deswegen tue ich diese Dinge nicht. Ich weiß, dass andere Leute die Dinge tun, die müssen das irgendwie mit mit ihrem eigenen Herzen und Kopf äh für sich bewerten, aber ich tue sie deshalb halt nicht. Und in dem Fall wäre das natürlich eine Fragestellung, ich mir auch stellen muss. Und das gilt sicherlich nicht nur für das Thema, aber es gilt auch für dieses Thema. So und das ist glaube ich auch die Fragestellung, die sich Apple stellt an der Stelle. Das nehme ich ihnen einfach an der Stelle aber auch wirklich mal ab, Ja, weil ihre Geräte sind halt in der Hand von vielen Kindern. Ihre Geräte sind eben ein Kommunikationsbeschleuniger. Und so viel Gutes das tut und so viel äh Privates das schützt und so weiter, wissen sie auch, dass eben Missbrauch auch stattfindet. Und die Frage, die sie sich gestellt haben. Und das ist jetzt quasi die Antwort, die sie darauf gegeben haben, ist, gibt es dort etwas, was wir tun können, um unser moralischen Verpflichtung und teilweise eben auch unserer legalen Verpflichtung, damit äh auch äh gerecht zu werden. Und jetzt haben sie halt ein. Einen technischen Weg gesucht und meinen, den jetzt gefunden zu haben, der in dieses moralische Handeln ermöglicht, Mit der Behauptung, dabei eben die anderen Sachen, die ihnen genauso zu wichtig sein scheinen, wie Privatsphäre, nicht zu verletzen.
Linus Neumann
Wenn du. Diesen Cloud-Service anbietest, Tim, ne? Den, den du ja jetzt äh für dich annimmst, dann wirst du dann tatsächlich machst, ist, du vermietest Festplattenplatz, ja? Du hast ähm Server mit Festplatten drin, vielleicht sogar mit einer kleinen SSD oder so. Und ähm du hast ein Geschäftsmodell daraus entwickelt, eine gewisse Menge Speicherplatz auf diesen Servern, deinen Kundinnen und Kunden für einen bestimmten monatlichen Beitrag, zur Verfügung zu stellen. Das ist das, was Cloud bedeutet. Ja? Und. Wenn du argumentierst, dass du dass dass dann für dich ein Problem ist, welche Bits die Menschen auf diesen ähm Festplatten speichern, dann kann ich das äh kann ich durchaus verstehen, ja, dass man solche, dass man. Einen solchen Service vielleicht ungerne. Anbietet, ja? Aber du gehst jetzt auch davon aus, als wäre das hier die hauptsächliche Nutzung. Und das ist ja äh mit mit Sicherheit nicht der Fall.
Tim Pritlove
Nein, das habe ich damit nicht gesagt. Das ist die hauptsächlich ist.
Linus Neumann
Ganz kurz, bei den Festplattenthemen zu bleiben. Ähm ich muss weil hier wieder so ein scheiß Festplatte kaputt ist. Ich muss jetzt mir wieder neue holen oder wenn ich Glück habe, kriege ich die noch äh kriege ich die noch ersetzt von äh Western Digital, weil die, in der Regel ja nach einem Jahr gehen, aber zwei Jahre Garantie haben. Äh das heißt, einmal kann man die kostenlos austauschen. Muss jetzt wahrscheinlich bald wieder Festplatten kaufen. Und da sagt Western Digital auch nicht, das darfst du darauf speichern und das nicht.
Tim Pritlove
Ja äh mir sagt auch Heckler und kocht nicht, dass ich mit ihrem Maschinengewehr äh äh nur Bösewichte erschießen äh darf. Verstehst du? Das ist genau dasselbe.
Linus Neumann
Doch und da ist jetzt genau, da ist aber der entscheidende Unterschied. Wenn du, wenn du äh Festplatten herstellst, dann kannst du. Sehr gut in dem Wissen schlafen, dass deine Festplatten größtenteils relativ harmlose Bits und Beids speichern. Und zwar in sehr überwiegendem Ausmaß. Wenn du Heckler und Koch bist. Dann kannst du dich eventuell noch damit trösten, dass deine Waffen. In in einem gewissen Prozentsatz äh der Fälle ähm ihr Ziel verfehlen und deshalb nicht ganz so viele Leute töten. Die sind aber fürs Töten gemacht worden. Und ähm dann. Kannst du vielleicht auch sagen, okay, wir haben eine moralische äh Verpflichtung, der wir nicht gerecht werden, weil wir nun mal äh tödliche Waffen in die Welt setzen. Das ist, ne? Und das kann auch dich zum Beispiel dazu führen, bestimmte Services, zu unterstützen oder nicht, ja? Zum Beispiel, was weiß ich, das Tornetzwerk. Kann sein, dass du das Tor finde ich irgendwie total geil, ich möchte ich ich investiere in Server um Exit-Notes oder Middle-Notes oder sonst was zu betreiben oder du kannst irgendwann zu dem Eindruck gelangen, dass dass das ein System ist, zu dem du nicht mehr beitragen möchtest. So, das äh sind jetzt so, da würde ich deine Argumentation so werten. Aber wenn du ein Fotocloud hast, wo wo der größte, der größte Teil der Inhalte wahrscheinlich Selfies, Mittagessen und irgendwelche Fotos von von niedlichen Tieren sind. Und sagst, okay, es gibt einen winzigen Prozentsatz der Menschheit, die potenziell darin Inhalte haben, die mir nicht gefallen, ja. Dann aber auch nur spezifische Inhalte, die mir nicht gefallen, weil es ja relativ viele Inhalte gibt, die mir vielleicht persönlich nicht gefallen. Wahrscheinlich gefallen mir die meisten Foto Librarys nicht die Leute haben. Ähm, dann zu sagen, ja okay, die äh darfst du aber nicht haben. Das finde ich übrigens nicht klar genug gemacht bei diesen Cloud-Anbietern genauso ähm, inakzeptabel. Die sagen dir aber nicht, äh oder die täuschen dir nicht vor, sie wären an deiner Privatsphäre interessiert. Und ich sehe das wirklich ähm. Nicht so. Nicht so gut, was die da machen, weil ich auch wirklich da dahin gehe und das wird, wird vielleicht vielen Leuten nicht gefallen. Das, ich davon ausgehe, dass das wirklich halt im Promillebereich äh oder oder weit weiter runter noch befindet, die Nutzerinnen, die die vielleicht derartige Materialien auf ihr iPhone laden. Und ähm dass das eben die die die ähm in einem Bereich ist, dass der nicht. Diesen schwerwiegenden Eingriff. Wir bauen jetzt einen Scanner in deine Hardware ein und du kannst den da nicht rauskriegen und wir prüfen deine Bilder und du kannst deinem dein dein Gerät arbeitet potenziell gegen dich im Fehlerfall.
Tim Pritlove
Wann, ab wie viel Prozent ändert sich dein moralischer Kompass an der Stelle, also fünf Prozent, zehn Prozent, zwanzig Prozent.
Linus Neumann
Ja ich würde wahrscheinlich irgendwo in diesem Bereich gehen, ja.
Tim Pritlove
Okay, also ein Prozent ist okay.
Linus Neumann
Mir fünf, also.
Tim Pritlove
Von Milliarden, an.
Linus Neumann
Unter fünf Prozent als das äh ähm als das äh ähm seltene Ereignis definiert. Und wir reden hier von Bruchteilen davon, Aber wir reden davon, dass diese diese Scanner auf äh ja Milliardentelefone kommen. Und eben das äh Missbrauchspotential durch andere juristische Anforderungen haben. Du hast da, weißt du, du sagst jetzt hier, okay, das gilt nur in den USA der wird ja jetzt sicherlich nicht China sagen übrigens Apple. Wir haben gesehen, ihr habt da was Schönes. Äh wir haben uns überlegt, folgende Inhalte könnt ihr mal für uns löschen. So, das wird ja bestimmt nicht passieren, dass ja sonst auch nie passiert. Also solche Technologien baut man halt nicht, ja? Das ist der der gleiche Grund, warum du bestimmte Technologien nicht baust, die eben vielleicht sehr gut dafür geeignet sind, hier zu verteilen, ne? Dann entscheidet man sich, okay, so etwas baue ich nicht, weil ich eine Technologie baue, die massiver ähm. Massiven Missbrauch. Vorschub leistet und fast dafür gebaut wurde, nur missbräuchige Nutzung anzuziehen. Und das ist ja jetzt eine iCloud-Foto Library eben nicht.
Tim Pritlove
Naja, es du sagst jetzt im Prinzip so eine Millionen Leute, die das machen, ist okay.
Linus Neumann
Nein, das sage ich nicht, Tim, so soll das auch jetzt einfach unlautern, das sieht man auch sehr genau nachfühlen. Ich habe gesagt, ist ein ähm im Promillebereich befindet sich das und das ist äh es äh sind also sehr, sehr wenige Menschen, die das tun. Und ähm wenn das äh ähm. Die, Die Maßnahme betrifft immer die Grundgesamtheit, ja? Und du kannst natürlich sagen, äh der Linus toleriert eine Million Menschen, die so etwas tun. Nein, der Linus will eine Milliarde Menschen, die das nicht tun, davor bewahren, dass ihre Hintertür bekommen.
Tim Pritlove
Na ja, jetzt ist halt die Frage, was ist eine äh Hintertür, eine Hintertür ist etwas, wo jeder äh unkontrolliert reingehen kann? Und das ist es ja an dieser Stelle nicht.
Linus Neumann
Na ja, ich habe ja schon jetzt mehrmals versucht zu erklären, dass es eben eine ein sich beugen nach juristischen Anforderungen ist äh ein ähm letztendlich äh Schwächen ähm von Verschlüsselungsmethoden, eine Verletzung der des Privatsphäreversprechens und es ist, denke ich, unstrittig, dass, andere Kulturbereiche mit anderen mit anderen Vorstellungen davon, was du auf deinem Gerät haben sollst oder nicht. Äh diese Technologie ebenfalls für sich beanspruchen. Werden.
Tim Pritlove
Ja, also Verschlüsselungsmethoden werden ja hier nicht geschwächt. Das ist ja schon mal ein interessanter Eigenschaft davon, muss man jetzt äh auch mal so sehen. Und tatsächlich könnte das sogar auch eine Methode sein, die es Apple wiederum ermöglicht, diese ganze ICloud-Speicherei eben sogar noch sehr viel besser zu verschlüsseln, weil sie dann trotzdem ihren Anforderungen noch gerecht werden können. Dadurch, dass sie quasi diesen Scheck kryptografisch auf den Zeitpunkt des Uploads, ja verlagern, können sie alles andere verschlüsseln, ohne sich dort ähm zwingen zu lassen, dafür eine Vektor anzubieten Man kann es also auch genauso gut so sehen, dass es unter Umständen ein Pfad ist, der explizit das Einrichten von Pektors auch verhindern kann.
Linus Neumann
Weil er eine Vektor ist, dass er mit der gleichen Argumentation äh also wir diskutieren in in zwei Folgen vorher darüber, dass die EU ähm äh EU EU mit dieser Chatkontroll Initiative in die deine Chat scannen möchte in in verschlüsselten Messengern und das nicht darf, ja? Also solche Technologien, bieten wir aus gutem Grund. Ja, das ist verboten. Deswegen, weichen sie ja die E-Privacy-Detektive auf, um das zu tun. Also sie verletzen äh und es ist exakt das Gleiche, ja. Sie verletzten ähm es trifft ja hier auch auf Messages zu. Sie verletzen äh dann äh, damit quasi Gesetze, von denen sie vorher eigentlich relativ sicher waren, dass die gut sind. Und neben der, nehmen uns damit Rechte und Schutzrechte weg, Ja, das ist und es ist die gleiche Technologie, also das, was unter Chatkontrolle äh diskutiert wird, ist ähm, vielleicht in in technischen Details ähm, noch unterscheidbar von dem was Apple jetzt hier sehr genau schon mal formuliert hat, aber es ist von der von der gesellschaftlichen Wirkung, von der Initiative her genau das Gleiche. Und auch da werden. Weiß ich nicht, wie viele Milliarden blöde Nachrichten versendet jeden Tag, ja? Und die werden alle von diesem Scanner untersucht werden. Und da findest du das, glaube ich, auch nicht in Ordnung.
Tim Pritlove
Das ist ja auch noch eine andere Sache. Die Frage ist ja immer, wem gibst du Zugang? Also wer hat sozusagen Zugang zu diesem System? Ja, also wer hat überhaupt Zugang zum Handling dieser Nachrichten? Und gibt es eine Möglichkeit Das ist ja die die Frage. Gibt es eine Möglichkeit, ein eine moralische Verantwortung, die man gegenüber der Gesellschaft auch hat in irgendeiner Form so zu implementieren, um das andere nicht in Gefahr zu bringen, Das ist ja die Frage, die jetzt an dieser Stelle im Raum steht. Du bist jetzt auf der stringenten Grundmeinung mit nichts darf da jemals getan werden. Du sollst das alles in Gefahr, Kann ich auch verstehen, weil so wie es halt meistens auch gehandhabt wird, bringt es eben die Sachen auch in Gefahr. Ich sage nur. Ich denke, es ist wertvoll, die die angezeigt, Lösungen auch separat zu analysieren, weil sie halt unter Umständen gerade auch einen Weg aus dieser Falle heraus zeigen können. Dass man sagen kann. Hör mal, ich weiß, ihr habt da irgendwie jetzt den Druck hier alles aufzumachen und ihr wollt die die dicken Backdoors einbauen, ja? Aber, Wir können euch auch unter Verwendung von kryptographischen Systemen einen Weg zeigen, wie äh das alles nicht erforderlich ist und trotzdem wird das, von dem ihr immer behauptet, was ihr tun wollt. Und nur das wird realisiert und damit nimmt man ihnen natürlich auch das Argument, Raus, weil gerade dieses Problem, das halt über Material, Zugriff erlangt werden soll auf alles andere, ja? Da ist es ja eigentlich ein ganz eleganter Gedanke zu sagen, Ist alles überhaupt gar kein Problem. Gucke mal, wir haben hier eine Privatsphäre schon äh Methode herausgefunden, wie man das ganz gezielt rauslösen kann und nur genau das, ja? Und deswegen braucht ihr alles andere nicht zu machen. Das mal. In den Raum gestellt. Wir müssen diese Debatte jetzt nicht abschließen und, und, und, und äh auf einen Punkt bringen, sondern ich würde gerne diesen Gedankenraum an der Stelle auch äh offen lassen können.
Linus Neumann
Okay, ähm Apple-Mitarbeiter äh wenden sich auch dagegen. Wer möchte, kann sich noch ein paar Sachen. Angucken, aber es gibt einfach manchmal Dinge, die sollte man lieber nicht bauen, egal wie schön und elegant man sie baut, ja? Das äh, denke ich, sollte man, so erkennen und das haben wir zum Beispiel auch gesagt bei der Luca App, ja, wo klar war, dass es ein zentrales System und das ist keine gute Idee äh und die kann man auch nicht gut machen, dadurch, dass man halbherzig noch irgendeine Verschlüsselung dran kloppt, kloppelt. Und jetzt langsam so, langsam, langsam, langsam häufen sich dann jetzt auch die Berichte. Und darüber, dass die tolle Luca-App, von der immer gesagt wird, die funktioniert, äh, nicht funktioniert, ja, in Bad Doberan gab es eine, Party mit ursprünglich zwei Corona Infizierten. Inzwischen sind dort äh elf positive Fälle und die kommen nicht an die Luca-Daten. Ist nicht der erste Fall. Ich hatte das auch hier in der Sendung sofort gesagt dass eben sagt, okay, wir verschlüsseln, die Leute müssen dann auf diesen Schlüssel aufpassen und dass die ähm. Anbieter quasi, also die die Locations. Die sind Schlüssel eben sicher verwahren müssen. Und ein Schlüssel sicher zu verwahren ist ein, Ist ein Problem, das wir alle kennen, ja? Es gibt kaum eine Person, die nur einen PGP hat, weil alle beim ersten Mal einen generieren und den verlieren, ja? Also jede PGP-Nutzerin oder eine größere Teil der PGP-Nutzerin hat zwei Schlüssel, weil sie den ersten irgendwann mal verloren hat und dann gelernt hat, ach so, Scheiße, wenn man den wenn man den verloren hat, äh kann man gar nicht äh mehr entschlüsseln. Da hätte ich ja vorher wissen müssen, steht da auch Groß und Rot? Ja, insofern ist das ein ein klares Problem, dass wenn man heutzutage mit Leuten eine Verschlüsselungstechnologie anbietet, dass man sich sehr viel Mühe geben muss, sie dahin zu natschen auch wirklich die Schlüssel sicher zu verwahren. Machen zum Beispiel auch so einen Messenger wie Signal, äh dass sie äh versuchen dich zu einem Schlüssel-Backup zu äh zu bringen oder dass sie dir halt irgendwie eine PIN aufschwatzen und dich äh dich dann regelmäßig an die PIN erinnern, damit du die nicht verlierst oder sonstiges. All diese äh dieses Wissen hat äh darauf verzichtet, Luca und äh Daniel ist noch viel besser. Jetzt ist es also so, dass diese Betreiberin von dieser Diskothek da nicht an den Schlüssel kommt, ist auch nicht der einzige Fall. Dann geb die sogar noch den Location-Betreibern daran die Schuld. Ja, also die sind sich noch nicht mal zu fein, die dann eben auch äh, ähm denen den Fehler zu unterstellen. Jetzt ist es in diesem Fall sogar so, dass der Anbieter hier dementiert den äh Schlüssel verloren zu haben. In ähm. Im bayrischen Rundfunk äh wird viel darüber berichtet, dass es hier keine äh keine vernünftige, Sommers Anbindung gibt, dass zu viele Daten gesammelt werden, also zu viele Daten da rausfallen, also diese Datensammlung als solche keinen Sinn macht, alles Dinge. Die wir schon besprochen haben und es gibt eine sogar vom Spiegel jetzt im im Printspiegel eine, Story, wo viele Gesundheitsämter gefragt werden und, die Mehrheit der Gesundheitsämter, für die das ja sein soll, ja, die Gesundheitsämter, für die das sein soll, halten die für wertlos und nutzen sie nicht, ja? Es ist nicht ersichtlich, was der Einsatz der Luca-App, bringen würde oder hier äh ein Arzt im Gesundheitsamt Nordrhein-Westfalen äh in der in in Remscheid, in Nordrhein-Westfalen sagt, bisher, kein einziger infizierter gegenüber dem Amt angegeben, die Luca-App benutzt zu haben. Wir fragen alle Personen, die normale Corona-Warn-App ist, immer mal wieder dabei, andere Apps so gut wie nie. Aber sagt er, ist nicht schlimm Denn das würde die Arbeit ohnehin nicht erleichtern, im Gegenteil. Nimmt man einfach mal an, dass wir nach einem Festival mit zwanzigtausend Besuchern alle eingebuchten Besucher abarbeiten müssten, wäre das ohnehin ein Ding der Ohnmachtbarkeit. Festivals mit zwanzigtausend Personen, Nordrhein-Westfalen da veranstaltet. Große Dimensionen, aber ne, das ist halt äh bei einem Festival ist es so, aber das ist auch schon bei einem einfachen Restaurant so, weil du eben nicht alle. Ansteckst. Also hier von Patrick Beuth, Max Hoppenstedt und mehreren anderen Autoren auch nochmal ein Spiegelartikel, online ist er nur, mit Spiegel plus lesbar. Das heißt so langsam, langsam, langsam, merken jetzt alle, äh welchen. Welchem Geschäftsmodell sie hier. Aufgesessen sind. Gleichzeitig ähm lesen sich dann so die die Antworten von den Gesundheitsämtern, die irgendwie pro Luca sind. Die lesen sich echt immer so wie eine Werbebroschüre von Nexenio. Und äh ich glaube, als einziges Land ist da so, Baden-Württemberg noch immer begeistert. Die werden ja nicht müde. Äh auch eigene Promotion. Promotion-Materialien für Nexinio, Luca zu formulieren und äh aber so wirklich die Erfolgsgeschichten bleiben aus und das haben wir ja auch, so
Tim Pritlove
Vorhergesagt.
Linus Neumann
Ähm vorhergesagt. Habe ich heute auch einen äh Journalisten gesagt, der mich danach nochmal gefragt hat. Und dann gab es jetzt die erste äh DSGVO Strafe für Ich vermute, dass es die erste ist ähm für veraltete Software. Da hat ein Unternehmen, das ist auch wirklich ähm bärenstark. Ähm ein ein äh Unternehmen ähm. Webshop betrieben und zwar ähm, XT-Commerce drei Punkt null vier SP zwei Punkt eins und diese Version ist seit zwanzig vierzehn veraltet und wird nicht mehr mit Sicherheits-Update mit Sicherheits-Updates versorgt. Also zweitausendvierzehn, ja, veraltet. Sie und der äh Hersteller warnt ausdrücklich davor, die noch weiter einzusetzen, weil sie erhebliche Sicherheitslücken hat, darunter unter anderem eine SQL Injection, also ein. Angriff, wo man die Datenbanken direkt auslesen kann. Und die niedersächsische, Datenschutzbehörde hat äh ähm recherchiert und ergeben äh herausgefunden, dass die Passwörter dort nur MD fünf, waren, also ein ähm Verfahren, das äh glaube ich als Funktion ohnehin jetzt langsam mal ausgedient hat und ähm. Eben offenbar auch nicht waren. Also für. Einfache Angriff von MD fünf, einfach so im Internet gibt, sehr anfällig, ja? Und äh genau ohne Salt, das ist also wirklich hier ein Verstoß gegen äh etablierte Richtlinien und äh Herstellerempfehlungen und dann haben sie äh, dafür eine hat das Unternehmen dafür eine Strafe bekommen und zwar fünfundsechzigtausendfünfhundert Euro und das Unternehmen hat äh Klug beraten, diese Strafe auch, akzeptiert.
Tim Pritlove
Das will man ja wohl mal meinen, dass sie das akzeptiert, weil sie sich dagegen zu wehren, dürfte etwas schwierig sein.
Linus Neumann
Zugunsten der Firma wurde dabei berücksichtigt, dass diese schon vor dem Bußgeldverfahren den betroffenen Personen äh einen Passwortwechsel nahegelegt.
Tim Pritlove
Wie nett.
Linus Neumann
Schadensmildernde Umstände. Ja.
Tim Pritlove
Ja, natürlich hat er ihn ins Bein geschossen, aber er hat auch Entschuldigung gesagt.
Linus Neumann
Ich habe ich habe vor Jahren auch mal so einen XT-Commerce äh. Und das waren, also seitdem ich das Ding nicht mehr an der Backe habe, schlafe ich auf jeden Fall um einiges ruhiger. Das kann ich dir sagen. Das willst du nicht. Bin jetzt mal, ich frage mich ernsthaft wie also wie der Server überhaupt so lange angeblieben ist, ja, dass denn dass der nicht schon längst irgendwie in in äh strenger äh in strenger anderer Hand war, also das war sicherlich irgendwie. Also ich kann mir nicht vorstellen, dass da nur ein Angreifer auf so einem Server hängt, vor allem weil diese ähm diese Art Angriffe natürlich, also wenn die so alt sind, ähm in jedem automatisierten Scanner sind und einfach von Internet Grundrauschen äh dein dein Hacker äh dein dein Server dann halt gehackt wird. Kann ich gar nicht verstehen, wie der so lange noch an war, ja, dass denn nicht längst irgendjemand ja, keine Ahnung. Wobei, na ja, anlassen, den die Angreifer ja auch.
Tim Pritlove
Ist die Frage, was äh was was da so verkauft wurde, also.
Linus Neumann
Also ich kann mir. Ehrlich gesagt, kann mir nicht vorstellen, dass du, dass dieser Shop noch im Betrieb war. Ich gehe davon aus, dass dir den einfach dass das eine eine Karteileiche war. Kannst mir nicht anders erklären.
Tim Pritlove
Aber da hätten sie ja die User äh nicht benachrichtigen müssen, um ihre Passwörter zu ändern, wenn wenn sie gleich abschalten.
Linus Neumann
Nur weil das sieben Jahre alte User sind, heißt ja nicht, dass du nicht trotzdem deren Daten nicht gesichert hast.
Tim Pritlove
Also nee, also wirklich, die die Leute, die die lassen so was einfach ewig, so lange es nicht komplett äh, wenn es nicht von alleine auseinanderfällt. Ja, dann, dann, dann lasst es, ja, das läuft doch noch. Gucke mal hier, die Farben sind auch immer noch immer noch die gleichen. Ist nicht schlecht geworden. Kein Schimmel, ja. Das Rot ist noch knallig, wird nicht blass.
Linus Neumann
Okay. Jo, so sieht's aus in der Welt des Internets.
Tim Pritlove
Ja und das heißt, das war's äh dann von uns diese Woche. Nächste Woche vielleicht gibt's dann schon den nächsten Statuscode. Mhm.
Linus Neumann
Der, weiß ich gar nicht genau, wer hier das ist, hier sitze ich gerade nicht auf Anhieb gefunden.
Tim Pritlove
Kann ich dir sagen. Hast nicht gefunden.
Linus Neumann
Habe ich nicht auf das jetzt nicht gefunden.
Tim Pritlove
Ah, ich schaue nachher nochmal, ob ich den finde.
Linus Neumann
Können wir noch mal gucken. Ne, ist ja ein Vierer. Könnte ja sein, dass der sich nach einer Zeit wieder äh.
Tim Pritlove
Von alleine.
Linus Neumann
In Wohlgefallen auflöst.
Tim Pritlove
Wie alle anderen Probleme, die wir besprochen haben auch. Kann sein, dass sie sich alle einen Wohlgefallen auflösen.
Linus Neumann
Unwahrscheinlich.
Tim Pritlove
Unwahrscheinlich. Aber nur weil Sachen unwahrscheinlich sind, soll man doch seinen Glauben daran nicht verlieren, oder? Sonst kann man's auch gleich sein lassen.
Linus Neumann
So denn wir wünschen euch einen einen schönen äh Abend.
Tim Pritlove
Oder Tag oder morgen.
Linus Neumann
Bis dahin, ciao, ciao.
Tim Pritlove
Tschüss.

Shownotes

Prolog

Feedback

Status Codes

Ransomware

CDU connect

Impfzertifikate

Apples “Child Safety” Features

Lucafails

DSGVO-Strafe für veraltete Software

187 Gedanken zu „LNP403 Leichte Schläge auf den Hinterkopf

  1. Nachdem mir euer Zwiegespräch zu Apple sehr gefallen hat, und ich mir einbilde, eine grundlegendere Meinungsverschiedenheit entdeckt zu haben, als Anregung:

    Spätestens bei Linus’ Vergleich der Cloud mit physischen Speichermedien, ist mir aufgefallen, dass eurem Dissens in der Bewertung von Apple’s Vorhaben, eigentlich eine unterschiedliche Auffassung und ein unterschiedliches Verständnis der von Apple angebotenen Produkte zu Grunde liegt.

    Die Analogie der Cloud als Festplatten steht ja geradezu paradigmatisch für ein Verständnis von individuellem Eigentum, von Besitz, der nach dem Erwerb in der absoluten Verfügungsgewalt des Käufers/Nutzers verbleibt.
    Daraus leitet sich selbstredend ab, dass der Verkäufer weder Einfluss noch Verpflichtung für das Veräußerte hat. Vielmehr erschiene allein schon die Ankündigung eines Anspruchs auf Limitierung ebendieser Verfügungsgewalt als Limitierung der individuellen Freiheit des Käufers/Nutzers.

    Andererseits schien mir Tim den relevanten, spezifischen Teil der iCloud, so zu verstehen, wie er von Apple zumindest beworben, vermutlich aber auch konzipiert ist – als cloud service, als Dienstleistung.

    Genauso schlüssig wie Linus’ Auffassung, folgt daraus allerdings ein kontinuierlicher Einfluss und eine fortlaufende Verantwortung für die Dienstleistung des Anbieters. Die Besitzverhältnisse haben sich nie verändert. Es gibt einen Nutzer, der jedoch nie zum Eigentümer geworden ist.
    Ähnlich wie man die Update-Verpflichtung von Plastik-Routern, die ihr regelmäßig fordert, als verpflichtende Vorsorge gegen kriminelle Handhabung auffassen kann, könnte man auch auf Apple’s Vorhaben blicken.

    Um es auf den Punkt zu bringen: In eurem Disput geht es schlussendlich darum, ob man durch den Kauf der Produkte auch in deren Besitz kommt, oder lediglich an den Schlüssel, der die Dienstleistungen zugänglich macht.

    Vielleicht auch weil dieses Spannungsfeld von Eigentum und Service häufiger wird (‘everything as a service’) und sich auch zunehmend komplexer gestaltet, hoffe ich auf mehr Streitgespräche dieser Art, gerne auch zu diesem Thema.

    Was gibt es schon grundsätzlicheres in unserer derzeitigen Gesellschaft, als unser Verhältnis zu Besitztum und die Frage der Kontrolle darüber.

    • Ich hätte es nicht besser formulieren können, sehr guter Kommentar. Danke! – Ach ja und sehr gute Diskussion, die ich als apple-fanboy gern weitergeführt sehen würde.

    • Sollten Internet Service Provider fordern, dass über ihre Leitungen nur gescannte Daten laufen? Internetzugang nur für Geräte, die sicherstellen, dass vor einer Verschlüsselung gescannt wurde?

    • Im Grunde stellt sich hier die Frage an welcher Stelle (auf privaten netzgebundenen Geräten) die Grenze zwischen privatem und öffentlichem Raum gezogen wird und inwiefern Aktivitäten im öffentlichen Raum anderen, besonderen Maßstäben zu unterwerfen sind.

      Das Hochladen (und teilen) von Daten auf iCloud sowie auch das Chatten in Gruppen mit mehr als X Personen könnten m. E. durchaus als Aktivitäten im öffentlichen Raum ausgelegt werden, die an bestimmte Voraussetzungen (z. B. Scannen ála Apple) gebunden sind.

      Insofern eine sehr spannende Diskussion über einen nicht einfach zu bewertenden Sachverhalt, die unbedingt fortgesetzt gehört.

  2. Hallo ihr beiden,
    ich kann dich schon verstehen Tim aber ich glaube dein ‚Verantwortungsmeter‘ ist so justiert dass Cloudanbieter vielleicht nicht wirklich der richtige Beruf für dich wäre.
    Der Vergleich mit H&K war für Linus einfach zu kontern (weil zum töten gemacht). Als Alternative biete ich hier Hersteller von Küchenmesser oder Werkzeugen an.
    Stell dir also mal vor du wärst dort Chef. Könntest du noch ruhig schlafen im Wissen das es Menschen gibt die deine Küchenmesser, Hämmer, Äxte zum töten benutzen?

    Ich bin also in dem Fall eher auf der Seite von Linus.
    Was ich gerne noch sehen würde ist eine Beschäftigung und Bekämpfung der Ursachen von Misbrauch, das Dokumentieren dessen, die Psychologie dahinter. Wenn Apple und co darin investieren würden………

    Ich finde es aber gut wie ihr in der Folge beide Seiten beleuchtet und hoffe das die Meinungsverschiedenheit eure Beziehung nicht zu sehr belastet.

    Alles Gute und Danke für euern Content!

    • Ich kann dem Argument auch nicht folgen. Für mich verstößt die Argumentation gegen ein Grundprinzip unserer Gesellschaft, das schon gefärdet genug ist. Mit dem Argument von Tim müsste sich auch der Vermieter (oder das Bauunternehmen deines Hauses) Gedanken über Kindesmissbrauch in der Wohnung machen und mit einer technischen Lösung dafür sorgen, dass er gemeldet wird (z.B. Videoüberwachung die nur dann Alarm schlägt). Später wird das dann auf Substanzkonsum und politische Absprachen ausgeweitet. Dasselbe bei Messengern, der Post etc.

        • M.E. ist ein Cloudanbieter so etwas wie ein Vermieter, und zwar von „Raum“, nicht von Werkzeugen. Ich kann auch in einer Wohnung die Leichen meiner Opfer stapeln, zumindest deshalb wird Vermieten nicht moralisch fragwürdig.
          Viel wichtiger finde ich, dass Kinder mißbraucht werden müssen, damit der Mißbrauch dokumentiert werden kann. Wenn techn. verhindert wird, dass Bilder übers Netz getauscht werden, stoppt das sicher nicht den Mißbrauch. Es ist deshalb ein völlig ungeeignetes Mittel für den vorgegebenen Zweck. Lehrer, Sozialarbeiter, Polizei usw., das nähere Umfeld, kann so etwas verhindern oder aufklären, niemals ein Cloudanbieter oder Apple. Das weiß m.E. auch jeder, der sich mit Gewalt gegen Kinder beschäftigt, deshalb ist das von Anfang an verlogen und ein Vorwand, um Überwachung voran zu bringen. Die Ausweitung auf „Alltagskriminalität“ ist von Anfang an geplant und das eigentliche Ziel solcher Kampagnen.

      • Als Ergänzung zur Mietswohnungsanalogie, weil die Frage nach der Legitimität solcher Maßnahmen immer zu kurz kommt: Es gibt überhaupt keinen Anlass zu vermuten, dass es in meiner Wohnung zu Kindesmissbrauch kommen könnte. Diese Argumentation gilt selbst, wenn es in der Mehrheit aller Mietwohnungen zu Kindesmissbrauch käme. Es ist auch völlig egal, ob meine Vermieterin dieses technische System für irgendwas missbrauchen könnte. Es ist meine Wohnung und ich muss mich nicht dafür rechtfertigen, dass ich dieses System nicht haben will.

        In Bezug auf Apple-Geräte heißt das: Es ist völlig egal, wie viel Prozent der Apple-Nutzer CSAM-Material auf den Geräten haben. Es ist auch völlig egal, ob und wie diese neue Methode missbraucht werden könnte oder nicht. Apple hat keinerlei Anlass zu der Vermutung, dass sich auf meinen MacBook CSAM-Material befinden könnte. Der Besitz eines Apple-Geräts hat überhaupt nichts mit Kindesmissbrauch zu tun. Apple fehlt schlicht die Legitimation. Mit der gleichen Begründung könnte man auch jedes Auto verwanzen („Leute, die CSAM-Material teilen, fahren auch oft Auto“).

        Zum Tims Plattformbetreiber-Vergleich: Hier gilt das gleiche. Wenn du Plattformbetreiber bist, und davon Kenntnis erhältst, dass auf sich auf deiner Plattform CSAM-Material befindet, dann erfährst du davon nicht im Abstrakten („Da könnte irgendwo CSAM-Material sein“), sondern im Konkreten („Da drüben ist CSAM-Material“). Und plötzlich hast du mehr Handlungsoptionen als „Plattform-Abschalten“ oder „Alles-Scannen“. Du kannst im konkreten Fall tätig werden.

        Das ist das alte Problem der Sicherheitsrhetorik. Es geht nicht um ein konkret vorhandenes Problem („Auf diesem Gerät ist CSAM-Material“). Es geht um imaginierte Probleme („Auf allen Geräte könnte CSAM-Material sein“). Und weil man sich vieles vorstellen kann, kann man so auch alles rechtfertigen.

        Für eine unterhaltsamere Erklärung (Achtung, Youtube): https://youtu.be/yyzd_a6vLWY

        PS: Danke Linus, für deinen Widerspruch bei Tims Heckler-&-Koch-Vergleich. Diese Argumentation gehört echt auf den Müll. Computer (Küchenmesser, Hämmer…) sind für alles Mögliche geeignet, ein Sturmgewehr ist zum Töten und nur zum Töten da. Der Kauf eines Küchenmessers rechtfertigt keinen Polizeieinsatz, der Kauf eines Sturmgewehrs vielleicht schon.

        • Ich kann mich dem nur anschließen, will aber auch nochmal sagen, wie gefährlich ich Tims Argumentation im filehoster Beispiel finde:
          das abstrakte „mir kommt es zur Kenntnis, dass [mein filehoster Angebot] dafür [ CSAM ] verwendet wird„, da habe ich doch eine Verantwortung und muss was tun ist m.E. schlicht falsch. Die entscheidende Feste ist doch, wie kommt mir das zur Kenntnis? Gibt’s einen konkreten Fall, auf den ich aufmerksam werde? Dann tue ich da konkret was!
          Bekomme ich aber viele vage Hinweise, ohne was konkretes, z.B. Emails von Axel V.: „ganz schlimme Sachen passieren auf ihrem Service“
          Ich: „ja, was denn?“
          Axel V.: „ja eben ganz schlimme Sachen“
          Ich: „ja woher wissen sie denn das?“
          Axel V.: „wurde mir von meiner vertraulichen Quelle Horst S. berichtet „
          … usw.
          Dann mach ich da dich lieber gar nix!
          Auf Zuruf Accounts oder Content vorsichtshalber sperren, wollen wir ja eher nicht!

  3. Ich finde es gut, dass als Gegenpol zu Linus, hier auch ein Mitarbeiter von Apple zu Wort kommt. Wir wollen ja beide Sichtweisen hören.

  4. Ich finde es etwas traurig, wie unreflektiert hier mit der Corona-Impfung umgegangen wird. Die Datenlage pro Impfung ist nach meiner Einschätzung etwas schwach. Länder wie Großbritannien und Isreal haben gezeigt, dass eine hohe Impfquote offensichtlich nicht zur Eindämmung der Pandemie beiträgt. Eine Studie in Massachusetts hat herausgefunden, dass geipmfte infizierte offenbar die gleiche Virenlast tragen wie ungeipmfte und wohl im gleiche Maße zur Verbeitung beitragen. (Hier waren sogar fast drei Viertel der Infektionen bei Geimpften, wobei ich das jetzt nicht sonderlich hoch bewerten würde, da unklar ist wie die Gruppe ausgewählt wurde.)

    Die Impfung wirkt offensichtlich bei den geimpften Personen selbst (weniger schwerer Verlauf im Falle einer Infektion), von daher soll jeder selbst entscheiden ob er sich impfen lässt. Ihr sprecht mir diese Entscheidung ab, wenn ich geipmft bin habe ich alles richtig gemacht, wenn nicht bin ich ein Idiot der nichts kapiert hat. Wenn ihr das behauptet, dann belegt es gefälligst auch, sonst seid ihr keinen Deut besser als diejenigen die behaupten man würde mit der Impfung gechipt. Ich halte es auch für verantwortungslos mit Stadienbesuchen oder ähnlichem zu werben, große Menschenansammlungen stellen offenbar immer noch eine Gefahr dar, wie die EM gezeigt hat. Ihr habt eine gewisse Reichweite und damit auch eine Verantwortung, werdet dieser gerecht, so wie ihr das bei technischen Themen ja auch selbstverständlich tut.

    • Israel hat doch gar keine hohe Impfquote? Die haben grade mal 5% mehr als Deutschland.
      Außerdem war das Ziel der Impfung ja auch nicht, dass sich niemand mehr mit Corona infiziert, sondern, dass es keine schweren Verläufe mehr gibt.
      Weiterhin ist aktuell die Datenlage sehr dünn, was die Frage angeht, ob die Leute die zur Zeit auf Intensivstationen z.B. in Israel liegen, geimpft sind oder nicht.

      • Wenn das das Ziel war, dann wurde es erreicht, gut. Worauf ich hinaus will ist, dass argumentiert wird, dass die Pandemie mit der Impfung eingedämmt wird und das ist scheinbar nicht der Fall. Also entweder man wirbt nicht mit diesem Argument, oder man überprüft es mal auf Validität.

        • Ich finde hier wird gar nicht unreflektiert damit umgegangen und wenn mal deutliche Worte gefunden werden für Unbelehrbare dann ist das vollkommen in Ordnung. Braucht sich keiner drüber beschweren.
          Die Datenlage ist eindeutig, schwere Fälle insbesondere Todesfälle treten deutlich weniger auf, schwere Nebenwirkungen auf Grund der Impfung gibt es quasi nicht, hier bezugnehmend auf die Anzahl der weltweit geimpften Menschen.
          Dass die Pandemie auf Grund der Impfungen noch nicht besiegt liegt an den Personen die sicht impfen lassen. Die Impfquote ist überall noch nicht ausreichend, dass wurde auch von ernsthaften Wissenschaftlern nicht behauptet, dass eine Impfquote von 65% ausreichend sein würde. Das schwirrt nur in den Köpfen, mehr impfungen weniger Ansteckungen stimmt hier erst ab einer höheren Impfquote und das war von vornherein klar.

          • > Dass die Pandemie auf Grund der Impfungen noch nicht besiegt liegt an den Personen die sicht impfen lassen.

            Das wird immer behauptet, nur gibt es dafür leider keinerlei Beweise, nicht mal stichhaltige Indizien. Ohne das zu belegen so auf die Kacke zu hauen ist einfach nur Stimmungsmache.

            Ich bin davon überzeugt, dass die Impfung dem Geimpften hilft, das ist ja auch durch weniger schwere Verläufe belegt, was mir fehlt ist hier eine differenzierte Betrachtung. Nur weil die Impfung dem Individuum hilft, ist sie noch lange nicht gut um die Verbreitung zu stoppen. Das Problem hat meiner unwissenschaftlichen Einschätzung nach z.B. die Grippeimpfung.

            Ein möglicher (zusätzlicher) Grund für die steigenden Zahlen wäre z.B., dass geimpfte wunderbare Überträger sind, das aber nicht so leicht auffallen kann, da diese sich nicht mehr testen müssen.

            Mein größtes Problem ist, dass offenbar nicht versucht wird verlässliche Zahlen zu bekommen, sondern stumpf die Parole Impfen gedroschen wird. Es soll ja weiter geimpft werden, aber man darf nicht für alles andere Blind sein. Den Eindruck habe ich aber mindestens von unserem Gesundheitsminister und ebenso von einer Großzahl der Leute die Andere deswegen anschnautzen ohne dabei Argumente zu liefern (wie du).

            > Die Impfquote ist überall noch nicht ausreichend, dass wurde auch von ernsthaften Wissenschaftlern nicht behauptet, dass eine Impfquote von 65% ausreichend sein würde. Das schwirrt nur in den Köpfen, mehr impfungen weniger Ansteckungen stimmt hier erst ab einer höheren Impfquote und das war von vornherein klar.

            War das so klar? Mir nicht. Ich habe etwas von 60-70% für eine Herdenimmunität in Erinnerung, aber ich mag mich täuschen.

  5. Die Ausführung von Tim zum unfassbaren Eingriff in die Privatsphäre sind einfach hanebüchen. Ich halte auch Intentionen von Apple für hanebüchen. Das ist nichts anderes als Installation einer weiteren Überwachungstechnologie.
    Wenn dir Tim die Erkenntnis kommt, da wird auf deinen Servern verbotenes gespeichert, dann leitest du das an die Polizei, die wiederum Richter bemüht um bessgte Personen, und twar nur diese zu durchleuchten. Mich in dieses prophylaktisch zu durchleuchten ist völlig indiskutabel, absolut egal mit welcher Begründung. Ich halte solche Argumentationen für fahrlässig. Linus hat vollkommen Recht, man wird nicht lange warten müssen, und es werden überall prophylaktische Durchleuchtung installiert. Einzig die Gesellschaft und unsere Sicherheitsbehörden sind die, die dieses Problem angehen können. ich lasse mir auch nicht mein moralischen Kompass kaputt reden.

  6. zur Apple-Scan-Diskussion noch ein paar Gedanken, aus denen jeder selbst die Argumente ableiten kann:

    (Ich möchte Tim gar nicht so harsch angehen. Ich finde es richtig und mutig, hier auch die Gegenposition zu diskutieren.)

    * Würde irgendjemand dieses Feature aktivieren, wenn es einen Opt-In erfordern würde? Oder zumindest ein Opt-Out möglich wäre?
    Ich denke nicht. Apple lässt hier also Code auf den iPhones laufen, die die Ressourcen des Telefons benutzen, aber gar nicht im Interesse des Nutzers sind. Es handelt sich also um Schadsoftware (Spyware). Wie Linus sagt: Das Telefon arbeitet gegen den Besitzer.

    * „Ich kann hier nicht eine Million Angriffsvektoren skizzieren.“ oder wie Horst Seehofer sagen würde „Hacker mögen immer irgendwas hacken.“
    Der offensichtliche Angriffsvektor ist, die Liste an „bösem Material“ zu manipulieren (hat Linus im Prinzip gesagt). Das Versprechen mit der „doppelten Liste von Organisation XY“ hält maximal bis zum anderslautenden Gerichtsbeschluss. Was genau auf der Liste steht, ist kaum zu kontrollieren, weil die Öffentlichkeit nur „Hashes“ kennt, und auch an die kaum heranzukommen ist.

    * Nur ein paar Gedanken, welches Material demnächst – ggf. landesspezifisch – auf der Liste steht: Tian’anmen-Massaker, Demos in Belarus, Polizeigewalt.
    Wer über Moral argumentiert, könnte auch sagen, wie diese Sperrungen in die eigene Moral passen.

    * Wie würden wir diese Technologie finden, wenn Google, Facebook, die Bundesregierung, die US-Regierung oder Geheimdienste sie vorgeschlagen hätten?

    • Ich stimme Martino inhaltlich 100%ig zu – bei zu scannendem „unerwünschten“ Material möchte ich noch (anonyme) Kryptowallets anfügen. // Das im Kommentar enthaltene Zitat stammt nicht von Hort Seehofer, sondern von seinem Amtsvorgänger Thomas de Maizière: https://www.youtube.com/watch?v=knshF6wmu_A ;-)

      (Ist das wirklich schon 11 Jahre her?!)

    • Google und Facebook verzichten auf diese Technologie – sie scannen einfach alle Bilder ohne diese und verzichten bewusst auf die Abwägung, die Apple hier noch macht. Und wie findest Du das?

      Das Problem mit den „Gerichtsbeschlüssen“ (oder was eigentlich das Problem ist: mit Gesetzen), dass sich gegen diese kein Hersteller mehr wehren kann, wenn sich dann einmal rechtsgültig sind und dann läuft es eben nur so wie die Staaten es wollen. Dagegen kann auch Apple dann nichts machen.

      Der vorgeschlagene Weg kann aber einen konkreten Ausweg aufzeigen: eine Methode, die extrem schmalbandig exakt den Hauptkonflikt (CSAM) i den Fokus nimmt und alle anderen Verwertungen explizit ausschließt. Damit nimmt man CSAM als Argument aus der Forderung nach einem generellen Zugriff durch die Hintertür und schafft politischen Druck, solche Hintertüren nicht verpflichtend zu machen. Das ist die Perspektive in der Debatte, die ich versuche zu eröffnen.

      • Der Unterschied, den Du hier grad unter den Tisch fallen lässt ist aber, dass Google und Facebook auf ihren Servern scannen wenn die Daten da vorbeikommen und nicht lokal auf Deinem Gerät.

      • > Und wie findest Du das?
        Kurz gesagt:scheiße. Andauernd sprecht ihr in dieser Sendung über Content-ID und andere Filter.
        Den Unterschied zwischen speichern und teilen hatte Linus schon ausgeführt, der Unterschied zwischen meinem Gerät und einem Server ist ebenfalls erwähnt.
        Google und Facebook verkaufen mir übrigens keinen Cloud-Storage mit E2E-Verschlüsselung, sondern bieten mir eine Sharing-Plattform (Facebook) bzw. einen unverschlüsselten Cloud-Storage (Google Drive) „kostenlos“ an.

        > und dann läuft es eben nur so wie die Staaten es wollen
        Das ist doch kein Grund, das in vorauseilendem Gehorsam umzusetzen oder sich daran zu beteiligen. (Steht natürlich im Zusammenhang mit der politischen Diskussion, s.u.)
        Wie in anderen Kommentaren erwähnt: Diktaturen können den Zugriff über ihre Gesetze sowieso erzwingen. Apple liefert hier ohne Not den „lupenreinen Demokratien“ ein Tool, ohne anstößige Gesetze etwas Ähnliches (wenn auch nicht das Gleiche) zu erreichen.

        > und alle anderen Verwertungen explizit ausschließt
        Was die Methode ausschließt ist, dass ein gelangweilter Geheimagent die Telefone von zufälligen Leuten durchguckt.
        Was die Methode nicht verhindert ist, dass der Geheimagent willkürliche Inhalte auf die Blockliste setzt (auch wenn diese Möglichkeit im ersten Schritt nicht vorgesehen ist). Das sind übrigens die Geheimagenten, die die Selektoren der USA durchwinken.

        > Damit nimmt man CSAM als Argument aus der Forderung nach einem generellen Zugriff durch die Hintertür und schafft politischen Druck, […]
        Das sehe ich anders: Was du an der „aber die Kinder“-Front an Argumentationsgrundlage gewinnst, verlierst du hintenrum über „aber die Technologie ist schon da“. Das ist die Salami-Taktik par excellence.

        > solche Hintertüren nicht verpflichtend zu machen.
        Wie wir an der Upload-Filter-Diskussion gesehen haben, wird der politische Druck mindestens (!) sein, dass ALLE in Zukunft verpflichtet werden, ein solches System implementieren oder bei den Großen einzukaufen.

        • Ich war gelinde gesagt erschüttert über Tims blinde Applehörigkeit. Das ist schlicht und einfach eine Legitimierung von anlassloser Überwachung – NoGo. Sorry Tim, aber Du bist doch sonst so maximal-reflektiert und nun kommst Du uns mit einer Polarisierung a la „ach du findest also, dass 0,1% CSAM ok?!“

          Dennoch war es gut zu hören, wie ihr mit einem offensichtlich aufgeheizten Dissens ordentlich weiterdiskutiert.

      • Ist hier nicht das Problem, dass die Lösung von Apple nur auf Systemen funktionieren kann, die geschlossen sind. D. h. auf denen man keine Root-Rechte hat und keinen Zugriff auf den Quellcode.
        Bei offenen Systemen mit Open Source-Upload-Clients würde das Konzept nicht funktionieren. Was machen wir mit diesen Systemen, wenn die Lösung von Apple zum Standard werden würde? Müssen offene Systeme dann unverschlüsselt hochladen? Darf man nur noch verschlüsselt hochladen, wenn man keine Root-Rechte hat?

  7. Tim, du scheinst ja ein Urvertrauen zu haben, das Apple in seiner Politik und auch Gesetze wie sie jetzt sind, sich nicht zum Schlechteren der Gesellschaft ändern können. Wenn die Technologie im Gerät ist, ist sie da. Das ist der erste Schritt. Ich verstehe nicht, wie man sich da jetzt auf die Seite stellen kann, das wird immer so bleiben

    • Oh ja, ich kann nur zustimmen. Ich rechne fest damit, dass in der Chinesischen version schon sehr bald Bilder von HK Protesten, TankMan und ähnlichem landen werden. So werden chinesische Aktivisten und Journalisten der staatlichen Verfolgung noch leichter ausgeliefert.

    • Ich würde es nicht „Urvertrauen“ nennen aber natürlich vertraue ich heute schon den Anbietern, die ich nutze, dass sie in meinem Sinne handeln. Denn es ist heute schon unmöglich eine Aussage darüber zu treffen, was der Code auf meinen Geräten am Ende wirklich tut. Wenn ein Anbieter etwas unbemerkt was rauschmuggeln will geht das auch heute schon. Habe ich dieses Vertrauen bei Apple? Mit Einschränkungen ja und mein Vertrauen ist da auf jeden Fall um Größenordnungen größer als bei Google.

      In den USA gibt es, wie wir auch nicht erst seit Snowden wissen, eine Menge geheimer Anordnungen und der Zugriff auf die Bilder ist heute schon in Form des Zugriffs auf das iCloud Backup möglich – und dazu auf alle anderen Daten. Die Unternehmen sind verpflichtet, dann das Maul zu halten. Von daher ist mir eine öffentlich dokumentierte Zugriffsmethode, die von Sicherheitsexperten analysiert und bewertet werden kann, deutlich lieber als ein genereller Zugriff durch die Hintertür.

      • Wie gut das nun öffentlich dokumentiert ist mag ich nicht bis ins letzte Detail wissen. Aber welche Sicherheitsexperten die diesen Titel auch verdienen haben denn schon auf das finale Stück Software zugreifen dürfen?
        Und wie passt es ins Bild des überprüfbaren Algorithmus wenn Apple direkt nach der Verkündung von Corelium als erstes Projekt der open security initiative (https://www.corellium.com/blog/open-security-initiative) sich genau diesen Apple Algorithmus anzuschauen, Apple den Rechtstreit mit Corellium wieder weiterführt nach einer vorherigen außergerichtlichen Einigung?

        Und scheinbar macht Du auch einen schwerwiegenden Fehler. Nur weil die Backdoor öffentlich bekanntgegeben wird und nun die Vordertür ist, ist es nicht weniger gefährlich.

      • Bisher hatte ich ebenfalls ein größeres Vertrauen in Apple als in Google. Aber sobald dieser fatale Dammbruch durchgeboxt ist, ist Apple eben auch nur ein weiterer Anbieter von überwachtem Trash à la Facebook, der dann zumindest kostenlos sein muss, um noch irgendeinen Wert zu besitzen. Ich erkenne Dich gar nicht wieder, Tim. Apple-Fanboytum in allen Ehren. Aber das hier ist das „Ende von Apple“ als vertrauenswürdiger Hersteller. Wenn der CCC sich nicht mehr einig ist im Jahrzehnte alten Kampf gegen Überwachungsstaat und Überwachungskonzerne, hat er für mich auch seinen Sinn verloren.

  8. Man muss es einfach mal wieder sagen: Vielen Dank für euren Podcast! Wo offen informiert und diskutiert wird (auch wenn ich bei dieser Diskussion völlig auf einer Seite bin ;) ) und ihr offensichtlich genauso interessiert dabei seid wie wir Zuhörer.

  9. Hallo sehr interessante Folge, an manchen Stellen zu Apples Verfahren aber leider sehr schwammig gehalten. Mir ist auch nach der Erklärung von Tim nicht klar, wie diese Technologie konkret funktioniert. Das macht es schwer sich eine eigene Meinung bilden zu können. Bei manchen Aussagen wollte ich mir am liebsten die Haare raufen:
    Sinngemäße paraphrasierte Aussage von Tim: „ja das Handy bestimmt zwar Übereinstimmungen, kennt das Ergebnis aber nicht.“ wie soll das bitte funktionieren?! Wenn ich einen Algorithmus habe der sagt, ja ist wahrscheinlich so ein Bild oder nicht und dieser auf meinem Smartphone läuft, dann kennt mein Smartphone natürlich die Ergebnisse. Hat sie ja gerade bestimmt… Kann sein das ich mich irre, dann korrigiert mich bitte, aber so wie in der Folge beschrieben ist obige Aussage nicht nachvollziehbar.

    Abgesehen davon bin ich gespannt wie Mitarbeiter die Daten in der Cloud manuell untersuchen wollen, wenn die Daten angeblich verschlüsselt dort abgelegt werden. Key-Escrow?

    • Das funktioniert, weil der Server noch einen Blinding-Step durchführt und der dann errechnete Wert in die Hash-Tabelle schreibt. Diese Tabelle kommt dann aufs Phone.

      Der Client kann diesen Blinding-Step nicht durchführen, da er den verwendeten Schlüssel nicht kennt. Daher ist sichergestellt, dass der Client das Ergebnis der Überprüfung nicht kennt.
      Apples Dokumentation auf https://www.apple.com/child-safety/ ist da sehr aufschlussreich.

      • Hey danke für den Link. Ich hab mir die Technical Summary mal durchgelesen (https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf). Speziell den Part, indem die Generierung der Security Vouchers beschrieben wird. So wie ich das verstehe findet das „finale Matching“ also eigentlich nicht auf den Geräten, sondern auf Apples Servern statt. Ist der Voucher entschlüsselbar liegt ein Match vor.

        Was ich allerdings nicht verstehe ist, wie Apple verhindert Kenntnis von den Neural-Hashes zu erlangen, bevor der Threshold erreicht wird. In dem Dokument wird die ganze Zeit von „kryptgrafischen Headern“ gesprochen (ohne deren Generierung zu beschreiben), welche aus den NeuralHashes generiert werden. Aus den Headern werden dann wiederum die Blinded-Hashes und damit der Encryption Key (äußere Schicht) gewonnen. Erlangt Apple damit nicht schon vor der Entschlüsselung der inneren Schicht durch die „kryptografischen Header“ der äußeren Schicht von dem NeuralHash eines Bildes Kenntnis?

        • Hi Seb, ich habe mir das ganze mit dem „Krypto“-Kram auch mal angeschaut und glaube deine Frage beantworten zu können.
          Ich werde hierfür mal das wording von der PDF übernehmen.

          Also: @apples side:
          1. Apple erzeugt eine Tabelle in der die bekannten CSAM-NeuralHashes (in transformierter form) „geblinded“ (mittels eines „blinding-secret“) an den Adressen liegen welche zu diesem „richtigen“ NeuralHash gehören.
          2. Diese Tabelle kommt auf die Geräte.

          @user device:
          1. Der NeuralHash wird aus dem „user-image“ gezogen.

          2. der NeuralHash wird als Loockup für die Blinded-Table genommen und so der zugehörige „Blinded-NeuralHash“ herausgezogen. Existiert kein eintrag werden manchmal „Synthetic-Voucher“ erzeugt (== Dummy-Voucher).

          3. Der „CryptoHeader“ wird dann aus dem NeuralHash und dem BlindedHash so gebildet, dass dabei ein Schlüssel (sei er CK) heraus fällt, welcher wiederum durch das „Blinding-Secret“ und den „CryptoHeader“ erzeugbar wird.

          4. Das user-device hat sich schon irgendwo einen „account-Schlüssel“ angelegt, sagen wir AK dazu.
          Zu diesem AK gibt es (irgendwie, entweder @“if match occurs“ oder bereits beim erzeugen, egal…) mindestens also >=30-shares, wobei durch kombinieren von 30-shares wieder der orginale AK raus kommt, nennen wir diese AK0, AK1, …, AK29.

          5. Was nun gemacht wird ist eine Onion Verschlüsselung mit zwei Schalen ;) … (bzw ist so ähnlich) Und das ganze geht dann als „Voucher“ angehängt an dem Bild hoch zu Apple.

          In der 1. Schale(inner Layer) wird mit dem „echten“ AK die „image-infos“ verschlüsselt (besteht irgendwie aus dem bild o.s. stellen wir uns vor es ist genau das bild)

          In der 2. Schale(outher Layer) wird EINER von den AK0-29 UND die ganze 1. Schale mit dem CK Schlüssel aus [3] verschlüsselt.

          Zusammenfassung:
          => Das ganze (1. Schale mit AK_i verschlüsselt in 2. Schale) wird hier „Payload“ genannt.

          => Auch wenn es sich um einen „Synthetic-Voucher“ handelt, führen der „CryptoHeader“ und der CK zu einem match auf dem Server. Wird für ausreichendes Rauschen gemacht, so dass man nicht sieht wer wie viele Vouchers = matches hat.

          Aber egal ob match oder kein match, danach hat man erstmal wieder nur Datensalat, also einen mögliches Share AK7 z.b. und die verschlüsselte 1. Schale = Datensalat.
          Denn um die 1. Schale zu entschlüsseln braucht man 30 shares (AK0-29, oder AK5-35) um daraus den orinalen AK zu erzeugen.
          Mit diesem kommt man dann an alle „bild-infos“ herann die der account je mit diesem System hochgeladen hat.
          Hat man das nicht (>=30-shares), hat man nur Datensalat.

          —————————————
          Also @Seb: „…wie Apple verhindert Kenntnis von den Neural-Hashes zu erlangen, bevor der Threshold erreicht wird…“
          => Dadurch das aus dem CryptoHeader nur ein Schlüssel (CK) abgeleitet wird. Denn mit diesem schlüssel kann dann aus der Payload nur ein „möglicher“ shared-key (AK_i) und ein haufen Datensalt (= 1. Schale verschlüsselt) gezogen werden. Hierbei gibt es keine Info über das Bild.
          Handelt es sich um keinen match, wird es trotzdem erstmal wie ein Match aussehen, aber der Shared-key der dann auftaucht ist nur Zufall und kann nicht zum erzeugen des AK benutzt werden.

          —————————————
          Meinung:
          —————————————
          Wow das ist krass gemacht, lößt aber das Problem „Scanner-auf-meim-Gerät“ auch nicht…
          Das ganze „Crypto“ hier Sichert NUR (und ja NUR) ab, dass Apple an nichts herann kommt bevor nicht die 30 matches vorliegen!!!
          Heißt ja nicht dass Morgen jemand her kommt und noch andere Hashes als „match“ definiert.

          „Gelegenheit-Schafft-Überwachung“ oder wie gieng der Spruch noch gleich ;)

    • Sinngemäße paraphrasierte Aussage von Tim: „ja das Handy bestimmt zwar Übereinstimmungen, kennt das Ergebnis aber nicht.“ wie soll das bitte funktionieren?! Wenn ich einen Algorithmus habe der sagt, ja ist wahrscheinlich so ein Bild oder nicht und dieser auf meinem Smartphone läuft, dann kennt mein Smartphone natürlich die Ergebnisse. Hat sie ja gerade bestimmt… Kann sein das ich mich irre, dann korrigiert mich bitte, aber so wie in der Folge beschrieben ist obige Aussage nicht nachvollziehbar.

      Schau Dir mal die in den Shownotes verlinkten kryptographischen Methoden an. Durch diese soll tatsächlich dieser Effekt eintreten: man führt einen kryptographischen Vergleich zweier Quellen durch und erhält ein Ergebnis, dass sich erst in dem Moment auflösen lässt, wenn eine (konfigurierbare) Mindestanzahl von positiven Vergleichen durchgeführt wurde. Apple führt dazu in der technischen Erklärung auch drei Papers von Kryptoexperten (u.a. dem Erfinder der Methode) an.

  10. Apples Erklärung für das geplante System so wiederzugeben ist an sich kein Problem und muss man ja bei einer Beleuchtung des Themas durchaus mit reinnehmen. Aber meine Güte, das war vermutlich der längste Umweg für das was sich ganz einfach zusammenfassen lässt mit „System zur Erkennung von arbiträrem Bildmaterial“. Denn mehr ist es einfach nicht, es ist ein komplexer Bildscanner.

    NICHTS daran bindet das System auf magische Weise an CSAM Material. Umso frustrierender ist es zu sehen wie viele Apple Fans sich jetzt Augen und Ohren zuhalten und auf die technische Umsetzung dieses Bildscanners zeigen als ob das die Hauptproblematik wäre…
    Wenn auf dieser Ebene die Argumente fehlen wird einfach das „Denkt doch an die Kinder“ Argument übernommen.

    Linus hat hier meiner Ansicht nach die Situation richtig analysiert.

    Noch eine Sache die ich mit anfügen will die mir etwas gefehlt hat im Gespräch. Klar kann man sich jetzt von Apples Technologie blenden lassen und direkt die Lobeshymnen darauf schreiben (nein du darfst dir die Technologie nicht selbst anschauen oder Apples versprechen irgendwie überprüfen), das ändert aber immernoch nichts daran dass am Ende Apple Mitarbeiter in dieser Meldekette mit drinhängen, und darin steckt eben auch eine riesige Gefahr wenn es um solche Themen gehen soll [1] [2].

    Das System kann isoliert und auf dem Papier noch so perfekt sein, am Ende arbeiten immernoch Menschen damit, und Apple Mitarbeiter treffen am Ende die Entscheidungen. Das treibt die Zahl der false positives nochmal in die Höhe und bietet eben auch weitere Angriffsfläche.
    Noch ein paar extra Prozentpunkte obendrauf kann es auch nochmal durch Bugs und Sicherheitslücken im Code oder eben Sicherheitslücken und Fehler bei den Datenbankbetreibern des CSAM Materials geben.

    Und wer die geleakte Mail [3] gesehen hat merkt vllt. dass die das Thema wirklich nicht sonderlich ernst nehmen, natürlich mit Zuspruch von der Apple Spitze.
    Denn wer Bedenken und Kritik von Electronic Frontier Foundation, the Center for Democracy and Technology, the Open Privacy Research Center, Johns Hopkins, Harvard’s Cyberlaw Clinic und vielen weiteren als „Screeching Voices of the Minority“ betitelt, in den habe ich kein Vertrauen richtig und gewissenhaft mit dieser Sache umzugehen.

    Apples Beispiel für die false positive Rate ist also eher immer der absolute best case im Vakuum.

    [1]: https://www.theregister.com/2021/05/29/apple_sis_lawsuit/
    [2]: https://www.msn.com/en-us/news/technology/apple-settles-lawsuit-after-iphone-techs-posted-woman-e2-80-99s-explicit-photos-on-facebook-report-says/ar-AAKSNDv
    [3]: https://9to5mac.com/2021/08/06/apple-internal-memo-icloud-photo-scanning-concerns/

  11. Ich finde gut, dass ihr einen Dissenz habt. Aber bin ganz klar auf der Seite von Linus bezüglich der Überprüfung der Bilder.

    Ich bekomme manchmal das Gefühl, wenn Apple etwas macht dann ist es für Tim okay, weil die das sicher gut machen.

    • Ich bekomme manchmal das Gefühl, wenn Apple etwas macht dann ist es für Tim okay, weil die das sicher gut machen.

      Lass Dich nicht von Deinen Gefühlen leiten sondern sag mir, wo ich falsch lag. Ich beschäftige mich einfach schon länger etwas intensiver mit Apple, weil es eben seit 30 Jahren meine Plattform ist, deswegen schaue ich mir die Sachen immer auch etwas genauer an, weil sie mich unmittelbar betreffen.

      Ich fand Apples (und Googles) Vorgehen im Falle des Exposure Notification Frameworks vorbildlich und finde auch in diesem Fall eine gute Dokumentation ihres geplanten Vorgehens vor. Das habe ich mir angeschaut und meine Schlüsse daraus gezogen.

      Es steht Euch frei zu anderen Schlüssen zu kommen, aber ich habe jetzt auch noch nicht gehört, dass ich irgendwas falsch verstanden hätte (abgesehen von den Dingen, die ich selbst nur ansatzweise nachvollziehen kann wie die Details der Kryptoverfahren, was ich aber auch im Podcast klar benannt habe).

      • Ob du was falsch verstanden hast, das weiß ich nicht.
        Aber wie du zu deinen Schlüssen kommst und die Aktion irgendwie verteidigen willst, dass verstehe ich überhaupt nicht.

        Auf Androidgeräten hast du die Möglichkeit, Google und Facebook komplett auszusperren.
        Du kannst auf Cloudanbieter verzichten.
        Da das reine Android OpenSource ist, muss das reine Vertrauen zu Android auch nicht allzu groß sein.
        Selbst auf „normalen“ Androidgeräten mit den Google-Services kannst du ein Vertrauen entwickeln, dass Bilder, die du nicht in deren Cloud (oder zu Facebook etc.) hochlädst, dann auch Privat bleiben.

        Bei Apple musste man bisher Vertrauen, weil ClosedSource.
        Und jetzt weiß man, demnächst implementieren sie eine Methode, der du nicht entkommen kannst und die in der Lage ist, auf dem Gerät selbst Bilder zu scannen.
        Da hilft es dann nicht, auf Cloudanbieter zu verzichten, der Scan passiert auf deinem Gerät und du bist dem ausgeliefert.

        • Der Scan erfolgt unmittelbar vor dem Upload in die iCloud. Nutzt du iCloud nicht, wird auch nicht gescannt bzw. die Scan ist auf deinem Gerät inaktiv.
          Warum wird der Scan nicht auf dem iCloud Server durchgeführt? Warum ist es notwendig, dass der Scan auf dem Telefon statt findet?
          Ist iCloud standardmäßig verschlüsselt?

          Die ganze Sache sollte mindestens zum Nachdenken anregen.

      • Die Technik von Apple ist cool. Allerdings iat das nicht das Thema. Die Frage ist wer bestimmt welche hashes „böse“ sind und wie wird garantiert, dass das nur CSAM ist? (Und dass das auch in Zukunft so bleibt)
        Dieses Problem wird durch das coole Kryptoverfahren von Apple nicht gelöst.

  12. Tim, wenn Du schon die „moralische Verpflichtung“ spürst, das Wohl der Kinder zu stärken, verkauf dein iPhone und kauf dir ein Fairphone.

    Apple setzt nach wie vor seltene Erden aus Ländern ein, in denen Kinderarbeit an der Tagesordnung ist. Apple selbst hat Milliarden mit Kinderarbeit in China verdient und hat sich erst durch äußeren Druck besonnen.

    Technisch sieht das doch so aus:

    – Apple installiert einen filter-gesteuerten Trigger, der Alarm schlägt, wenn Bedingungen XYZ erfüllt sind.

    – XYZ setzt Apple fest. Momentan noch. Der nächste Trump braucht genau eine Order, dann ist Schicht mit Apple, was das Festlegen der Bedingungen angeht.

    – China, das Land, auf das Apple am meisten angewiesen ist, will es profitabel und erfolgreich bleiben, freut sich schon. Da bestimmt die Regierung jetzt schon, was Apple im Store anbieten darf und was nicht.

    – Der Filter kommt momentan von nicht näher definierten Quellen. Schön, dass es eine CSAM-Behörde gibt, aber welcher Juristriktion ist diese unterstellt? Wer prüft das Material? Da darf ja niemand unabhängiges Einsicht nehmen. Und wer die Filter definiert, steuert den Trigger. So einfach ist das.

    Nein nein. Macht Apple das, bin ich raus. Dann halt Linux und ne eigene Nextcloud (vollverschlüsselt versteht sich). Tut sicher weh am Anfang, geht aber. Ich mach das nicht mit.

    • China braucht sich gar nicht zu freuen, die haben ohnehin schon Zugriff auf alles worauf sie Zugriff bekommen wollen und brauchen Apple da gar nicht für. Sagst Du ja auch selbst. Im Zweifel werden die Anbieter einfach per Gesetz gezwungen. Die vorgestellte Methode ändert an der Situation gar nichts.

      Für Länder, in den Hopfen und Malz noch nicht verloren sind, braucht es eine kluge politische Argumentation, warum man keine Backdoors braucht. CSAM ist hier immer ein Hauptargument, Terror ein anderes. Apple schlägt hier eine Lösung für einen Teil vor und erlaubt damit, politische anders zu argumentieren.

  13. Linus, das ist jetzt DER Moment, um auf ein Google-freies Android-Smartphone (z.B. ein Pixel 4a für 300 Euro mit GrapheneOS) als Daily Driver umzusteigen. Das würde ein Zeichen setzen.

  14. Der Moralhammer ist genau das, wovor immer wieder gewarnt wurde und wo in der Vergangenheit auch immer wieder im Nachhinein die Schweine sich am Trog bedient haben. Terrorismus, Kinderpornografie, Gewaltverbrechen und Mißbrauch jeglicher Art sind zu verfolgen keine Frage, aber wie schnell klopft dann jemand an der Tür und möchte den Dienst auch für die Aufklärung von Kleindelikte nutzen. Ich erinnere nur ungern an die Gästelisten in Bayern, wo wegen einem Fahrraddiebstahls mal eben die gesammelten Gastdaten abgefragt und ausgewertet wurden.

    Klar versucht Apple, wenn man ihnen Glauben schenken möchte, stand heute, es so datenschutzfreundlich wie möglich zu bauen. Ändert aber nix an der Tatsache, dass Apple in der Vergangenheit ua. auch in China schon eingeknickt ist und um am Markt zu bleiben diverse Apps aus dem Store genommen hat. Jeder Staat wird dann mit seinen eigenen Interessen kommen und sagen „Hey, ich hab hier ne Liste von Bildern von Schwerstkriminellen, prüft mal ob ihr da User habt, die von denen Bildern auf dem iPhone haben“.

    Wir wissen genau, dass jedes Land nen Terroristen und Schwerkriminellen anders definiert. Bei uns nur ein normaler Journalist oder eine Menschenrechtlerin, in Russland oder China dann Staatsfeind Nummer eins. Muß ja nichtmal Apple bekannt sein, was die Inhalte sind, die geprüft werden, was technisch mit Hashes ja auch nicht möglich ist. „Hier die Datenbank bitte prüfen, sonst fliegt ihr vom Markt“ und schwups prüft jedes chinesische iPhone nach Sympatisanten von Staatskritikern.

    Will man so etwas wirklich der Welt in die Hände geben? Wird Apple da wirklich nicht einknicken, wenn der zweit- oder drittgrößte Markt wegbrechen könnte? Ich glaube kaum.

    Und was in der Debatte fast garnicht erwähnt wird, wie zum Henker soll so ein System neues noch unbekanntes Material erkennen. Wenn der Algo Features von Inhalten auswertet Bsp. wird erkannt Kind, viel nackte Haut, Objekte im Hintergrund und daraufhin ein Hash generiert wird, um bekannte Bilder abzugleichen, wo bitte ist da die Gewährleistung neues Material zu entdecken bzw. bei zu niedriger Schwelle bei der Erkennung nicht auch Fehlmeldungen zu generieren? So wie bis jetzt von Apple kommuniziert bekommen sie die zu prüfenden Datenbanken ja vorgesetzt.

    Zur Verhinderung von Straftaten wird das in dem Bereich wohl kaum beitragen, selbst wenn die Datenbanken die gegengeprüft werden täglich aktualisiert werden, wird immer Material im Umlauf sein, das noch nicht bekannt ist. Die Ursachen mit so einem System zu bekämpfen, sollte jedem klar sein, ist nicht möglich, eine Eindämmung auch fraglich. Heute wird „nur“ geprüft, was sowieso in die iCloud geladen wird und morgen wird dann ein Schalter umgelegt und auch alle anderen Inhalte werden durchforstet.

    Apple macht es marktreif und alle anderen Hersteller werden/müßen auf Druck hin nachziehen.

    Nein Danke Apple, diesmal nicht!

    • Apple ist nicht „eingeknickt“, Apple muss sich an die Gesetze halten. Wie übrigens auch alle anderen Unternehmen und das nicht nur in China, auch in den USA und auch in Deutschland. Die Frage ist immer: wie sind diese Gesetze?

      • Komisch nur dass Apple (und alle anderen megacorps) sich bei der Unterstützung von ekliger und menschenverachtender Maschinerie sowie dem Ausbau von Überwachung „an Gesetze halten muss“ und quasi den vorauseilenden Gehorsam an den Tag legt, da kann es nicht schnell genug gehen dem Staat möglichst zu gefallen.

        Wenn es aber um Themen wie Steuerhinterziehung, nein ich meine natürlich „Steuervermeidung“ geht wird mit dann mit Hochdruck daran gearbeitet „die Gesetze“ zu umgehen und zwar immer, so effektiv wie möglich.

      • Ist es eigentlich glaubwürdig, dass Apple hier rein in vorauseilendem Gehorsam handelt? Vielleicht wurden sie ja gezwungen oder sanft hingeführt? Vorstellen kann man es sich.

  15. WhatsApp macht unverschlüsselte Backups deiner Chats und der Bilder, die in dem Chat geposted werden, in deine iCloud. Jemand posted entsprechende Bilder in irgendeinem Gruppenchat, den du vielleicht schon gar nicht mehr liest aber noch abonniert hast, und bam! du bist geflagged.

  16. Auf Tims Frage wie Facebook aus so viel Meldungen zu CSAM kommt:
    CSAM sind auch Selfies von Jugendlichen mit Nacktheit bzw. sexualisiertem Kontext. Wenn da ein Pupertierender Mensch etwas an seinen Schwarm schickt ist das ein Fall. Hinzu kommen dann zig Fälle, wenn aus Eifersucht/Rache die ehemals einvernehmlich ausgetauschten Bilder geteilt werden (was scheiße ist).

    Es würde mich nicht wundern, wenn das häufiger der Falll ist, als dass es der Austausch zwischen sexuell Gestörten ist.
    Beispiel, 14Jährige macht Selfies und erstellt damit CSAM: https://www.independent.co.uk/news/world/americas/teenage-girl-14-explicit-picture-selfie-distributing-child-pornography-charges-police-rice-county-minnesota-a8127001.html

    Das ist ohne die Ausweitung die Linus befürchtet dann auch der Bereich der imho unmittelbar problematisch wird. Hormonell aufgeladene Teenager die en Mass entsprechende Aufnahmen von sich selbst erstellen und dies ohne große Kreativität. Je nachdem wie unscharf die Filter sind, würde es mich nicht wundern, dass das System entsprechend häufig bei Teenagern anschlägt.
    Wenn Staatsanwaltschaft und Polizei dann blind auf solche Meldungen reagieren und eskalieren, ist das sich weder angemessen noch wünschenswert.

    • Auf Tims Frage wie Facebook aus so viel Meldungen zu CSAM kommt: CSAM sind auch Selfies von Jugendlichen mit Nacktheit bzw. sexualisiertem Kontext.

      Der zitierte Fall ist auf Snapchat gewesen, nicht Facebook. Meiner Kenntnis nach beziehen sich die 20,3 Millionen Meldungen explizit auf die Datenbank von NCMEC.

      • Mit ging es um eine exemplarischen Beleg für das Verhalten von Menschen. Das für die Tat Snapshat genutzt wurde ist da recht unbedeutend. Ich würde davon ausgehen, dass das auf Facebook und seinen sonstigen Marken ebenso stattfindet.
        Und selbst wenn die Meldungen mit dem Abgleich von NCMEC gibt, da wandert meines Wissens jeder CSAM Fall hin. Wenn also Teenager wegen CSAM verknackt wird, sind die entsprechenden Bilder bzw. Hashwerte in der Datenbank von NCMEC. Wenn da im Datenbestand von FB noch entsprechende Aufnahmen gibt, gibt es entsprechend nochmals Funde.

        Ein Gedanke der mir zudem recht spät kommt: Wenn mit Zahlen um sich geworfen wird, sollte es genaue Angaben zur Methodik geben. Ansonsten sind Zahlen vergleichsweise wertlos..

  17. Woa Tim,
    deine Argumentationslinie zur Dienstleistung und dem Gewissen der Anbieter… Konsequenz durchgezogen ist das genau die Linie mit der man das Aufbrechen von Crypto bei jeder Kommunikationsdienstleistung rechtfertigen kann. Eben weil die Kommunikationsdienstleister damit rechnen können, dass ihre Dienstleistung auch für CSAM genutzt werden.
    Auch das, „was heißt Backdor, kommt ja nicht jeder rein“. Solche Aussagen bin ich von CDU Poltikern gewohnt o.O. Als wäre die Aussage irgendwann nie Falsch gewesen.
    Weiter mit „es wird keine Crypto gebrochen“. Das ist schlicht fachlich falsch. Wenn die Anforderung verschlüsselter Datenaustausch ist, bei dem Austausch aber Hashes vom Klartext vorliegen, würde da jedes Sicherheitsaudit einen höherwertigen Fehler feststellen, selbst wenn die Nutzdaten unangreifbar blieben.

    Dann die Argumentation vonwegen „wie viel Prozent wären für dich OK“.

  18. Interessante Diskussion zum Vorhaben von Apple. Gleich mal positiv hervorheben möchte ich wie der jeweils eine den anderen hat ausreden lassen! Das war einfach professionell! Mich hat Tims Standpunkt allerdings gehörig irritiert. Und offenbar nicht als Einzigen. Linus‘ Ausführungen zusammengenommen, warum das Vorhaben letztendlich in der realen Welt keine gute Idee ist, habe ich eigentlich als bisherigen Konsens zwischen euch beiden wahrgenommen. Tims Standpunkt lässt sich mMn auf „der Zweck heiligt die Mittel“ reduzieren. Die Mittel wurden von Apple entwickelt und bereitgestellt, und werden natürlich von den Guten gegen das Böse eingesetzt (die moralische Ebene). Eine zukünftige Erweiterung der Filterkriterien auf weitere Bereiche, wie bei nahezu allen bisherigen „Mitteln“ auch, war für mich absolut nachvollziehbar von Linus hergeleitet. Und das Apple auf eine solche Erweiterung im Ernstfall kaum bis keinen Einfluss hat ist auch mehr als anzunehmen. Apples bisheriges Gegenargument für solche Begehrlichkeiten „das können wir technisch nicht“ hätten sie hiermit selbst vom Tisch geräumt. Das Tim spätestens hier nicht einlenkte lässt mich vermuten das er nur den Strohmann gespielt hat (grundsätzlich eine gute Idee um so ein Thema zu beleuchten!; gib es zu Tim, ich hab dich erwischt! :p ). Ich fand es halt unerwartet befremdlich.

    Ich möchte noch in den Raum werfen, das man ein solches „Mittel“ subjektiv anders bewerten könnte wenn man Vater ist. Ich könnte mir durchaus vorstellen das es als Vater leichter fällt sich Tims Standpunkt anzuschließen. Ich weiß, ganz schwieriges Terrain.

    Gute Folge, wie immer! Ich mag euch gerne zuhören, und das seit Jahren. Weiter so!

  19. Hallo,
    ich habe bei eurer Diskussion um die Picture-Hashes von Apple doch ein bisschen die offensichtliche Parallele zu Cloud-Based Antivirenprogrammen vermisst. Schließlich machen die ja genau das gleiche wie Apple mit den Bilder, die bilden neuronal berechnete Abstraktionen von bekannten Viren, nur halt auf alle Dateien auf dem Endgerät, nicht auf die in der Cloud. Das ist imo genau das gleich kritische Verhalten.

    Liebe Grüße

  20. Lernfrage zu Apples CSAM-Filtern: Wenn Mirgationshelfende (Seenotrettung etc.) zukünftig ertrunkene Kinder und Babys dokumentieren – laufen Sie dann auch Gefahr von den CSAM-Filtern erwischt zu werden? Müssen sie dann gar eine Anzeige fürchten? Denen wird ja jetzt schon mit Brandschutz, Bootszulassungen und anderen Formalia die praktische Arbeit erschwert. Ich sehe da Missbrauchspotenzial.

  21. Hallo Ihr beiden,
    ich muss leider widersprechen,
    Delphi 2007, Visual Basic 6 (von 1998) und wahrscheinlich die gesamte Peripherie sind nach wie vor am Leben.
    Und produktiv im Einsatz.
    Das schlimmste was ich gesehen habe, war eine Funktion wo sich Jahrelang die Leute gefragt haben warum die nicht mehr funktioniert, bis ich da reingebohrt habe und festgestellt habe das eben nach XP iirc die zugrundeliegende DOS Funktionalität weg war.
    Würde mich sehr interessieren wie das im Web aussieht, wie oft da ein uralt PHP vor sich hin gammelt.
    Mit freundlichen Grüßen

  22. Hallo Tim, Hallo Linus,

    Danke für Eure lebhafte Diskussion zu der „Lösung“ des CSAM-Problems, die Apple nun auf einer fantastillarden an Geräten suksessive ausrollen wird.

    Auch ich finde natürlich dokumentierten Kindesmissbrauch und dessen Verbreitung verabscheuungswürdig und wichtig, dass dagegen vorgegangen wird.

    Für mich war dieser Move von Apple aber der letzte Tropfen, der die Erosion meines Vertrauens in den vorgeblich auf Privatsphäre erpichten Konzern komplett hat werden lassen. Ich gehe nun durch den steinigen (und teuren) Weg, weg von diesem technischen Ökosystem.

    Unbehagen hatte ich schon in den vergangenen Jahren zunehmend nachdem Apple den walled Garden immer enger gezogen hat und für mich immer mehr das wurde, was früher einmal CompusServ oder AOL im Vergleich zum offenen Internet waren. Oder eben Bell und AT&T in einer anderen Epoche. Das hat nur auf den ersten Blick nichts dem Vorgang hier zu tun, führt hier aber zu weit.

    Aber schneller zum Punkt: Apple möchte die Privatsphäre schützen und keine illegalen Inhalte in den Fingern haben, dann sollen sie die Daten Ihrer Kunden Ende-zu-Ende verschlüsseln und sie haben nur Datensalat. Das könnten sie, machen das aber in vorauseilendem Gehorsam nicht. Es könnte ja mehr Druck auf sie ausgeübt werden oder ein Gesetz erlassen werden. – Ich spring doch nicht aus Angst vor dem Tod von der Brücke!

    Die Aufgabe eines Geräteherstellers ist es aber eben nicht Polizei zu spielen und zum verlängertem Arm der Ermittlungsbehörden zu werden. Insbesondere solange sie nicht gesetzlich dazu verpflichtet werden, was in einer Demokratie zumindest ein öffentlicher Vorgang ist. Dieser hier kommt aus dem Nichts und ist eine Demonstration der Macht die die Informationsimperien unserer Zeit schon heute haben.

    Dabei ist ihr Ansatz in der jetzigen Form nur ein Feigenblatt. Er ist ungeeignet strafbares Material welches neu ist zu erkennen oder welches in einer Anzahl unter dem gemutmaßten Schwellwert von 30 Bildern liegt zu melden.

    Für diesen zweifelhaften Erfolg im Kampf gegen vermutlich sehr wenige technisch unversierte Incels, macht Apple ihre Geräte zu potentiellen Daten-Wanzen und nimmt in Kauf, dass die üblichen Bedarfsträger morgen Schlange stehen und die die in der jeweiligen Jurisdiktion verbotenen Inhalte und User ausfindig machen. In China ist das eben ein hier fiktives gerade zirkulierendes Bild von Repressalien gegen die Uiguren, in den USA das nächste Colletaral Murder Video, in Österreich bei einer besoffenen G’schicht gefilmte Politiker, in Deutschland vielleicht ein geklautes Bild das gegen das Leistungsschutzrecht des Springer Verlags verstößt…

    Wer glaubt das Apple solche Begehrlichkeiten zurückweisen wird, ist meiner Meinung nach naiv und sollte der Sache mal ein bisschen Zeit geben, dabei sich in der Zwischenzeit den letzten Transparenzbericht und darüber hinaus sich die umfassenden Zugeständnisse des Unternehmens an China anschauen.

    Apple ist ein Unternehmen und daher eher ungewillt Märkte aufzugeben. Wo aber ein Trog ist kommen die Schweine – Apple hat gerade einen neuen Trog aufgemacht und den kriegen sie so schnell nicht wieder zu.

    Ich glaube nicht einmal mehr das sie es wollen.

    Viele Grüße
    Marcel

  23. Fand Tims Spruch, wie viel Prozent Kindesmissbrauch für Linus denn OK seien, doch etwas daneben.

    Im Übrigen erinnert mich die Diskussion um die Bildhashes an die Selektoren der NSA: Soweit ich verstanden habe wird man aus den Selektoren selber oftmals nicht schlau. Also nicht ganz unähnlich der Hashes, aus denen man keine Informationen auf das Urbild ziehen kann. Und man betreibt Massenüberwachung damit.

    • Soweit ich verstanden habe wird man aus den Selektoren selber oftmals nicht schlau.

      In diesem Fall sind die „Selektoren“ eindeutig und überprüfbar: in dem Moment wo die definierte Mindestmenge an Treffern erreicht ist werden die Bilder identifiziert und werden in einem manuellen Schritt überprüft.

  24. Höchst spannende Folge, endlich mal wieder eine echte Diskussion zwischen Euch beiden! Danke dafür auf jeden Fall.
    Auch wenn ich mir von Linus öfter mal gewünscht hätte, sich etwas stärker auf Tims Gedankenspiele einzulassen und sie nicht gleich von vornherein abzubügeln. Ich finde, sie waren einfach genug zu widerlegen (das Beispiel mit dem Hasubesitzer hat oben schon jemand geschrieben). Aber mich hätte durchaus auch mehr von dem technischen Hintergrund interessiert oder der Punkt, dass nur die User/Bilder betroffen sind, die in der iCloud landen. Gibt es da einen prinzipiellen Unterschied, oder ist das nur ein Flag, das in V2 invertiert wird?
    Man hat deutlich herausgehört, dass da auf beiden Seiten der Blutdruck erhöht war, dadurch hatte ich den Eindruck, dass Ihr beide eher auf den Fundamentalpositionen gessesen habt anstatt auch Nuancen zuzulassen.
    Somit hat es Tim leider nicht geschafft, mir seine Position auch nur ein kleines Stück näher zu bringen — ich halte das für einen zu krassen Dammbruch und bin dankbar für den GrapheneOS-Tipp.

    P.S. Mit der Fehlerwahrscheinlichkeit von 1:1Billion, ist da die europäische oder die amerikanische Billion gemeint, also 1E-9 oder 1E-12?

    • ich habe keine Fundamentalposition vertreten sondern lediglich versucht, die technischen Details zu erläutern und den Ansatz als solchen zu verstehen. Ich habe da auch keine Fundamentalposition, ehrlich gesagt nicht mal eine klare Position. Aber ich denke, es ist notwendig, die Logik mit der Apple argumentiert und das Design, was sich daraus ergibt, zu verstehen. Und ich denke, dass man in der Debatte eben mit Fundamentalpositionen nicht weiterkommt.

      • Da habe ich mich nicht klar genug ausgedrückt. Die Fundamentalposition hat auch eher Linus eingenommen und Dich daher kaum aus Deiner Ecke (in die Du jetzt als „Fanboy“ gedrängt wirst) kommen lassen. Dass Du daher kaum über die Argumentation „aber die Kinder“ hinausgekommen bist, das meinte ich mit „Fundamentalposition“. Es wäre schön, wenn Ihr die Diskussion nochmal etwas entspannter fortsetzen könntet.

  25. Was mir bei der technischen Betrachtung noch fehlt: „Neural Hash“ – also eine „KI“ … schnell, wie oft hat eine KI so richtig gut funktioniert (Bewertung von Bewerbungen, Straftätern, …)?
    Eine Blackbox, die auf Millionen Geräten laufen soll und noch mehr Millionen Fotos analysieren darf … was kann da schon schiefgehen.

    Und eine andere Frage, die mir direkt spontan eingefallen ist:
    Dürfen Eltern noch Nacktbilder von ihren Kindern machen?! Früher hat man das ins private Fotoalbum geklebt und sich Jahre später drüber gefreut/lustig gemacht; heute ist man Straftäter … :(

  26. Oft höre ich die Folge nur und fühle mich hinterher sehr gut informiert. Das war auch heute der Fall. Nur diesmal waren die vielen Kommentare fast noch Aufschlussreicher für mich. „Und das ist gut so“, wie auch die unterschiedlichen Meinungen der beiden Protagonisten. Danke.

  27. Es wurde bereits viel geschireben: Ich denke ich setze ein Zeichen und beschreibe, was ich die letzten Wochen gemacht habe und in Kürze machen werde.

    Meine Apple Dev Account habe ich nicht mehr verlängert, mein 2015er Mac Book Pro Retina Display bekommt in wenigen Wochen ein Fedora oder Debian verpasst. Seit 2016 nutze ich für alle meine Dokumente, xDAV Termine, Kontakte und vor allem Bilder die eigene Nextcloud, die genauso wie bei iCloud zwischen meinen Geräten gesynct werden.

    Nach über 14 Jahren in der Apple Welt heisst es Bye Bye… es war eine schöne Zeit aber diese ist nun vorbei….

    Apple hat den letzten Baustein geliefert und den Absprung am Ende ganz schnell und einfach werden lassen.

    Wie Linus es sagte: Ich brauche 100% Konfidenz in mein Arbeits- und auch Freizeitgerät. Diese ist mit einem Closed-Source System, das gegen mich arbeitet nicht mehr gegeben.

  28. Zu der Diskussion zum Thema CSAM von Apple:

    Die war wirklich gut und ausführlich. Dem wichtigen Thema wurde sie gerecht.
    Ich bin von den Argumenten voll bei Linus.
    Bei Tim fand ich fast schon herzig, dass er auf Seiten der Regierungsverantwortlichen und der Verwaltung an das Gute glaubt. Mit meinen 51 Jahren Lebenszeit halte ich diese Einstellung für sehr naiv.
    Trotzdem fand ich es spannend, wie Tim tapfer seinen Standpunkt verteidigt hat :-)

  29. Vielen Dank für einen weiteren sehr interessanten Podcast!

    Ich habe eine große Bitte an Tim: Wenn Apple etwas veröffentlicht, was auf geteiltes Echo trifft, bitte einmal folgendes Gedankenexperiment durchführen:
    „Was würde ich sagen, falls Google GENAU dieses Feature in GENAU diesen Rahmen umsetzen würde“.

    Ich weiß natürlich, dass du Apple-Fan bist, aber manchmal ist es echt schwierig. Apple sagt: „Wir scannen auf DEINEM Device“. Natürlich erstmal nur, falls du Bilder in die iCloud hochladen willst, aber damit ist der Drops schon gelutscht! Wenn morgen China kommt und sagt „wir haben da Fotos auf die wir filtern wollen“ oder übermorgen Russland, und über-übermorgen die EU, dann kann sich Apple nicht damit herausreden, das sie so etwas nicht implementiert haben.

    Sie können auch nicht sagen, das der Upload verpflichtend ist. Sie haben jetzt der ganzen Welt gesagt, dass es bald eine IOS Version geben wird bei dem ein Feature implementiert wurde, das das scannen auf dem Gerät erlaubt.

  30. Wurde schon alles mehrfach geasgt.

    Werden leider nie erfahren wieviele „Verbrecher“ China mit Appels Hilfe aus dem Verkehr gezogen hat und warum.

  31. Als Linus seine Einleitung mit „und den Rest des Podcasts könnt ihr zuhören wie Tim sich das schön redet“, dachte ich bei mir so LOL, wie soll man sich das denn schön reden.
    Aber Tim direkt Hold my Beer.
    „Wir wollen eure Daten nicht durchsuchen.“
    „Der Scan ist doch nur aktiv, wenn die Daten eh in die Cloud geladen werden“
    „Wenn du nur wenige Bilder hast wird noch keine Alarm ausgelöst“
    „2 Maßnahmen kann man gleich mal abtun, weil die eh nix machen, außer bei Geräten von Minderjährigen nach sensitive content zu scannen oder wenn jemand mit Siri danach sucht“
    „Es wird ja nur nach Bildern gescannt die bei ZWEI!!! Institutionen als problematisch geflaggt sind“
    „Es wird doch nur in den USA eingeschaltet“
    „Es ist ganz schlaue Krypto im Gange und nicht mal das Telefon sieht ob ein Treffer stattgefunden hat“
    „Alle anderen (Cloudanbieter) machen es doch auch.“

    Am Ende muss man sich aber auch mal fragen was soll das ganze eigentlich?
    Meint ihr nicht, die Tatsache, das bereits ein simples abschalten des Cloud uploads den Scan verhindert, spricht sich nicht bei den potenziellen Tätern herum? Was bringt die Technik dann noch? Ist es nicht vielmehr ein Testballon, um mal die Reaktion der Öffentlichkeit abzuchecken?

    Eigentlich will man doch verhindern, dass zukünftiger Missbrauch verhindert wird. Aber genau das kann die Technik nicht – sie findet nur bereits dokumentierten Missbrauch. Oder etwas drastisch ausgedrückt, wenn die Schweine „frischen Content“ produzieren droht ihnen erst mal keine Gefahr. :(

    Sicher hat jeder also auch die großen Tech Firmen eine soziale Verantwortung. Und es ist quasi „Bürgerpflicht“ solche Straftaten bei Kenntnis anzuzeigen. Genau so wie ich und ihr das wahrscheinlich tun würdet, wenn ihr bemerkt wie z.B. euer Nachbar seine Kinder missbraucht.
    Daher finde ich es auch legitim, wenn (unverschlüsselte) Daten in der Cloud bei entsprechenden Inhalten zur Löschung führen und zur Anzeige gebracht werden. Ja legitim, denn in dem Falle gibt man seine Bilder an einen Dritten, der diese für einen aufbewahren soll – in der alten Analogwelt wie wenn das Fotoalbum bei einem Bekannten abgestellt wird.
    Wenn der Anbieter aber technisch nicht in der Lage ist eine Kenntnis von den gespeicherten Daten zu haben (z.B. weil sie verschlüsselt sind), dann bietet das zwar ein Schlupfloch für Verbrecher aller Art, aber das ist ja schon immer die Diskussion seit es Verschlüsselung gibt. Ist der E-Mail Anbieter der alles Vollverschlüsselt speichert dann eigentlich nicht auch in der Bringschuld? Habt ihr nicht vor einiger Zeit noch z.B. den Anbieter Tutanota dafür gefeiert, dass er sich den Begehrlichkeiten widersetzt hat. Mit an Sicherheit grenzender Wahrscheinlichkeit wird aber auch dieser Dienst zum Teil von Verbrechern genutzt.
    Ihr hattet ja das Beispiel mit dem Festplattenhersteller. Auch dem wird klar sein, dass seine Produkte zum Teil für die Begehung von Straftaten verwendet werden. Wäre es also gerechtfertigt, wenn die Firmware von Festplatten so einen Scanner enthalten würde?
    Welche anderen Produkte sollten noch in der Lage sein proaktiv die Begehung irgendwelcher Straftaten anzuklagen? Der Staubsaugroboter hat gleich noch einen Scanner für illegale Substanzen an Bord? Das Auto stellt gleich selbst den Strafzettel aus, wenn man noch schnell bei gelb über die Ampel fährt?

    Die Frage nach ab wieviel % es nicht mehr tolerierbar ist finde ich fast schon illegal. Es hat den Hersteller von Geräten einfach nicht zu interessieren, er hat keine Technologie einzubauen, welche in der Lage ist dieses festzustellen. Das ist fast so wie die Frage, ob man denn Kinderschänder decken möchte…

    Andererseits könnte es wirklich so sein, dass Apple es „nur gut meint“, so wie Tim das unterstellt. Vielleicht glauben sie wirklich, durch ihre aufwendigen Maßnahmen könnten sie eine Privacy taugliche Methode schaffen die Verbreitung solches Materials zu verhindern oder zumindest einzudämmen.
    Aber wie es manchmal so ist, man nerdet sich so in ein Thema rein, dass man Scheuklappen bekommt und das offensichtliche aus dem Blick verliert. Immer noch eine weitere technische Maßnahme entwickeln um das Szenario XYZ abzudecken. Am Ende hat man eine super duper technische Lösung und zig Seiten Papers aber das ganze ist und bleibt eine Technologie, die einfach äußerst problematisch ist, weil es einfach ein Inhaltscanner ist und bleibt.

    Mal angenommen genau dieser Vorschlag mit genau dieser Vorgehensweise würde vom deutschen Innenminister kommen (ja ich weiß soviel Fantasie ist schwer aufzubringen). Von mir aus auch von einer zukünftigen Innenministerin Frau Baerbock. Würdest du den Vorschlag immer noch geil finden?
    Warum vertraust du eigentlich einer privatwirtschaftlichen Firma, die in erster Linie ihren Aktionären verpflichtet ist mehr als den staatlichen Stellen demokratischer Staaten? Warum soll Apple für die Staaten die Weltpolizei spielen?

  32. Ich muss zugeben, dass ich mich schon auf diese Folge gefreut hatte. Ich hatte die euren Beitrag zur EU-Chatkontrolle gerade gehört, als ich las was Apple für iOS 15 plant und war schon gespannt auf Tims Erklärung wieso das auf einmal alles kein Problem mehr ist wenn es von Apple kommt. Ich wurde wirklich nicht enttäuscht. Linus ging es ja offenbar ähnlich.

    Mich würde aber wirklich interessieren weshalb Tim das vor wenigen Tag noch sehr blöd fand und heute stramm auf EVP Line argumentiert inklusive eines „Linus denk doch an die armen Kinder“! Ich bin mir sicher Apple wird die EU vorgaben zur Chatkontrolle zu Tims Zufriedenheit umsetzen. Auch die Kritik an Machine Learning scheint mir vergessen, weil Apple sich das ja zutraut. Bin beeindruckt das du dabei keine Kopfschmerzen bekommen hast.

    Was mich davon unabhängig interessiert ist folgendes, wenn ich es richtig Verstanden habe hat Apple keinerlei Ahnung was hinter den Liste (den Neuroalisen) steckt die sie von der NCMEC bekommen, die Kontrolle findet ja erst dann statt wenn irgendwelche arbiträren Werte überschritten wurden. Dann schaut sich irgend ein Horst bei Apple die fraglichen Fotos an und entscheidet strafbarer Inhalt oder doch nur Familienfotos. Gut das das heutzutage Privatmenschen machen. Das macht mir Kopfschmerzen. Daher vermutlich die zwei unabhängigen Organisationen sonst landen da ja doch schnell irgendwelche hashes in der Liste.

    Wieso es laut Apple ok ist weniger als 30 Bilder von Kindesmissbrauch auf dem Telefon spazieren zu tragen bleibt auch im dunkeln. Um sich das mal klar zumachen, Apple sucht auf den Telefonen seiner Nutzer nach strafbaren Inhalten, findet etwas und sagt dann „ne das melde ich mal nicht, zu wenig“. DAS finde ich moralisch fragwürdig.
    Vermutlich mangelt es hier an Vertrauen in die eigene Methode und false positive wären bei <30 dann doch sehr häufig.

    • Sehr guter und richtiger Kommentar!
      Das ganze System ergibt für den Kinderschutz in den genannten Parametern überhaupt keinen Sinn, dafür liefert es ernormes Missbrauchspotential.

      Ich kann nicht im Ansatz verstehen, wie man (Tim) nicht über die zahlreichen Widersprüche stolpern kann, die Du treffend aufgezeigt hast.

      Es hat schon ein Geschmäckle, wenn man z.B. die CDU (zurecht!) dafür kritisiert, dass sie faktenfrei und bar jeder Logik argumentieren, es dann aber selbst tut.

  33. Vor Jahren hatte ich eine Diskussion mit einem Kumpel der an einer SW mitschrieb die durch ein Dongel geschützt war. Er argumentierte, daß er als Entwickler entscheidet, wie seine SW genutzt werden darf. Ich hielt entgegen, daß ich ihm nicht vorschreibe wie er mein Geld zu verwenden hat, welches ich ihm für seine SW zahle.
    Jetzt sind wir an dem Punkt angekommen, wo der Hersteller nicht nur seine mir verkaufte SW als sein Eigentum ansieht, nein auch will er mir vorschreiben welche meiner Daten auf seiner HW und SW verarbeitet werden dürfen.
    Beispiel:
    Wenn ich also meinem Arzt 4.0 mehrere Bilder meines Geschlechtsteiles schicken will, weil es nach der letzten Party dort brennt und juckt, dann komme ich gleich auf eine Sperrliste von Apple und muss mich, vor irgendwelchen unterbezahlten Mitarbeitern die im Akkord Bilder sichten, rechtfertigen. (Diese Funktion wird, wie Linus vorhersagt, irgendwann kommen)
    Und wenn mein Sohn irgendwo einen Ausschlag hat und ich diese Stelle dem Arzt 4.0 senden möchte, werde ich dann auch automatisch wegen Kipo angeklagt?
    Vielleicht sollte die Post alle Pakete öffnen, denn es könnte ja sein, daß dort Substanzen gefunden werden können oder jemand Kipo analog versendet? Mit Tims Argumentation müsste auch der Stromanbieter meine Daten sichten dürfen. Es könnte sein, daß der Stromanbieter es nicht mit seinem Gewissen vereinbaren kann, dass mit seinem Strom ein Computer betrieben wird, auf dem Kipo verarbeitet wird.

    Diese Funktion von Apple ist ein Grund mehr, keine Closed source SW zu benutzen.

    • Die Funktion „unanständige“ Bilder zu erkennen, hat nichts mit den CSAM-Hashes zu tun.
      Aber auch die ist schlimm genug, wenn man den Kindern von klein auf antrainiert, dass (a) _immer_ jemand über die Schulter schaut und (b) nackig _immer_ unanständig ist.

  34. Vielen Dank für das Streitgespräch zu dem Apple Cloud Scan. Das war echt super. Ich hatte nur zwischen drin nur häufiger Angst um eure Freundschaft. Hoffe ihr kommt bald dazu euch bei einem Bier zu versöhnen.

  35. Zur Diskussion um Apples Child Safety Measures: Ich finde es spannend, dass Tim die Diskussion so eingeleitet hat, als wäre neben der Siri-Funktion auch die ML-Erkennung von Nacktfotos on device nicht weiter diskussionwürdig, die Debatte würde sich einzig auf das Scannen der iCloud Photos Library konzentrieren. Dementsprechend hat sich dann die Diskussion hauptsächlich um letzeres gedreht (mit einigen Versuchen seitens Linus, das Scannen on device einzubringen).

    Wenn man sich aber die internationale Debatte anschaut, dann wird das Scannen on device mindestens so kontrovers diskutiert wie das Scannen der iCloud Photos Library, wenn nicht noch kontroverser. Und auch die NutzerInnenbasis scheint viel eher das Scannen on device als einen unzumutbaren Eingriff in die Privatsphäre zu beurteilen (sowohl jener der Erwachsenen als auch jener der Jungendlichen) als das Scannen der iCloud Photos [citation needed, ich weiss. Das ist natürlich ein subjektiver Eindruck].

    Ich würde mir wünschen, dass diese Debatte über das Scannen on device noch einmal gewürdigt und ebenfalls zur Diskussion gestellt würde. Es ist nämlich gut, wenn Tim einen eigenen Zugang zur Newslage bereitstellt, aber in diesem Fall geht doch die „Chronistenpflicht“ des Ist-Zustandes zu sehr verloren bzw. wer nur LNP hört, würde ein sehr verzerrtes Bild der zur Zeit geführten Debatte bekommen.

    Zur Einschätzung der Debatte selbst: Dass das Scannen on device so kritisch gesehen wird, hat wohl von seiten der US-Amerikanerinnen mit dem kulturellen Stellung und Sensibilität des Fourth Amendment zu tun. Eine Sache sind die Privacy-Erwartungen, die mit dem Hochladen eigener Daten auf fremde Server verbunden sind; eine ganz andere sind die Privacy-Erwartungen, die jene Daten betreffen, die auf dem eigenen Gerät gespeichert sind. Letzteres ist ein Ort (nicht zuletzt im Sinne der Extended Mind-These) in der Privatsphäre besonders schützenswert ist und nur auf richterlicher Ordnung vom Staat durchsucht werden kann. Dass hier der Hersteller der Geräte sich nun ein Recht nimmt, dass selbst dem Staat nicht gestattet wird, geht diesen Kritikerinnen (viel) zu weit.

    Da schiesst Tims Bemerkung, dass Apple solch ein Scannen bereits einsetzt, über das Ziel hinaus: Ich vermute er spielt auf die ML-Erkennung an, die bereits zur Textsuche in der Photos app eingesetzt wird. Aber durch die Kritik an Apple wird klar, dass hier nicht das Scannen on device das eigentliche Ziel ist, sondern, dass hier die Resultate des Scannens in einer Weise eingesetzt werden, die 1) nicht in erster Linie dem Interesse der Gerätenutzerin dienen; und 2) womöglich das Gegenteil der intendierten Wirkung haben. (Ein Beispiel, das von den Expertinnen in diesem Bereich angeführt wird: das forcierte Outing der sexuellen Präferenzen von Kinder und Jugendlichen an Eltern/Erziehungsberechtigte, welches im Falle von queeren Identitäten in intoleranten (Familien-)Konstellationen zum erheblichen Schaden derselben Kinder und Jugendlichen führen kann.)

  36. Tim, deine Argumentation ist absolut nicht schlüssig. Wenn Apple wirklich nur vorhätte Inhalte die sich in der iCloud befinden zu scannen, dann hätten sie den Scanner nicht AUF DAS TELEFON gebaut. In dem Sinne hat Linus einfach mall 100% recht und du bist auf das Marketing von Apple reingefallen.

    Ich halte Apples Lösung in Deutschland für illegal, da sie die Vertraulichkeit und Integrität meines informationsverarbeitenden Systems kompromittiert und nebenbei in meine Intimsphäre eingreift und das mal wieder im großen Stil und eben nicht gezielt zur Strafverfolgung.

  37. Zur Apple Thematik:
    Leider an Argument was Linux kurz angerissen hat, dann aber von Tim nicht beantwortet wurde und dann nicht wieder aufgegriffen wird, auch nachdem Tim den Satz später sogar noch einmal wiederholt:
    frei zitiert:
    Tim „Ich bin Cloud Anbieter und habe Kenntnis darüber, dass der Service für CP genutzt wird, was soll man machen?“ Bin ich natürlich voll bei Tim, ist ein Problem, aber folgende wichtige Frage stellt Linux dann:
    „WOHER hast du die Kenntnis darüber?“ und ich denke dass wäre der Start eines der wichtigsten Argumente dagegen, weil das auch sehr oft sogar von euch beiden bei tollen Verbrecher-Jäger-Tools vorgebracht wird. Wenn schon Kenntnis da ist, braucht man das Tool nicht mehr um Kenntnis darüber zu erlangen. Hoffe ihr nehmt diesen Punkt nochmal in einer Diskussion auf, mich hat wie gesagt Linus selbst auf diesen Gedanken gebracht, er wurde nur leider nicht weiter ausgeführt.

    • Ich vermute es war so gemeint, dass Du als Cloudanbieter für 20 Kunden sowas natürlich nicht weißt, aber wenn Du 20 Mio. Kunden hast, dann weist Du aus statistischen Gründen, dass da welche dabei sein müssen.
      Da ist man dann aber ruck-zuck bei der Frage, ob eine Wohnungsbaugesellschaft mit Zigtausend Kunden nicht Kameras aufstellen sollte, weil die Wohnungen zur Ausübung häuslicher Gewalt missbraucht werden.

      Begründet der Besitz eines Iphones einen hinreichenden Anfangsverdacht, den Kunden permanent zu überwachen und sein Gerät zu durchsuchen?

  38. Lieber Linus, lieber Tim,
    ich hatte währen Eurer Apple-Diskussion mehrfach das Bedürfnis, geeignete Maßnahmen zur Erhöhung Eures Denkvermögens zu ergreifen. Grundsätzlich fand ich die Diskussion gut, weil da harte moralische Dilemmata drinstecken über die man streiten muss.

    Aber die ganze technische Diskussion lenkt doch vom Hauptproblem ab: Wie wäre es, mal was gegen Kindesmissbrauch zu tun, und nicht gegen die Dokumentation desselben? Schulung und personelle Ausstattung von Polizei und Justiz, Sozialarbeiter:innen und Vertrauenspersonen in Schulen, Vereinen und kirchlichen Einrichtungen, eine Verbesserung der regelmäßigen Untersuchungen von (Klein-)Kindern um Misbrauch besser zu entdecken, und last but not least ein beherrschterer Umgang mit Verdachtsfällen anstatt einer potentiell existenzvernichtenden Vorverurteilung. Das sind natürlich alles Maßnahmen die die öffentliche Hand direkt Geld kosten, das Licht auf das Versagen Gesellschaft in diesem Bereich lenken und außerdem fällt keine nützliche Überwachungsinfrastruktur dabei raus.

    Das ist für mich ein wesentliches Problem der Debatte – der Fokus auf Technik und Datenschutz lenkt davon ab, dass Kinder ganz real missbraucht werden und die „Verbreitung der Dokumentation“ erst der zweite Schritt ist.

    Also nix für ungut, klasse Sendung, aber das musste mal raus…

    • > Das ist für mich ein wesentliches Problem der Debatte – der Fokus auf Technik und Datenschutz lenkt davon ab, dass Kinder ganz real missbraucht werden und die „Verbreitung der Dokumentation“ erst der zweite Schritt ist.

      Das ist ein wichtiger Punkt. Die technische Diskussion verschleiert den Blick daarauf, dass Apples Abschnorchel-Aktion keinen sexuellen Missbrauch von Kindern verhindern wird. Es kann aber den Besitz der Dokumentation einschränken.

      Das Bestreben, die Verbreitung der Dokumentation von Missbrauch zu unterbinden, ist ja durchaus ehrenwert. Aber die Rechtfertigung dafür kann nicht sein, dass damit Missbrauch verhindert wird. Missbrauch findet zu einem großen Teil im familären beziehungsweise familennahen Umfeld statt. Je mehr man das Dunkelfeld untersucht desto mehr steigt der Anteil des familiennahen Umfelds. Eine Prävention in diesem Bereich ist aber sehr schwierig und so ist es naheliegend, dass man in einer moralisch aufgeheizten Diskussion versucht, Instrumente zu entwickeln, die in gefühlt naheliegenden Feldern zählbare Ergebnisse liefern. Ich vermute, Apple konnte sich der Debatte nicht weiter entziehen und hat nun ein Instrument gebaut, das diese zählbaren Erfolge liefert. Ein Instrument, das an dem eigentlichen Elend nichts ändern wird.

      • Nicht Aufgabe von Apple, aber ein guter Anfang wäre es sicherlich, wenn man fragwürdige Personen mit einschlägiger Vorgeschichte aus dem Polizeidienst entfernt und Jugendämter personell anders ausstattet. Jahrelange Untätigkeit trotz wiederholter Hinweise aus dem Umfeld in Verbindung mit einer dreistelligen Anzahl an Beweismitteln (Datenträgern) die einfach mal bei der Polizei „verschwinden“… sowas ist völlig inakzeptabel und tatsächlich erst 2018/19 in NRW passiert.

        https://de.wikipedia.org/wiki/Missbrauchsfall_Lügde

        Auch das Thema Verjährungsfristen wird von Betroffenen kritisiert:

        https://tour41.net

        Ich glaube, für bestimmte Arten von Problemen sollte nicht immer so schell nach einer technischen Lösung gesucht werden.

        Zum Thema Datenschutz bei Apple:
        Weiß jemand warum ich beim Umtausch eines fehlerhaften Gerätes während der Garantiezeit dazu gezwungen werde mich im Apple-Store mit Personalausweis zu registrieren? Die Verknüpfung von Klarnamen und meiner anonymen Apple ID finde ich äußerst unnötig. Eine Löschung sämtlicher personenbezogenen Daten nach Abwicklung des Auftrages verweigerte man mir ebenfalls, an einschlägigen Vorgaben durch die DSGVO oder dem EUGH-Urteil zu Safe-Harbour zeigte man leider auch kein Interesse. Ich würde mal behaupten, die Schulung der Mitarbeiter und die Abläufe beim Umtausch stehen im krassen Widerspruch zu Apples sonstigen Anstrengungen auf diesem Gebiet. Eine technische Lösung für mehr Datenschutz lässt sich vermutlich besser vermarkten.

        Abschließend noch ein kurzer Gedanke zur letzten Folge und Apples Plänen:

        Für die kontroverse Diskussion in der Sendung bin ich sehr dankbar. Die Argumentation von Linus ist für mich zwar weiterhin überzeugender und absolut folgerichtig im Verhältnis zu zahlreichen Debatten aus der Vergangenheit. Aber deine Gegenrede hat dazu geführt, dass ich über bestimmte Aspekte von Überwachung noch einmal genauer nachgedacht habe. Da Apples geplanter Ansatz eine dezentrale und scheinbar private Umsetzung direkt auf jedem Endgerät ermöglicht, wird das Thema Generalverdacht in ein paar Jahren vielleicht noch einmal ganz neu diskutiert werden müssen. Die dann aktuellen politischen Hardliner könnten bspw. eine VDS-re-re-reloaded der allgemeinen Bevölkerung bzw. der Hab-doch-nichts-zu-verbergen-Fraktion viel leichter als sicherheitstechnischen Durchbruch verkaufen (z.B. mittels fragwürdiger Analogien zu Virenscannern ;). Dank rasanter Fortschritte im ML-Bereich verpetzen die Geräte zukünftig nicht mehr automatisch jeden, sondern allein „die Bösen“ ™, was eine permanente Überwachung weniger invasiv und moralisch gerechtfertigter erscheinen lassen könnte. Am Ergebnis ändert das natürlich trotzdem nichts, weshalb ich auch Apples Grundgedanke bei der CSAM-Bekämpfung schon jetzt ablehnen muss, ohne die technischen Feinheiten abschließend bewerten zu können (gleiches gilt für ihren optionalen Nippel-Filter auf iMessage). Apples Einschätzung, die vorgestellten Technologien sein erforderlich, geeignet und angemessen, um dem Problem zu begegnen, teile ich nicht. Verbrechensbekämpfung muss aus meiner Sicht auch zukünftig anders funktionieren.

  39. Es gibt unter den Apple-Nutzern offenbar drei Gruppen.

    Die Apple-Fanboys, die sich das Verhalten von Apple schön reden und verteidigen (Tim), egal wie kaputt es ist. Diese leiden unter dem Stockholm-Syndrom.

    Dann gibt es die, die das Verhalten von Apple nicht gut finden, aber zu tief im Apple-Käfig gefangen sind, um da ohne große Schmerzen raus zu kommen (Linus).

    Und dann gibt es die, die jetzt endlich erkennen, dass man Apple eben nicht trauen kann, und sich von dem Hersteller abwenden.

    Da die letzte Gruppe die kleinste ist, wird Apple keinen oder kaum Schaden nehmen. Die nächste Preiserhöhung wird das wieder ausgleichen. Der Markt regelt einen Scheiß.

  40. Ich möchte ebenfalls meine Meinung zu Apples Vorschlag beitragen.
    Auch ich stehe hier auf Linus Seite: dieses System zu Bauen ist ein Dammbruch und es wird sich in Zukunft kaum verhindern lassen, die Liste an „unerwünschten“ Materialien auf tatsächliches CSAM zu beschränken.

    Das offensichtliche Problem ist natürlich (wie von vielen, inklusve Linus erwähnt) die Möglichkeit, durch eine Änderung der Zielliste neue Inhalte zu finden.
    Ich möchte aber auch darauf hinweisen, dass die Zielliste einhergeht mit der eigentlichen Berechnung der „Neural Hashes“.
    Credit where credit is due: Apple verwendet den Begriff „Neural“ hier angemessen. Ihr Whitepaper beschreibt in kurzen aber recht eindeutigen Worten ein embedding network, trainiert auf automatisch generierten „Transformationen“ von zufällig ausgewählten Bildern einfach nur bestimmen soll, welche Paare von Bildern „ähnlich“ sind. Der Knackpunkt für mich hier: die Definition von „ähnlich“ ist nur kurz umrissen: z.B. sollen rekompression oder leichter Zuschnitt die Ausgabe des Netzwerkes (das sog. „embedding“) nicht ändern. Ich würde mich so weit aus dem Fenster lehnen zu erwarten, dass auch bei Rotation, Spiegelung und ähnlich Operationen die embeddings stabil bleiben sollten.

    Aber: diese Liste der Operationen, die den Hash nicht verändern sollen, wird sich im Laufe der Zeit mit an Sicherheit grenzender Wahrscheinlichkeit ändern. Was z.B. wenn auch Besitzer von CSAM „meme text“ auf ihre Bilder schreiben? Was, wenn sie Filter (ähnlich wie instagram) benutzen? Das Netzwerk muss nun neu trainiert werden, damit diese Operationen die embeddings nicht verändern. Die Parameter des neu trainierten Netzwerks müssen dann nur noch als Update ausgeliefert werden, nebst einer neuen List an Ziel-hashes (da ja auch das original Zielmaterial neue embeddings hat).
    Das ist _normal_ und erwartet. Neuronale Netzwerke haben die *gute* Eigenschaft, dass mit mehr Daten und besseren Trainingsmethoden bessere, genauere Ergebnisse erzielt werden können.
    Es bedeutet aber auch, dass die Nutzerin *erwarten* sollte, immer wieder einmal einige MB an neuen Hashes und Netzwerkparamntern als Update zu bekommen, aber keinen Weg hat zu sehen, wonach dieses neue Netzwerk jetzt sucht. Dies kann nur dann nachvollzogen werden, wenn die Nutzerin eine Ahnung hat, wonach gesucht wird, solches Material an den Filter gibt, und darauf wartet, dass ihr iCloud-account gesperrt wird.

    Ich nehme Apple sofort ab, dass die Netzwerkparameter, die sie nun trainiert haben (oder wollen) sich nur dazu eignen, einfache Transformationen zu erkennen. Aber wenn einmal Instagram-ähnlich gefiltertes Material erkannt wird, warum dann nicht auch Fotos von der gleichen Szene, mit leicht anderen Posen? Quasi ein anderes Bild aus der gleichen Fotosession. Dabei handelt es sich schließlich um die gleiche Straftat.

    Am Ende steht ein System mit gleich *zwei* „slippery slopes“:

    1. Wird die Liste an gesuchtem Material wie schon erwähnt immer weiter ausgeweitete werden. Wenn dieses System erst einmal verfügbar ist, werden Copyright-industrie und Bekämpfer „schwerster Kriminalität“ zuerst an der Tür klopfen.
    2. Wird das darunterliegenden Netzwerk immer „mächtiger“ werden, bis hin zu dem Punkt, an dem „zeigt eine ähnlich Szene“ auch als „ähnlich“ gilt.

    • von Daan:
      > Es bedeutet aber auch, dass die Nutzerin *erwarten* sollte, immer wieder einmal einige MB an neuen Hashes und Netzwerkparamntern als Update zu bekommen, aber keinen Weg hat zu sehen, wonach dieses neue Netzwerk jetzt sucht. Dies kann nur dann nachvollzogen werden, wenn die Nutzerin eine Ahnung hat, wonach gesucht wird, solches Material an den Filter gibt, und darauf wartet, dass ihr iCloud-account gesperrt wird.

      Danke! Das ist ein interesanntes Szenario:
      Die „NeuralHashes“ habe ich mir noch nicht so gut angeschaut wie den Crypto-Kram danach, das ist aber wichtig und hier auch nochmal ZU BETONEN:

      DIE DETEKTION (mittels NeuralHash) HAT NICHTS MIT CRYPTO ZU TUN!!!

      Und genau hier, ein-drei schritte vor der ersten CRYPTO-Operation setzen hier auch alle Kritiken an!
      Hier kann sich Tim noch so sehr für die TECHNIK interesieren, es bleibt ein Scanner auf dem Entgerät mit dem Potential ALLE bits-&-bytes zu „überprüfen“ und zu melden!
      Wenn dan in zukunft immer wieder „Blinded-Hash-Tables“ geupdated werden (die nicht überprüfbar sind) ist es auch unmöglich wirklich zu wissen ob hier nicht auch andere Aktöre als die NCMEC beim Hashing „behilflich“ sind…

      Heute CSAM…
      Morgen Terror…
      Übermorgen Urheberrecht….
      und dann???… HK Proteste, Belarus… you name it
      Und das alles AUF meinem gerät, bei daten die ich NIE veröffentlichen wollte!
      Was mögen wohl Journalisten davon halten?
      (spoiler: https://www.handelsblatt.com/technik/it-internet/iphone-hersteller-journalistenverbaende-verurteilen-apple-massnahmen-zu-kinderpornografie/27522098.html)

      • Ja man kann sich da natürlich immer in alle möglichen Endzeitszenarien reinsteigern und den Ist-Zustand immer mit irgendwie realistisch erscheinenden oder auch weniger realistischen Zukunftsprognosen anreichern, aber mir fehlt hier wirklich noch einiges bis zur Apokalypse.

        Viele regen sich auf, dass hier ein Check on-device gemacht wird und dass das ja der Anfang vom Ende ist. Ich persönlich finde das erst mal nur interessant, weil es an sich überhaupt nichts Neues ist.

        macOS (wie viele andere Systeme auch) hat einen Virenscanner und checkt Executables on-device mit Einträgen auf Listen, die regelmäßig aus dem Internet nachgeladen werden. Hier könnte man genauso argumentieren: Dammbruch! Wenn das Schule macht! Heute Viren morgen das Sonnensystem!

        Am Ende besteht jede Cloud-Anbindung (genaugenommen auch jede Netzwerk-Interaktion) immer aus zwei Seiten: Code läuft auf dem Server, Code läuft auf dem Client. Das Vertrauen muss man immer beiden Seiten entgegenbringen.

        Und das stört mich hier auch an der Argumentation: alle möglichen denkbaren Szenarien der Zukunft sind genau genommen auch schon Szenarien der Vergangenheit. Alles wäre schon gestern möglich gewesen und dieser Vorschlag von Apple führt hier überhaupt nichts wirklich neues ein.

        Manches macht eben mehr Sinn auf dem Server, anderes ist besser beim Client aufgehoben sein und das kann in diesem Fall durchaus der Fall sein, zumal damit eben auch eine Vollverschlüsselung der Cloud möglich werden _könnte_ und gegenüber dem Gesetzgeber argumentiert werden kann, dass man ja trotzdem auf CSAM checken kann (und sonst eben auf gar nichts). Ich weiß nicht, ob das so kommen wird oder was Apple sonst noch von der Vollverschlüsselung abhält (wie der Tatsache, dass sie sich täglich mit tausenden Usern mit vergessenen Passwörtern rumschlagen müssen), aber es ist ein Gedanke, den ich für diskussionswürdig halte.

        Würde Apple (bzw. auch alle anderen Unternehmen) von irgendwelchen Ländern gezwungen werden, geheime Zugriffe zuzulassen ohne die Nutzer davon zu benachrichtigen, es wäre schon alles da. Und vielleicht ist das auch so. Dafür braucht es diesen aufwändigen Prozess zu Checken von CSAM überhaupt nicht, der würde nur stören und ist viel komplizierter, als einfach eine direkte Online-Durchsuchung zu machen.

        Ist es wirklich so viel verlangt, einfach mal über meine Argumente ruhig nachzudenken und zu diskutieren anstatt nur gehetzt Ländernamen aneinanderzureihen? Als ob ich hier auf einmal einem Überwachungsstaat das Wort reden würde. Kommt mal klar.

        • Möchte mich an dieser Stelle gerne vom Ton des GP distanzieren.
          Natürlich höre ich deine Argumentation, Tim. Ich finde das Dammbruchargument allerdings schwer von der Hand zu weisen an dieser Stelle. Nicht nur aus historischer Betrachtung, sondern auch,weil Apple ja anscheinend schon damit begonnen hat, den Anwendungsbereich von „nur iCloud, nur bei Upload“ auszuweiten auf „wir können uns auch vorstellen, das anderen Apps als API anzubieten.“

          Klar ist das noch nicht „wir scannen alles und jeden immer und überall“ aber es fällt mir dabei schwer, an eine ewige Begrenzung auf das iCloud-Szenario, oder auch nur auf generelle „pre-upload scans“ zu glauben.

          Der Schutz durch Virenscanner ist übrigens ein anderer, wenn man denn einen benutzt. Abgesehen davon, dass deren Cloud-connections auch nicht ohne Kritik bleiben, ist ihr Zweck dann wenigstens ganz klar an die Interessen des Gerätebesitzers angelehnt.

        • macOS (wie viele andere Systeme auch) hat einen Virenscanner und checkt Executables on-device mit Einträgen auf Listen, die regelmäßig aus dem Internet nachgeladen werden. Hier könnte man genauso argumentieren: Dammbruch! Wenn das Schule macht! Heute Viren morgen das Sonnensystem!

          Och komm Tim, das wird langsam unredlich.

          Wesentliche Unterschiede:
          1. Als User kann ich das konfigurieren/abschalten
          2. Virenscanner arbeiten für mich.

          Am Ende besteht jede Cloud-Anbindung (genaugenommen auch jede Netzwerk-Interaktion) immer aus zwei Seiten: Code läuft auf dem Server, Code läuft auf dem Client. Das Vertrauen muss man immer beiden Seiten entgegenbringen.

          Eben darum gehts.Vertrauen. Kann man Apple vertrauen, dass sie sich allen Ansinnen verweigern oder kommt letztendlich „wir werden lokalen Gesetze Folge leisten“?

        • Zuerst einmal möchte ich mir KLAR dafür Entschuldigen dass ich mich offensichtlich so im Ton Vergriffen habe, das lag keines wegs in meinem Interesse!

          Um das wieder gut zu machen möchte ich dir Tim hier folgende Zugeständnisse machen:

          Zum Crypto-Thema:
          … das habe ich in einem anderen Kommentar bereits erläutert und sogar für „kass“->gut befunden: https://logbuch-netzpolitik.de/lnp403-leichte-schlaege-auf-den-hinterkopf#comment-164154

          >> „…zumal damit eben auch eine Vollverschlüsselung der Cloud möglich werden _könnte_ und gegenüber dem Gesetzgeber argumentiert werden kann, dass man ja trotzdem auf CSAM checken kann (und sonst eben auf gar nichts)…“

          Ja ich denke diesen Punkt haben alle durchaus auch in deiner Diskussion mit Linus verstanden. Und der Standpunkt ist in gewissen Grenzen durchaus nachvollziehbar.
          Das möchte weder ich noch (hoffentlich) sonst irgendwer dir absprechen.

          >> „…macOS (wie viele andere Systeme auch) hat einen Virenscanner und checkt Executables on-device mit Einträgen auf Listen, die regelmäßig aus dem Internet nachgeladen werden…“

          Der Punkt ist auch nicht ganz schlecht, wenn auch nicht gut vergleichbar. Ich kann mich immer noch für einen Virenscanner meiner Wahl frei entscheiden, oder das SchlagenÖl doch nicht schlucken.
          Mir fällt hier aber ein anderer Vergleich ein:
          Windows, VS-Code, (apps) … senden auch immer Telemetrie daten nach hause, warum also in Zukunft nicht auch Terror material und Urheberrechts-Verletzungen?

          Nur weil wir hier über Apple Diskutieren heißt das noch nicht dass wir Google/Facebook/Amazon/… als Halsbringer oder als „Privatsphäre-Schonend“ betrachten!

          Ich Würde sogar behaupten dass genau das Gegenteil der Fall ist. Daher mein Vorschlag, betrachten wir diese Debatte doch mal unter folgendem Licht:
          „Ich unterstelle mal allen dass sie Apple richtig toll finden und den Privatsphären-Schutz der ihnen hier geboten wird in keiner Weise missen wollen. Dann liegt es doch nahe dass wir hier nicht gegen Apple argumentieren oder ein -Apple-Bashing- veranstalten. Sondern dass viel eher das Gegenteil der Fall ist und wir FÜR Apple und für den erhalt der Privatsphäre schützenden Funktionen eintreten“

          Was ich uns allen damit Unterstelle ist also kein Angriff auf Apple, und damit auch kein persönlicher Angriff auf dich Tim!

          • Oh was ich vergessen habe:

            Ich hoffe wir können wie bei den 13,Fragen (mit Linus) hier alle ein Feld vor rücken in richtung Kompromiss und uns von einer absoluten Defensieven haltung ein wenig lösen.

            Ich würde mich selbst durchaus auf dem Feld (3/4) sehen. Und mein Kompromiss Vorschlag wäre:
            Warum nicht mal mehr Preventionen fördern? Wenn wir doch alle etwas gegen CSAM machen wollen wollen wir doch eher etwas gegen den Missbrauch an sich machen, oder? Also warum nicht Weltweit viel mehr Beratungsstellen und Hilfestellende NGOs unterstützen mit all dem Geld das derartige Großkonzerne zu viel haben?

            Vielen dank für die Diskusion und bis zur 404, wo war die noch gleich?

        • Die Apokalypse steht nicht bevor und es wird auch keine geben. Aber die Baseline wird ein weiteres Stück weitergeshiftet – das was als Privatheit auf dem „eigenen“ Telefon und dem „privaten“ Cloudspeicher als Normal erwartet (und als gesellschaftlich akzeptiert) werden darf wird neu definiert. Die Tendenz in welche Richtung sich die Privacy-Baselines seit Jahren bewegen ist bei Shoshana Zuboff, Netzpolitik.org und LNP nachzulesen oder -hören. Statt einer Apokalypse nähert man sich schleichend einem System, bei dem Rundumüberwachung als Normalität empfunden wird (die nach 2010 Geborenen kennen ja nichts anderes) und gesellschaftliches Verhalten im Sinne der Überwacher beeinflusst wird, etwa so wie China (frei von Kriminalität aber auch frei von echter Freiheit) nur in Siliconvalleyisch. Ich halte dieses Szenario leider nicht für absurd.

          Apple ist als Aktienkonzern in erster Linie seinen Shareholdern verpflichtet und wird von bezahlten Managern geführt. In so einer Struktur ist kein Platz für Ethik. Heilig ist dem Konzern sein Image, da es direkt auf die erzielbaren Preise einzahlt.

          Ich räume ein, die vorgestellte technische Innovation mag, sofern und solange die (Vertrauens-)Randbedingungen erfüllt sind, in der Lage sein bestimmte Güterabwägungsprobleme gut lösen.

  41. Zum Apple File Scan:
    Wenn ich das System richtig verstanden habe kann Apple damit prüfen welche Dateien auf den Geräten sind. Whistleblowing können wir dann in Zukunft vermutlich vergessen wenn selbst Geräte die einem selbst gehören auf verdächtige Dateien gescannt werden. Gerade wenn es um die „nationale Sicherheit“ geht werden doch alle Möglichkeiten ausgeschöpft.

  42. Lieber Linus, lieber Tim,

    euer Disput ueber das vorhaben von Apple hat mir sehr gefallen. Es ist selten, dass gute Freunde eine offene und sehr divergente Haltung zeigen und es dennoch eine faire und freundschaftliche Trennung unter beibehaltung der eigenen Meinung in einem sehr delikaten Themas gibt, und zur Mitsprache des Netztes anregt.

    Was mir allerdings hier fehlte ist die Benennung der tatsaechlichen und offentsichlichen Gefahr welche von der neuen Technik bzw. deren Implementierung ausgeht. (Hier muss man euch fast einen Vorsatz vorwerfen.)

    Wenn Apple offen eine Technik propagiert, welche es ermoeglicht Bilder zu einem bestimmten Themenbereich trotz Verschluesselung zu Filtern, ist der Themenbereich sofort austauschbar und den immer wirtschaftlichen Interessen unterlegen.

    Soll heissen, dass wenn China oder gar Staaten wie die Tuerkei oder Ungarn hingehen und nach Fotos von nackten Maennern scannen sobald das Endgeraet einem Mann gehoert etc. ist die Implementierung nur einer Androhung eines umfassenden Verkaufsverbotes von Produkten der Firma Apple in dem jeweiligen Land entfernt.

    Und gerade Apple hat sich im Bereich der Abwaegung von wirtschaftlichen Interessen versus Schutz der Nutzer schon in China die Finger nachweisslich verbrannt.

    • Ich moechte hier noch ergaenzend ein bekanntes Sprichwort anbringen, dass sich durch die ganzen Diskusionen traegt, lange bevor Apple seinen Marketing Suizid angekuendigt hat:
      „Wo ein Trog steht, kommen auch die Schweine“…

      2000er waren es Terroristen
      2010er war es CSAM
      2020er sollten wir langsam an die arme Musik und Filmindustrie denken (Die Basteln bestimmt schon hashes)

      Ich bin mir sicher, dass Apple das fuer Sony, Universal & co. macht, wenn diese im Zweifel ankuendigen, dass bei Netflixproduktionen die Protagonisten nur noch Samsung Galaxy Phones haben auf denen ein riesen Android Logo zu sehen ist, wenn Apple fleissig das hosten von Filmkopien weiter foerdert.

  43. Ich muss sagen: Als langjähriger LNP-Hörer und Supporter war ich nie zuvo so gespannt auf eine neue LNP Folge, wie vor dieser Folge. Bereits mit den ersten Presseberichten zu Apples Scanvorhaben, war mir klar, dass es eine spannende Folge werden wird.

    Linus Einstellung zu dem Thema war die mich absehbar und zu hundert Prozent nachvollziehbar. Bei dir Tim, war ich doch ein wenig verwundert, wie wenig kritisch du das Thema siehst.

    Ich nutze nun seit gut zehn Jahre Android Geräte und kämpfe mit Entgoogelung ein wenig für meine persönliche Privacy. Anfang des Jahres habe ich die Entscheidung gefasst, mit dem nächsten Smartphone komplett ins Apple Universum zu wechseln. Mit der Ankündigung haben sie jetzt leider herbeigeführt, dass ich doch nicht mehr so sicher bin, ob das eine gute Entscheidung ist.

  44. Kurzer Hinweis zu Linus in der (sehr interessanten) Apple-Diskussion:

    Einmal argumentiert er, dass bei den vielen Devices eine Fehlerquote im Promille-Bereich hohe absolute Zahlen bedeuten. Später sagt er, dass die Nutzung für CSAM ja nur im Promille-Bereich liegen würde und darum als Kollateralschaden in Kauf zu nehmen sind.

    Dem Unterschied zwischen Facebook als Sharing-Platform und iCloud als privates Speichermedium musste ich gedanklich spontan entgegenhalten, dass das Argument doch eigentlich Facebook vs. SSD in der Schublade sein müsste. Und die automatisiert und flächendeckend zu scannen wäre wohl eine andere Diskussion.
    iCloud scheint mir irgendetwas dazwischen.

  45. Die geringen Fehlerraten des Apple-Scanners von 1:1Billion war das Argument von Tim. Zu kurz kam mir aber der Angriffsvektor durch untergeschobenes Material: iPhone liegt unbeaufsichtigt auf Party rum, Kamera aus dem Sperrbildschirm wird aufgerufen, 30 Fotos später hat der Besitzer dann ein Problem.

    • Aber nur, wenn jemand mal eben 30 Fotos von bekanntem CSAM-Material machen kann. Nicht die beiden Features von Apples neuen Funktionen verwechseln.

      • Ich denke was Utz meint geht hier eher in die Richtung gezielter Angriff eines Geheimdienstes gegen unliebsame Personen.
        Da wären die 30 Bilder dann x Tage nach der Party auf einmal in den Datenbanken. Und das ganze würfe sich vermutlich nie wirklich zu gunsten der betroffenen Person klären lassen.

  46. Würde gerne mal fragen, ob ich den Scan so ungefähr richtig verstanden habe und falls ja, ob dann das im Anschluss an die Schilderung meines Verständnis Folgende möglich ist:

    Da gibt es diese Kinderschutz-Organisation(en), die KiPo Bilder kennt und diesen mittels einem speziellen Verfahrens einen Hash zuordnet.
    Dieser Hash wird auf das IOS-Gerät geladen und Fotos, die dann in die I-Cloud hoch geladen werden sollen, werden auch diesem Verfahren unterzogen. Gibt es bei diesen Bildern nun solche, die auch KiPo beinhalten und eigentlich bekannt sind, aber einer leichten Veränderung unterzogen wurden, dann werden diese durch das neue Verfahren trotzdem erkannt und dem Hash von der Kinderschutz-Organisation zugeordnet werden.
    Sollten sich mindestens 30 solcher vermeintlich ähnlichen Bilder mit KiPo-Inhalt ermitteln lassen, so wird bei Apple ein Alarm ausgelöst und die Bilder werden auf dem I-Cloud-Server noch mal überprüft, ob es sich dabei dann wirklich um die bekannten, wenn auch eventuell leicht veränderten KiPo Bilder handelt.
    Falls ja, so werden rechtliche Schritte eingeleitet.

    Ist das soweit richtig verstanden?

    Wenn dem so ist, wäre dann auch eine Gesichtserkennung denkbar?
    Dieses Hash-Verfahren wird ja auch von einem Porträtfoto beispielsweise von mir einen Hashwert ausrechnen können. Dieser Hashwert, der ja quasi nur die Infos enthält, wie ich aussehe (weil Porträt), könnte der dann nicht auch zu einem Treffer führen, wenn er auf dem Iphone meiner Freundin landet, die einige andere Bilder von mir hat und bei denen es Ähnlichkeiten mit dem Porträt gibt (weil halt quasi alles vom Porträt auch auf den anderen Bildern, auf denen ich mit drauf bin, mit vorhanden ist)?

    Falls dem so wäre, ist dann folgendes Szenario so unrealistisch?
    Amerikanische Behörde sucht Person X und hat von dieser Person auch Fotos. Sie nimmt diese Fotos und unterwirft diese Fotos von dem Gesuchten ebenfalls diesem speziellen Hashverfahren.
    Mit diesem Hash-Wert geht es dann zu diesen Kinderschutzorganisationen und zwingt diese, aus Gründen der nationalen Sicherheit mit Gerichtsbeschluss, diesen Hashwert auf die Milliarden IOS-Geräte da Draußen zu senden. Bis hierhin denke ich, sollte das Szenario denkbar sein. Falls die amerikanische Behörde nicht an das Verfahren gelangt, dann zwingt es eben per Beschluss die Kinderschutzorganisationen dazu, die Bilder des Gesuchten in ihre Datenbank als KiPo zu übernehmen und dann den Hashwert selbst ermitteln und auf die Geräte zu senden.

    Was dann für die Behörden möglich wäre, ich glaube, ich muss es nicht ausmalen.
    Was, wenn die Chinesen sagen, hey Apple, tolles System, aber eure amerikanische Kinderschutzorganisation kennt doch gar nicht den asiatischen KiPo-Markt, wir müssen da unsere chinesische Kinderschutzorganisation ins Boot holen, damit ihr bei uns noch weiter eure Geräte verkaufen könnt.

    Keine Ahnung, ob das Szenario mit der Gesichtserkennung da in dem System drin ist. Aber das System weiß ja nicht, was KiPo ist und wenn ich dem Verfahren ein Bild gebe, dass ihm nur die Info über das Aussehen einer Person gibt und dann Hashes erzeugt werden, die ähnliche Bilder suchen, also solche, wo auch die Infos über das Aussehen der Person enthalten ist, dann dürfte diese Möglichkeit nicht so unrealistisch sein.

    Und dann freuen sich alle diejenigen, die Tim bisher eher in ihrem Wirkungsbereich einschränken wollte.

    Aber vielleicht sind meine Gedanken ja auch Quatsch, dann bitte Sorry ob des langen Textes.

    • Ohne Experte auf dem Gebiet zu sein:

      ad 1) Kinderschutzorganisation: Die mögen eine Datenbank mit Hashes haben, aber für ein Verfahren, das Bilder nicht auf Identität, sondern Ähnlichkeit prüft, braucht man einen anderen Hashalgorithmus. Man muss also die bekannten Bilder mit dem neuen Algor. hashen. Die alten Hashes nützen einem da gar nichts.
      Aber praktisch wird natürlich irgendwer eine Datenbank der bekannten Bilder haben, der auch dazu befugt ist.

      ad 2) Ein ähnliches Gesicht ist noch kein ähnliches Bild. Lichtverhältnisse, Kameratechnik, Teile der Kleidung (Kragen) und Umgebung im Hintergrund sowie Perspektive, Mimik – das ist ja alles von Portrait zu Portrait unterschiedlich. Gesichtserkennungssoftware ist sicher auf andere Merkmale spezialisiert und abstrahiert von anderen Merkmalen, als die hier in Rede stehende.

      Wobei mir nicht ganz klar ist, was die Software nun sucht. Modifikationen wie Beschneidung, anderes Grafikformat usw. wurden genannt, aber andererseits soll die Software – so habe ich es verstanden – auch klassifizieren, also neues Material erkennen können.
      Das würde bedeuten, dass sie aus zwei Hauptmodulen bestünde, die unabhängig voneinander arbeiten und ganz unterschiedliche Methoden benutzen.

      Bei letzterem will man aber gerade nicht ein Opfer wiedererkennen, nur diessmal in Schuluniform auf dem Gruppenbild, sondern eher im Gegenteil, man will vom Gesicht abstrahieren, außer insoweit, dass man erkennt: Sieht wie ein Kind aus.

      Also bezogen auf Fahndungsfotos würde ich, von dem was ich zu wissen meine, annehmen, dass die Software dafür nicht geeignet wäre.

  47. Können wie bei dieser ganzen CSAM-Geschichte nicht schon wieder mal vergessen, dass wie auch immer geartete technische Maßnahmen keinen Missbrauch verhindern? DA sollte man vielleicht mal ansetzen.

  48. Weshalb müssen eigentlich in der digitalen Welt immer wieder längst akzeptierte Grundsätze und Menschenrechte, wie in diesem Fall das Recht auf Privatsphäre, in Frage gestellt werden? Kindesmissbrauch gab es schon immer und auch die Darstellung desselben in Wort und Bild zur Befriedigung einiger weniger kranker Menschen. Dennoch wäre ein Aufschrei durch das Land gegangen, wenn man zur Bekämpfung mal eben ansatzlos alle Bürger unter Generalverdacht stellen und in einem regelmäßigen Prozess irgendwelche scheinbar neutralen Stellen die Diasammlung der Menschen in deren Häusern durchsuchen ließe. Jetzt sind die Bilder digital und der Diakasten oder das Fotoalbum nicht mehr zur Ablage geeignet. Und deshalb soll nun alles anders werden? Weil es technisch möglich ist? Warum lassen wir uns immer wieder vom technischen Fortschritt diktieren, was wir machen MÜSSEN, sobald wir es machen KÖNNEN? Ganz abgesehen davon, dass es für diejenigen, die es darauf abgesehen haben, jederzeit genügend Alternativen zur Beschaffung oder Verbreitung dieses Drecks geben wird. Auch in dieser Bubble gibt es aller Wahrscheinlichkeit nach findige Informatiker, die sich nicht von einem Diktat Apples beeindrucken lassen.

    Die offensichtliche Möglichkeit des Missbrauches solcher Techniken durch andere Matching Datenbanken habe ich von Tim auch nicht widerlegt gesehen. Und das Argument, mit Einführung einer solchen Technik die scheinbare Notwendigkeit von Staatstrojanern o.ä. zu verkleinern, naja, das sehe ich auch eher als marginal an. Sind doch Terrorabsprachen oder ähnliches, was hier als Begründung von staatlicher Stelle aufgeführt wird, nicht mit neuralen Hashes zu erfassen.

    Dennoch würde mich bei aller begründeten Kritik von Linus doch sehr interessieren, welche Alternativen er oder auch der CCC hier dem Staat anbieten kann, um seiner Schutzpflicht gegenüber seinen Bürgern und in dem Fall den Kindern nachzukommen. Gibt es da etwas, mit dem man konstruktive Kritik an solchen Überwachungsvorhaben üben könnte anstatt immer nur ablehnend zu wiederholen, dass es so ja nicht ginge?

    • „Dennoch würde mich bei aller begründeten Kritik von Linus doch sehr interessieren, welche Alternativen er oder auch der CCC hier dem Staat anbieten kann, um seiner Schutzpflicht gegenüber seinen Bürgern und in dem Fall den Kindern nachzukommen.“

      Gute alte Polizeiarbeit. Das wichtigste ist doch der Schutz der Kinder und da sind Bildungseinrichtungen und das Jugendamt gefragt. Des weiteren werden oft reichhaltige Daten über weitere Täter auf den Rechnern/Telefonen von Tätern gefunden – bei einer ganz normalen Hausdurchsuchung (mit Richtervorbehalt). Dafür brauchen wir keine verdachtsunabhängige Generalüberwachung.

      • Um mich an dieser Stelle selbst ein wenig zu widerlegen würde ich antworten, dass sich die Möglichkeiten der Polizei. mit zunehmender Digitalisierung und Nutzung verschlüsselter Speicherung und Kommunikation auf Täterseite, vermutlich doch um Einiges verringert haben. Hinzu kommt wohl auch, dass hierdurch die Möglichkeiten der Vermarktung des Missbrauches oder zumindest der Tätergruppenbildung stark gestiegen sind. Da finde ich die Frage, welche Möglichkeiten auf Strafverfolgerseite dieser Entwicklung Rechnung tragen könnten, ohne Menschenrechte ansatzlos einzuschränken, doch gerechtfertigt. Warum es beispielsweise noch Kinderschänder gibt, die ihr Endgerät nicht vollverschlüsseln und daher bei einer Hausdurchsuchung auffliegen, weiss ich nicht. Aber es kann eigentlich nur eine Frage der Zeit sein, bis auch der letzte von ihnen erkannt hat, welchen Schutz ihm derartige Techniken bieten können.

        • Das mit der Schutzpflicht ist etwas schwierig. Ich nehme hier ein Missverständnis wahr.
          Oft wird die Schutzpflicht aus den Grundrechten, wie z.B. körperliche Unversehrtheit, abgeleitet.
          Dabei handelt es sich aber um Abwehrrechte gegen den Staat, was insbesondere im Kontext der deutschen Geschichte Sinn ergibt.
          Eine Schutzpflicht in der Art „der Staat muss Verstöße gegen Grundrechte der Bürger untereinander verhindern“ würde sich damit nicht vertragen. Das Bundes Verfassungsgericht erkennt aber an, dass die Gesetzgebung eine Verpflichtung hat die gegenseitigen Schutzrechte der Menschen untereinander auch durch das Strafrecht zu regeln. Sehr Eindrucksvoll ist dazu das Urteil zur Frage der Streichung des Abtreibungsverbotes aus dem Strafrecht. Hier hat das Verfassungsgericht die Schutzrechte des ungeborenen Kindes als Grund angesehen zumindest den Straftatsbestsnd auch bei Straffreiheit bestehen zu lassen. Eine bekannter maßen nicht gerade unumstrittene Entscheidung die eine Abwägung des gleichen Grundrechts von zwei Personen darstellt.
          Spontan fällt mir nicht Juristen aber nur eine Gesetzgebung und das betreffende Urteil dazu ein in der eine Schutzpflicht des Staates unterstellt wurde: Stichwort Flugzeugabschüsse bei Terrorismus um „unbeteiligte“ zu schützen. Hier war das Haipargument, wenn ich es richtig erinnere, dass der Staat nicht Menschenleben gegen einander abwiegen darf.
          Auch das steht in einem Krassen wiederspruch zu einer uneingeschränkten Schutzpflicht.
          Ich glaube nicht das es hier einfach nur eine sehr eingeschränkte Schutzpflicht des Staates gibt, sondern vor allem individuelle Verantwortung der TäterInnen und des Umfeldes. Der wird über das Strafrecht bereits Rechnung getragen. Ich tue mich schwer damit im Bereich dokumentierter Kindesmissbrauch von gesellschaftlicher Verantwortung zu sprechen. Wir haben als Gesellschaft zweifellos ein Interesse daran derartige Straftaten zu verhindern, aber Verantwortung … ich empfehle dazu den Podcast Betrag von “ was denkst du denn“.
          Zum Thema Grundrechte sind erstmal Schutzrechte gibts paar schöne Ausführungen im WRINT Politikunterricht.
          Man darf übrigens durchaus erkennen, dass man ein nicht Lösbares Problem vor sich hat, weil alle vorgeschlagenen Lösungen unzählige neue Probleme verursachen. Und dann können wir JS mal abwägen welche Probleme wir lieber haben.

  49. Bezüglich der Apple-CSAM scanner: Ich bin ganz bei Linus – verdachtsunabhängige Überwachung jeglicher Art ist mit einem demokratischen Rechtsstaat nicht vereinbar.

    Anschaulich wird das, wenn man die falsch-positiv Rate mit berücksichtigt: Es fiel die Zahl 1 zu 1 Million falsch Positive. Die Anzahl der richtig positiven wird vermutlich in einer ähnlichen Größenordnung liegen – tendenz fallend, da selbst die dümmsten Täter, die das bisher gemacht haben, nach Einführung der Filter solche Daten nicht mehr in Apples Cloud hochladen werden. Das bedeutet, dass ca. jeder zweite, dessen Bilder von Apple gesichtet werden unschuldig ist. Das finde ich Inakzeptabel!

    Nach Tims Argumentation könnte man auch von den Kameraherstellern verlagen, dass sie Kindesmissbrauch erkennen und die Aufnahme verweigern. Auch das würde den Missbrauch nicht verhindern sondern nur die Dokumentation (bzw. würden die Täter dann halt alte Kameras verwenden).

    • Es war 1:1Billion, also 1E-12, vermutlich aufgrund der 30 notwendigen Treffer. Wobei das auch nicht ganz passt: Wenn es 30 Bilder braucht, um auf 1E-12 zu kommen, dann wäre das System pro Bild schon krass schlecht.

  50. Hi,
    die LNP403 hat mich dann doch recht verwirrt zurückgelassen und ich denke ich bin in dieser Hinsicht nicht der/die einzige. Ich würde mich freuen wenn Ihr in einer der nächsten Folgen noch auf drei Punkte eingehen könntet (wobei Punkt 1,2 mir wichtiger ist):

    1. In wie weit unterscheidet sich der Vorschlag von Apple zu den groben Ideen der EU lokale Scanner in z.B. Messegern einzubauen. Für mich, der nicht so tief in dem Thema steckt, ist es die gleiche Kategorie und Apples Vorschlag ist nur die technische Ausführung des EU Vorschlages. Aber bei dem EU Vorschlag wart Ihr beide strikt dagegen, was beim Apple Vorschlag nicht der Fall war.

    2. Warum Apple nicht wie andere Cloud Anbieter einfach seine iCloud scannt. Warum also den technischen Aufwand betreiben um die Photos in der iCloud zu prüfen. Weil bei den lokalen Scanner ist der nächste logische Schritt z.B. das Anbieten einer OS API für Messenger oder ähnliches.

    3. Noch einmal beleuchtet, dass es sich bei dem genutzen Machine Learning, aber auch dem Threshold um eine Blackbox handelt. Niemand weiß wie gut/schlecht das System ist, welche Trainingsdaten genutzt werden oder wie hoch der Threshold am Ende ist (kann jederzeit ohne Benachrichtigung von Apple geändert werden).

    • zu 1. Das hast Du richtig erkannt. Bei Apple gab es jetzt eben eine konkrete Implementierung, die man genauer diskutieren kann als den abstrakten EU Vorschlag.
      zu 2. Weil das prinzipiell nicht geht, so lange die Daten in der Cloud sicher verschlüsselt sind. Der Clou von Apples Ansatz ist ja gerade, dass die Daten nur dann unverschlüsselt bei Apple landen, wenn der Algorithmus sie verdächtig findet.
      zu 3. In diesem Fall kommt noch erschwerend hinzu, dass es sich bei den Trainingsdaten für das Machine Learning um Kinderpornographie handelt! Die kann man nicht so einfach veröffentlichen, um den Algorithmus transparenter zu machen und zu verbessern.

  51. Nach dem Motto es ist schon Alles gesagt nur nicht von jedem möchte ich hier auch noch meinen Senf dazugeben.

    Auch mir hat eure Doppelfolge 403/409 vor allem mit eurer lebhaften Diskussion um Apples neue Filtersysteme gut gefallen. Ich fand die Reaktion auch insgesamt sehr interessant die man so in Foren und diversen Kommentarbereichen ablesen kann (ich weiß, ich weiß, im Zweifelsfall nicht repräsentativ). So hab ich dann auch hier die Kommentare gelesen und war etwas überrascht dass es doch mitunter sehr undifferenziert ist.

    Ich bin generell, wie augenscheinlich die meisten hier im Kommentarbereich, ganz generell bei Linus insofern dass ich zustimme dass man so ein Feature im Zweifelsfall einfach nicht baut, da man einfach bei staatlichen Stellen Begehrlichkeiten auslöst.
    Allerdings finde ich die Kritik die hier in so manchem Kommentar Tim entgegengebracht wird undifferenziert und mitunter sehr plump und möchte deswegen mal eine Lanze für ihn und seine Überlegung treffen.

    Zunächst muss man ja mal sagen dass Tim nicht gesagt hat dass er das Feature prinzipiell unterstützt. Er führt lediglich Überlegungen aus wie und ob das Feature technisch funktionieren könnte und dann warum Apple das wohl machen will (wo es auch in moralische Überlegungen geht). Ja, dort nimmt er einen Gegenpart zu Linus ein, aber zumindest aus meinem Dafürhalten nicht aus grundlegender Überzeugung, sondern weil er das halt mal gedanklich durchspielen will (Tim – Bitte korrigiere mich falls mein Eindruck hier falsch ist. Wie gesagt ich mache das an meinem Höreindruck fest).

    Einige Kommentare hier fallen dadurch auf dass man Tim’s Ausführungen wohl einfach nur durch die er-ist-ein-Apple-Fanboy-Brille betrachtet. Das liest man dann auch zwischen den Zeilen bzw. manche sprechen es ja auch explizit an. Ich finde es immer wieder erstaunlich wie Menschen die anderen vorwerfen sich nur durch ihre Apple Nutzung bzw. Apple Sympathie zu definieren, sich im wesentlichen selbst nur durch Apple Antipathie definieren. Naja, aber das ist eine andere Diskussion. Mein Eindruck ist: Tim ist zwar leidenschaftlicher Nutzer aber auch sehr sehr scharfer Apple Kritiker. Ich habe die Diskussion so gehört dass Tim zwar Linus Argumente kontert, aber für mich war das keine fundamentale Verteidigung von Apples Plänen.

    Und da liegt für mich der wesentliche Punkt. Wie Tim auch anspricht hab ich mich auch gefragt warum sie ohne Not diesen völlig hirnrissigen Plan haben den scan von der Server seite direkt auf das Gerät zu verlegen. Selbst wenn Apple grundsätzlich glaubt dass das System eine super Idee ist haben sie doch wissen müssen dass sie da in einen Riesen shitstorm reinlaufen. Zumal sie natürlich in den letzten Jahren privacy als USP ausgegeben haben. Warum also?

    Erstens glaube ich dass Tim tatsächlich nicht weit weg ist mit seiner Überlegung zur moralischen Verantwortung des Unternehmers. Ich kann mir gut vorstellen dass das einigen in der Führungsriege eine Herzensangelegenheit ist (so falsch der Schluss ist deswegen den Scan auf das Gerät zu verlagern). Das wäre für mich aber immer noch keine schlüssige Antwort gerade wenn man mal rein vom unternehmerischen her denkt ist das immer noch ein immenser (image) Schaden den man deswegen in Kauf nehmen würde der sich dann eben auch u.U. in der Bottom Line zeigt.

    Wie Tim auch gesagt gibt es ein Scan im Moment schon für alle die iCloud Photo Library benutzen – allerdings ’nur‘ Serverseitig. Welchen ‚Mehrwert‘ bietet es Apple das auf das Gerät zu bringen (augenscheinlich ja eigentlich nur Reputation-bedingte Nachteile). Ich fand den Punkt den Tim kurz angerissen hat sehr interessant der ja auch an verschiedenen anderen Stellen kolportiert wurde: Bedeutet das dass Apple die iCloud ‚zumacht‘, i.e. endlich Ende-zu-Ende verschlüsselt? Denn wenn man sagen kann man hat jetzt ein aufwendiges Verfahren entwickelt um Kinder zu schützen und ihren Teil im Kampf gegen Kindesmissbrauch zu tun und to support our men and women in uniform and law enforcement (man setze pathetische Sprachregelung ein), dann wird es halt schwierig eine Verschlüsselung mit der Argumentation zu verhindern dass man ja damit Verbrechen ermöglicht – und wie so oft erwähnt wird hier ja gerade Kindesmissbrauch als erstes angeführt (kurz vor Terror). Wie gesagt das ist Spekulation. Apple hat das meines Wissens nach so nicht kommuniziert und auch keine Andeutungen hinsichtlich iCloud Verschlüsselung gemacht. Aber ich fände es andernfalls ein wirklich sehr sehr verwunderlichen move vor dem Hintergrund der Privacy, Privacy, Privacy Kommunikationsstrategie die Apple zuletzt gefahren ist. Das System jetzt so zu bauen – und dabei eben versuchen das nach ihren Dafürhalten möglichst Privacy-freundlich zu machen – nimmt dann eben auch den Leuten den Wind aus den Segeln die Kindesmissbrauch als vorgeschobenes Argument nehmen das halt emotional ‚zieht‘.

    Man muss jetzt abwarten und schauen was auf Apples Seite passiert. Kann sein das man mit derartige Überlegung vollkommen auf dem Holzweg ist. Interessieren tut es mich trotzdem was Apple vorhat, warum sie das jetzt einführen wollen und ob es so funktionieren kann wie Apple es sich vorstellt. Dennoch, bevor jetzt hier die Antworten kommen, ich sehe es grundsätzlich als Fehler an und befürworte das vorgehen ausdrücklich nicht. Selbst dann wenn sich die obigen Spekulation auch als nur einigermaßen richtig herausstellen sollten.

    • Zunächst muss man ja mal sagen dass Tim nicht gesagt hat dass er das Feature prinzipiell unterstützt. Er führt lediglich Überlegungen aus wie und ob das Feature technisch funktionieren könnte und dann warum Apple das wohl machen will (wo es auch in moralische Überlegungen geht). Ja, dort nimmt er einen Gegenpart zu Linus ein, aber zumindest aus meinem Dafürhalten nicht aus grundlegender Überzeugung, sondern weil er das halt mal gedanklich durchspielen will (Tim – Bitte korrigiere mich falls mein Eindruck hier falsch ist. Wie gesagt ich mache das an meinem Höreindruck fest).

      Korrekt. Du hast mich richtig verstanden.

      • Ich glaube, dass haben alle anderen genau so verstanden.
        Auffällig ist halt nur, dass bisher bei jedem solcher Überlegungen du IMMER gesagt hast, das geht gar nicht.
        Nur jetzt, wo es von Apple kommt, da wird so eine Überlegung angestellt.
        Und man muss kein Psychologe sein, um da etwas rein zu interpretieren.
        Oder, wie ein Psychologe, der dich sehr gut kennt, meinte: „und den Rest des Podcasts könnt ihr zuhören wie Tim sich das schön redet“.

        Das nicht zu thematisieren geht nur, wenn man LNP und Tim das erste Mal gehört hat.

  52. Was an der Apple Diskussion so unglaublich frustrierend ist ist dieses Augen und Ohren zuhalten der Verteidiger und Apple. Auf Kritik wird nicht eingegangen, stattdessen wird nochmal beschrieben wie toll doch die Bilderkennung funktioniert. In jedem Apple Statement wird dann so getan als ob die Kritiker einfach nur die Technologie nicht verstanden hätten denn das wäre doch alles ganz toll.
    Allein bei dem Verhalten sollten bereits die Alarmglocken läuten, wirkt auf mich persönlich sehr unehrlich.

    Alternative Verteidigungswege: Denk doch an die Kinder (noch NIE gehört…) oder „Wir werden doch eh alle schon überwacht warum beklagt ihr euch“ und der Klassiker „Lasst uns doch jetzt erstmal schauen das wird schon nicht schlimmer werden“, na dann…

    Und ich liebe LNP und wie ihr diese Show macht dafür bin ich euch seit jeher dankbar, aber auch ich empfinde eine gewisse Enttäuschung dabei wie Tim hier plötzlich auf die Verteidigungsschiene aufspringt. Dass er das nur tut weil Apple es diesmal macht ist natürlich eine Unterstellung, aber wenn ich in Vergangenheit blicke ist es ein Gedanke den ich zumindest bisher nicht abschütteln kann, denn überzeugende Argumente waren das wirklich nicht.

  53. Ich finde es schade, dass Tim’s sonst starke analytische Fähigkeiten stets kräftig nachlassen, sobald da irgendwo Apple involviert ist. Mag sein, dass er sich bereits seit 30 Jahren intensiv mit dieser Firma auseinandersetzt und da eine _differenzierte_ Meinung zu hat. Für mich persönlich ist er jedoch auf diesem Auge blind und er würde nicht analog argumentieren, wenn da statt Apple in den News stehen würde. Das schwächt für mich persönlich auch etwas die anderen, sonst ganz klugen Dinge ab, die er zu erzählen hat.
    Bezüglich der konkreten Methode, so scheint es, dass der Neural Hash bereits gebrochen ist und die ganze Methodik daher keinen Wert für den eigentlichen Zweck mehr besitzt: https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1

  54. Der Tag an dem dieser Podcast veröffentlicht wurde hätte auch der Tag sein sollen, an dem Tim aus dem CCC austritt.
    Die anlasslose Massenüberwachung aller(!!) iPhone-, iPad- und Mac-Nutzer derart zu euphemisieren ist in keiner Weise vereinbar mit den Werten des Vereins.

    Und nein, andere Hersteller machen das nicht genauso. Und auch nein, Apple wurde nicht gesetzlich zu diesem Schritt verpflichtet, so dass es eine Rechtfertigung dafür gäbe.

    Ich bin wirklich entsetzt.

  55. NACHTRAG zur Apple Diskussion:

    Das Verfahren (NeuralHash) wurde Reverse Engineered und auf GitHub veröffentlicht, Issue No. 1 lieferte dann direkt eine Hash-Kollision zweier Bilder. Damit ist das ganze Verfahren einfach nur strukturell kaputt…
    (Quelle: https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1)

    Habt Ihr eigentlich eine Ahnung, dass Existenzen von ehrbaren, normalen Menschen in Gefahr geraten wenn plötzlich früh morgens die Polizei wgen Kinderpornos zur Hausdurchsuchung vorbeikommt? Nur weil die Hash-Werte von Bildern in der iCloud über die Schwelle kamen und ein frustrierter, unterbezahlter Clickworker in einem Callcenter in 3 Sekunden die letzten Urlaubsbilder mit den nackigen eigenen Kindern am Sandstrand oder Garten zum Anlass nahm auf den roten Knopf zu drücken? Vollkommen egal ob die Hashes nur zufällig bei Mrd von Bildern und Geräten kollidierten oder jemand bewusst einem etwas untergeschoben hat?

    Was haben wir alle über die Dilettanten bei Luca gelacht, das hier ist eine durchaus größere DImension von Leuten, die Ihr Fach eigentlich beherrschen und nicht solche Amateure sind.

    Tim ich möchte Dir einfach nur die Hand reichen damit Du aus Deiner Apple-Blase findest…

  56. Vielen Dank für eure spannende Diskussion. Ich schlage mich mit Fragen dieser Art herum seit ich euren podcast höre und habe noch keine Antwort für mich gefunden – zuletzt beispielsweise als ihr die FBI-Operation besprochen habt, Kriminellen manipulierte Telefone unterzujubeln. Wollen wir (hypothetisch) in einer Welt leben in der unbrechbare privacy für jeden Menschen zur Verfügung steht? Jede_r zahlt mit Monero, alle chats sind e2e-encrypted, der gesamte Speicher meines Telefons sowie alle cloud-backups sind für den Hersteller zu jedem Zeitpunkt unauslesbar? Ich dachte immer ihr würdet diese Frage mit einem klaren „Ja“ beantworten und jetzt höre ich zum ersten Mal, dass ihr (bzw. hier Tim) doch die Perspektive der Güterabwägung einnehmt – 1%, 5%, 20% Nutzung für Kinderpornographie – ab wann rechtfertigt das den Herstellerzugriff auf die Daten?
    Ich würde mich freuen, wenn ihr darauf nochmal tiefer eingeht, vielleicht auch unabhängig von der Apple-Frage, sonst kommt hier in den Kommentaren wieder nur der (aus meiner Sicht unberechtigte) Fanboy-Vorwurf.
    Man kann natürlich über Abwägungen argumentieren (z.B. Die Sicherheit und Freiheit von Journalist_innen ist in diesem Fall höher zu gewichten als der Schaden durch kriminelle Inhalte). Aber es gäbe auch noch Argumente wie: Verletzung der Privatsphäre ist immer falsch, die kriminellen Inhalte sind ein gesellschaftliches Problem, das an der Wurzel behoben werden muss, nicht durch Überwachung.

    • Wollen wir (hypothetisch) in einer Welt leben in der unbrechbare privacy für jeden Menschen zur Verfügung steht? Jede_r zahlt mit Monero, alle chats sind e2e-encrypted, der gesamte Speicher meines Telefons sowie alle cloud-backups sind für den Hersteller zu jedem Zeitpunkt unauslesbar?

      Mal abgesehn von der bezahlmethode, gibt es Heute bereits einen Grund nicht in einer derartigen (sehr begrenzten) Welt zu leben?

      Ein Zitat von Linus: „Wir haben heute schon alle Probleme der IT-Sicherheit Theoretisch gelöst.“

      Was ich damit Zeigen möchte ist, dass wir zwar heute sagen können: viele diese CSAM Verbrecher sind zu Primitiv und zu unwissend um ihre Materialien vernünftig zu Verbreiten.
      Eine derartige Unterschätzung ist aber ein Schwerer Fehler! Wenn ich heute schon all meine Chatts E2E-Verschlüsseln kann, all meine Daten AES256 Verschlüsselt auf jeder Cloud speichern kann, dann ist es doch nur naiv zu sagen „die Kriminelle können das noch nicht“ !

      Also: JA Ich möchte in so einer (leider noch hypothetischen) Welt leben!
      Denn der andere Fall würde bedeuten, dass nur Kriminelle und Nerds wie wir verschlüsselt und Privatsphäre-schonend Kommunizieren werden. (Oder es können)

      „When encryption becomes criminal, only criminals have encryption!“

    • > Wollen wir (hypothetisch) in einer Welt
      > leben in der unbrechbare privacy für jeden
      > Menschen zur Verfügung steht?

      JA!!!!
      Ohne Einschränkung!

      Setz für „privacy“ mal die Deutsche Übersetzung „Privatsphäre“ ein.

  57. Apple hat wohl einfach den Gefallen an Privatsphäre verloren und geht gleich an mehreren Fronten dagegen an.
    Mitarbeiter sollen bitte auch nichtmehr Arbeit und Privataccounts (icloud, mail etc.) trennen damit Apple alles was geht (auch private Nachrichten und Fotos) „archivieren“ kann.

    https://twitter.com/ashleygjovik/status/1428495420917837826
    https://twitter.com/oilyraincloud/status/1428497203253833731

    Besser wird das dort sicher auch nicht mehr…was für ein ekliger Haufen, die Leute bei Apple. Nie im Leben kaufe ich denen ab dass es wirklich darum geht Kinder zu schützen.

  58. Ich möchte mich für die Diskussion über Apples Maßnahmen bedanken, denn auch wenn eure Positionen verlässlich stabil und erahnbar waren, ist mE die Diskussion darum sehr wertvoll. Danke, dass ihr euch dafür die Zeit genommen habt. Gern mehr davon.

  59. Der Impact der CSAM Technologie scheint auch mir sehr gering für den erwartbaren Widerstand zu sein. Bei nur 200.000 Bildern, die bereits als illegal bekannt und registriert sind, müssen die Nutzer erstens solches Material besitzen wollen, dies zweitens in die Cloud speichern wollen und das dann auf einem iOS Gerät tun. Es erscheint mir auch irrelevant gering, wenn auch aus dem Bauch heraus.
    Vielleicht ist die Hoffnung, die bekannten Bilder als Pointer zu nutzen, da bei solchen Accounts noch weiteres Material zu vermuten ist und die staatliche DB dann erweitert werden kann.

    Was mir als ein wahrscheinlicher weiterer Schritt einfällt, ist nach vermissten Kindern zu suchen, wenn das System erst einmal aktiv und akzeptiert ist. Wer würde denn dann schon argumentieren können, dass die Gesichter von vermissten Kindern nicht auch erkannt werden sollten? Wenn man doch ihr Leben retten könnte? Ich glaube, das wird nicht lang auf sich warten lassen.
    Was spräche dagegen, die Kontaktnetzwerke zuzuschalten, um den Weg eines Bildes nachzuvollziehen, damit wir auf die richtige Person treffen? Das Kind ist vielleicht noch am Leben.

    Man baut so etwas nicht, das ist auch meine Meinung.

    • Ich weiß nicht wie das Tauschen von Bildern in solchen Kreisen funktioniert, aber vermutlich ist die Chance vermisste Kinder durch zweifelhaftes Material ausfindig zu machen, so groß, wie vermisste Katzen durch Katzenvideos zu retten…

      Im übrigen passiert es meines Wissens nach gar nicht soooo häufig, dass Kinder gekidnapt werden. Die meisten Fälle von Missbrauch passieren direkt vor unseren Augen vom Vom Erzieher im Kindergarten, von Verwandten von Bekannten.

      Aber Du hast schon recht… Danach fragt vermutlich niemand. Hier heiligt der Zweck die Mittel.

  60. Bei der Apple-Kontroverse werdet ihr keinen gemeinsamen Nenner finden. Linus argumentiert deontologisch, wie der CCC und Tim es bei Datenschutzthemen sonst auch meist tun. Tim argumentiert utilitaristisch.

  61. Danke an Tim und Linus für diese tolle Diskussion!
    Auch bin ich der Meinung, dass die Argumentation von Tim hier nicht fehlen darf, egal wie man es persönlich einschätzt!
    Eine Sache ist mir allerdings noch nicht klar:
    Apple will auf dem Endgerät von Organisationen gelistetes CSAM erkennen können, sobald dieses in die Cloud geladen werden soll. Wie kommt aber dieses bereits bekannte Material auf das Endgerät? Vermutlich über eine bereits verwendete Austauschplattform außerhalb der Apple Cloud. Warum sollte so eine Person dieses Material zusätzlich über die iCloud teilen? Den großen Nutzen dieses Vorhabens bei den dargestellten Risiken und Gefahren kann ich nicht erkennen, bzw. glaube ich nicht, dass es bei dem Vorhaben tatsächlich um CSAM geht.
    Das Vorhaben, mit Hilfe von KI Minderjährige (nur bis 12 Jahre) vor Sexting zu schützen, halte ich für mindestens genauso katastrophal. Neben den vielen bereits bekannten Problemen bzgl. des Einsatzes von KI bei diesem Thema, ist das wieder ein Schritt in die Richtung, den Erziehungsauftrag auf Computersysteme auszulagern, diesem bitte gutgläubig und blind zu vertrauen, ohne selber Verantwortung übernehmen zu müssen. Bei Nacktbildern oder Videoüberwachung von kleinen Kindern sind auch viele Eltern Teil des Problems.

      • Hallo Tim,
        ich nutze das nicht, deshalb habe ich wenig Ahnung, in wie weit man hier etwas mit anderen teilen kann (oder eben nicht). Aber warum sollte jemand CSAM dort überhaupt ablegen, wenn er sich über eine andere Plattform bereits erfolgreich mit Gleichgesinnten austauschen kann? Ok, anscheinend geschieht das über andere Clouds oft genug. Kopfkratz!

  62. Die einzige redeeming quality die ich Apples Client-side Scanning erkennen kann, ist die von Tim angedeutete Option, echtes E2E in iCloud Backups und Cloud Storage zu ermöglichen. Technisch und algorithmisch ist das System sicherlich eine hervorragende Möglichkeit ein solches Ziel zu erreichen und gleichzeitig keinen “perfekten CSAM Speicher” in einer für Consumer Verhältnisse sehr sicheren Umgebung zu bauen. Leider wird sich damit wie von Linus vertreten *automatisch* die Büchse der Pandora, d.h. der BOS Begehrlichkeiten öffnen. Solange kein seriöser politischer Dialog zur Abwehr von ML unterstützen Fantasien der totalen Überwachung und Regulierung jedweder Dissidenz durch Sicherheitsbehörden am Horizont zu erkennen ist, gibt es m.E. nach keine Alternative als solche Systeme grundsätzlich *nicht* zu implementieren. Solange dieser Ungeist politisch nicht wieder zurück in die Flasche getrieben worden ist, wird sich die Geschichte im Sinne von Linus Narration wiederholen.

    • Es wird keine E2E Verschlüsselung für die iCloud geben. Die Apple-Mitarbeiter sollen doch bei Erreichen der Schwelle die Bilder prüfen, bevor sie das weitergeben. Wie sollen sie das machen, wenn sie keinen Zugriff auf die Bilder in der iCloud haben?

      Man kann sich das Einknicken von Apple nicht schön reden.

      • Nein, so passiert das nicht. Apple hat die original CSAM-Bilder gar nicht (und darf sie wahrscheinlich auch nicht haben?) und braucht daher auch nicht die persönlichen Bilder im Original angucken.

        Es werden „visual derivatives“ miteinander verglichen, so zumindest der Wortlauf in der CSAM Detection Technical Summary.

        • Dass Apple die Originale nicht hat und daher nichts vergleichen kann ist klar.

          Aber was beinhaltet ein „visual derivate“? Wenn es dem Inhalt oder einem Teil des Inhalts des Bildes entspricht, muss dieses „visual derivate“ für Apple zugreifbar gespeichert werden. Die E2E Verschlüsselung ist in dem Moment also hinfällig, in dem der Mechanismus ein entsprechendes Bild erkennt. Ich muss bei jedem hochgeladenen Bild damit rechnen, dass zumindest Teile davon für Apple zugreifbar sind.

          • Nein, musst du nicht.
            Die visuellen Ableitungen sind Bestandteil der Safty Voucher. Diese Image Informationen sind über 2 Encryption Layer gesichert. Layer 1 ist der lokale Abgleich gegenüber der auf dem Gerät vorliegenden Datenbank. Layer 2 sind die Secret Shares, also der Threshold.
            Nur wenn beide Layer entschlüsselt werden können, kommen die visuellen Ableitungen zum Vorschein und werden dem Apple-Team zur Kontrolle vorgezeigt.

            • Der Punkt ist, es gibt einen Mechanismus, der es Apple ermöglicht, Bilder seiner Nutzer einzusehen. Da können sie die iCloud noch so sehr verschlüsseln.

  63. Vor lauter Apple hier in den Kommentaren — nett übrigens, tendenziell bin ich eher bei Linus — kommt mir Luca aber etwas zu kurz.
    Also ehrlich, wäre es nicht Zeit für ein juristisches Nachspiel?
    Betrachte ich die Sammlung von Michael Atug (https://twitter.com/HonkHase/status/1427369250226851849) ist ja mindestens eine vorsätzliche Vernachlässigung (=Ignoranz) von Due Dilligence beim Anbieter und mindestens Fahrlässigkeit seitens Bund/Länder/Kommunen. Der Steuerzahler fragt: da geht doch was? Da muss doch was gehen!

  64. Zum Thema „im Handy rumscrollen zum Einlass“: genau das ist auch die Praxis am Flughafen. Von der Bundespolizei. Leider kein Witz. Mir so vergangene Woche in Frankfurt passiert – meinen QR-Code, den ich zur Ansicht nicht in der CWA, sondern ganz normal als Grafik auf dem Handy geöffnet hatte, war für sie nicht nur „nicht überprüfbar“, sondern ob ihrer Reaktion, eine Beleidigung. Sie seien ja keine Dienstleister-Behörde. Wtf? Es ist vermutlich überflüssig zu sagen, dass meine freundliche Aufklärung über die Funktionsweise der Technik nicht auf Gegenliebe gestoßen ist…

  65. Danke für das Teilen eurer beiden Argumentationen für und wider das Scannen von Bildern durch Apple auf den Geräten.

    Ich hoffe, dass eure Beziehung darunter nicht leiden wird, da ich davon überzeugt bin, dass ihr beide nur das Beste für Alle im Sinn habt!

    Ich finde ihr habt beide sehr überzeugende Argumente geliefert und bin auch froh, dass ihr einen Dissens hattet. So eröffnen sich den Zuhörer*innen gleich mehrere Perspektiven.

  66. Apple geht es doch primär darum, keine KP Bilder in ihrer Cloud zu haben (zum Teilen oder auch nicht). Warum genügt hierzu nicht folgende Lösung:
    Das Endgerät analysiert anhand der CSAM-Liste jedes Bild, das auf das Gerät kommt oder dort gespeichert wird. Wenn es match-t wird angezeigt, dass der Inhalt des Bildes möglicher Weise problematisch ist und Apple sich deshalb weigert, das Bild in der iCloud abzulegen. Fertig.
    So ist dem User transparent was los ist und Apple ist aus dem Schneider.
    Dass es über kurz oder lang dann „böse“ Apps geben wird, die die API nutzen werden, um die Erkennung als KP oder sonst etwas zu umgehen, gilt wohl für jede andere Lösung auch.

    • Ändert nichts daran, dass Apple Daten auf meinem Rechner durchsucht – und da haben sie gefälligst die Finger von zu lassen!

      Mein Rechner!
      Meine Daten!
      Mein Hoheitsgebiet!

      Wie Linus sagt: Ich kaufe hier Speicherplatz ein – wie eine Festplatte!

  67. Ich finde dass uns die Situation in Afghanistan eine weiteres sehr aktuelles Beispiel dafür liefert warum solche Aktionen wie die von Apple nicht im geringsten zu Befürworten sind. Dort müssen sich jetzt nämlich einige Menschen notgedrungen darum bemühen ihre Spuren online so weit es geht zu verwischen [1]. Das geht bei öffentlichem Material noch vergleichsweise gut, aber darauf was wirklich auf dem Server liegen bleibt hat man als Individuum aber eher keinen Einfluss und die gängigen US Konzerne stellen sich hier ja gerne quer.

    Was wenn man in einem solchen Staat dieses tolle System ausgerollt und sich an die örtliche „CSAM“ Datenbank geklinkt hätte. Plötzlich gibt es einen Regierungswechsel und das neue Regime das es auf allerlei Leute abgesehen hat hat freie Hand was diese Datenbank betrifft, neue Gesetze werden radikal etabliert.

    Viele Länder begründen harte Strafen für Homosexualität [2] und in vielerlei in Gesetze gegossene Homophobie übrigens auch mit dem Schutz von Kindern. Wie sieht es mit diesen Ländern aus sobald Apple den Spaß dann global ausrollt? Ich tippe mal auf das übliche „Tja so ist das Gesetz dort halt und Apple muss sich eben an Gesetze halten“, wie immer.

    [1]: https://www.theepochtimes.com/stranded-afghans-delete-social-media-as-taliban-seizes-us-surveillance-equipment_3958444.html
    [2]: https://en.wikipedia.org/wiki/Capital_punishment_for_homosexuality

  68. Nehmt’s mir nicht übel. Wenn Ihr jetzt anfangt, Datenschutzkatastrophen zu rechtfertigen nur weil Ihr Apple-Fanboys seid (bin ich auch, gebe ich zu), dann verliert Ihr Eure Existenzberechtigung. Tim hat hier 1:1 die gleichen Argumente vertreten die man sonst von Seehofer & Co zu hören bekommt.

    Was kommt als nächstes?
    „Was ist wenn Du der Innenminister der CDU bist und die Industrie erwartet, dass Du sie pamperst?
    Das ist eine Perspektive die man auch mal beachten muss!“ (O-Ton, Tim)

    Ich halte es für unredlich, menschliche Grundrechte (respektive Schutz der persönlichen Daten) und Bekämpfung Missbrauch gegeneinander in Stellung zu bringen.

    Sorry. Missbrauchstaten sind schlimm und müssen bekämpft werden, aber NICHt um jeden Preis! Der Zweck heiligt hier NICHT die Mittel!

    Anderer Aspekt: Was passiert, wenn mein Cloudanbieter meine Mails durchsucht und mir einfach jemand eine (oder 30) Mail(s) mit fragwürdigen Inhalten zuschickt und dadurch irgendein Algorithmus Alarm schlägt und ich eine Anzeige an der Backe habe? Damit könnte man Menschen gezielt zerstören, bei dem Thema braucht es keine Verurteilung, da reicht schon der Verdacht aus.

    Imo wird in der Öffentlichkeit viel zu viel in das Thema Austausch von Bildmaterial investiert, und viel zu wenig in das Thema Prävention und Hilfe von Betroffenen Pädophilen (Bevor jetzt das Geschrei kommt: Als jemand der selber missbraucht wurde, kann ich es mir erlauben, das Maul hier etwas weiter aufzureißen).

    Ich frage mich eigentlich schon länger, ob es nicht eine Lösung wäre – dank moderner CGI – legalen Content zu erstellen. Und ja, die Idee ist schräg… Aber würde das nicht viele Probleme Lösen und die Ursachen bekämpfen anstatt an den Sympthomen rumzudoktorn?
    Mit Stigmatisierung erreicht man jedenfalls nur, dass die Leute sich noch weiter in düstere Ecken zurückziehen.

    Und hier gilt das gleiche wie bei allen Überwachungsthemen: Die wirklich schweren Jungs, werden es einfach irgendwann drauf haben, wie man gute Crypto benutzt. Der Preis der Grundrechtseinschränkungen ist viel zu hoch dafür!
    Die Afghanistankrise zeigt doch, wie sinnlos das ganze Abschnorcheln von Daten doch ist.
    Hat alles nichts gebracht: Die Einschätzung des BND, dass man noch Monate Zeit hat, war falsch.

  69. PS: Warum wird hier plötzlich immer betont, wie wervoll die Diskussion hier doch sei?

    Es hat doch vorher auch nie jemand gesagt, die Argumente von Seehofer & Co müssten mal näher beleuchtet und diskutiert werden.

    Aber jetzt geht es auf einmal um das hochheilige Apple auf dem güldenen IT-Thron und auf einmal schmeiß man alles über Bord…?

    Traurig!

  70. Zum Thema Apple und Inhalte-Scanner

    Zeitlich ist es mir leider nicht möglich über 160 Kommentare zu lesen.

    Tims Position kann ich zu 100 % nachvollziehen, bin aber trotzdem eher bei Linus.

    @Tim

    Wenn du ein Anbieter einer Photo-Cloud bist, dann stellst du Infrastruktur zur Verfügung. Nicht alles was hinkt ist ein Vergleich: Autobahnen. Da gibt es schöne Dokus über Großkontrollen. Der Verkehr wird zwangsweise über einen Parkplatz gelenkt und bei jedem KFZ entscheidet die Polizei, ob sie einen Blick hinein wirft, oder nicht. Bei JEDER dieser Kontrollen werden illegale Gegenstände und Substanzen gefunden. Selbst Kriegswaffen sind oft dabei. Hier in Deutschland.

    Bei deinem Szenario würden nun alle KFZ kontrolliert werden, immer.

    Das ist unverhältnismäßig.

    Eine freie Gesellschaft muss bis zu einem gewissen Maß Kriminalität aushalten.

    Es ist nicht dein Dienst, als Betreiber einer Infrastruktur, für Recht und Ordnung zu sorgen.

    Selbstverständlich wird diese Technologie auf andere Bereiche ausgeweitet werden. Das ist in westlichen Demokratien ein Naturgesetz.

  71. Sich auf eine Moraldiskussion einzulassen, halte ich bei dem Thema für völlig falsch, weil es vom eigentlichen Thema ablenkt. Apple interessiert es nicht aus moralischen Gründen, ob bei ihnen CSAM Material liegt, sondern nur aus Image- und strafrechtlichen Gründen – das unterstelle ich, weil sie sich sonst im Herstellungsprozess für ihre Produkte auch bei den Zulieferern darum kümmern würden, daß es keine Kinderarbeit gibt und die Rohstoffe konfliktfrei sind.
    Es gibt immer einen nächsten Schritt nachdem die Begründung CSAM eine Bresche geschlagen hat. Würde es hier um Terrorismus gehen, wäre die Diskussion analog und genauso am Thema vorbei. Die Frage ist doch – ist es für mich akzeptabel, wenn ein Anbieter meine Daten nach „illegalen Inhalten“ durchsucht oder nicht. Und die Antwort ist nein, weil es sich damit um verdachtsunbhängige Überwachung handelt. Genau deswegen kämpfen wir doch für Verschlüsselung und gegen Backdoors und gegen jeden Versuch der Analogparteien an welcher Stelle auch immer in unsere Daten zu gucken.

  72. Hallo in die Metaebene,

    Linus hatte in der Diskussion zu dem vielleicht gut gemeinten aber leicht zu missbrauchenden Spionagemechanismus in iios 15 (Marke „Lasst doch diesen Hash auch mal mit auf den Geräten scannen!“) gesagt, dass er nicht zuletzt mangels Alternativen ein ios Kunde ist.
    Da habe ich einen Tipp, der tatsächlich auch ohne viel Aufwand fast vollständige Android-Funktionalität bringt ohne Standleitung zu Google. Calyx-OS. Das ist AOSP mit MicroG, also der quelloffene Teil von Android mit einer professionell einsatzbereit verbauten Re-Implementierung der Play-Services. Läuft auf allen aktuell unterstützten Pixel-Geräten.
    Habe mich immer vor dem Aufwand mit MicroG gescheut, aber Calyx nutze ich jetzt seit fast 11Monaten und habe noch keine Funktionseinbußen festgestellt.

    Weiter so, Jungs!

  73. Nochmal ein Kommentar, spät: ich halte auch die Einschränkung, daß „nur“ in der Cloud gescannt wird, ebenfalls für kein gutes Gegenargument. Die Geräte, ob von Apple von egal, werden alle mit ihren Cloudfeatures als wesentlichem Merkmal vermarktet und die Intention ist auch, daß sie im Normalfall damit genutzt werden. De facto zahle ich bei einem iPhone die Cloudnutzung über den Gerätepreis mit. Wenn ich als sicherheitsbemühter Mensch die Cloudfeatures abschalte (und nach jedem Update dafür sorge, daß sie wieder ausgeschaltet sind), ist das die Ausnahme. „Schalt’s halt ab“ bei einem wesentlichen Feature würde in der Blase doch auch nicht als Argument gegen Microsofts Telemetrie bei Windows10 u.ä. akzeptiert. Dazu kommt, daß Gerät und Cloud mit der Zeit untrennbar und ununterscheidbar werden, quer über alle Geräte und Hersteller. Das heißt, der Punkt, an dem ich ein Feature, daß in der Cloud eingesetzt wird, am Gerät gar nicht mehr abschalten kann, ist morgen.

  74. Ich muss vorweg schicken, dass ich nicht jeden Kommentar gelesen habe und mir da vielleicht was entgangen ist. Um Verzeihung muss ich die bitten, die weiter als den ersten Absatz lesen. Der Kommentar ufert weit über den Anlass hinaus. Ich möchte das aber gern so bestehen lassen.

    Was mir aber so an der Diskussion auffällt ist, dass sehr wenig oder -nicht mehr- darüber geredet wird, ob es einem -Privatunternehmen- in einer demokratischen Gesellschaft zustehen darf, formale und inhaltliche Aspekte der Kontrolle und Regulierung in dieser oder ähnlicher Form auszuüben und falls, was die Folgen davon sein könnten.
    Deutlich ausgedrückt in Abgrenzung von einer neoliberalen, faktischen Realität und der Schwierigkeit Regelungen dieser Form überhaupt supranational definieren zu können. Ich sehe dafür keine ertragbare Lösung hier überhaupt eine Regelung definieren zu können, die auch nur im Ansatz demokratisch zu legitimieren wäre.

    Ergänzend, das Argument hat Linus schon gebracht, muss es doch faktisch inzwischen als völlig absurd gelten, zu glauben, dass eine erste grenzüberschreitende (so gerechtfertigt sie vielleicht im ersten Anschein erscheinen mag) Überwachungsmaßnahme nur wenig später nicht massiv ausgeweitet oder gar zurückgenommen wird. Weg und Absicht sind aus den letzten 20 Jahren, in Praxis und Papier, mehr als deutlich ablesbar. Niemand „verschenkt“ erstmal implementierte Systeme, wenn sie auch gegen die nutzbar sind, die gegen sie protestieren.

    Wir stolpern mit dem „Neuland“ in ein massives technokratisches, kybernetisches Steuerungs- und Überwachungssystem. Oder nein, „wir sind schon drin“. Es bietet die beste, die allerbeste Infrastruktur dafür.
    Das ist nicht, kein bischen, die hierarchiefreie, basisdemokratische, weltweite Kommunikations- und Wissensbasis geworden, die man sich naiv mal erträumt hatte.

    Die aktuelle Form des „Neulands“ ist derzeit doch nur die Potenzierung einer depressiven, völlig desillusionierten, kaputten Struktur. Eine Struktur, die ‚um alles‘ an den alten Hierarchie-, Kontroll-, Überwachungs- und Ausbeutungsschemas festhält. Sei es aus Profit-, Machtinteresse oder nur Tradition „das macht man eben so – wenn man’s denn kann“. Die Dekadenz oder Konsumgeilheit mit Scheiß-doch-drauf-Appeal, die desinteressierte naive Haltung der Nutzer_innen, deren absolute technische Überforderung und Isolierung hat dem kaum etwas entgegenzusetzen.
    Davon im Interesse einer positiven Utopie kooperativer, respektvoller humanistischer Gesellschaften zu stehen, ist das weiter entfernt als der Späti auf Keppler1625b.

    Für eine Diskussion darum, wie wir die äußerst negative Entwicklung aufhalten können, ist es, innerhalb des Kontextes, zu spät. Es wäre wahrscheinlich schon 1985 zu spät gewesen.

    Nebenbei: Darauf zu hoffen, dass „das ‚wertvollste‘ Unternehmen der Erde“ in unserem positiv utopischen Interesse handeln könnte – auf was fußt denn bitte eine solche Erkenntnis? Das widerspräche aller historischen Erfahrung und kapitalistischen Logik.

    Im positivsten Fall einer beiläufigen Erkenntnis „Oops, die Erde geht kaputt“ wird das Internet, führt man die Entwicklung so fort und betrachtet die enorme Abhängigkeit von Zugängen zum Netzwerk, zu einem Werkzeug konsumistischer, technokratisch streng geführter und stramm konditionierter Gesellschaften aus humanen Ressourcen. So wie das derzeit prognostiziert werden muss, ist da, denke ich, kaum besseres zu erwarten.

    Es ist wohl an der Zeit damit weiterzumachen sich alternative Szenarien, Medien und Methoden auszudenken, die uns helfen die Spirale zu verlassen. Solange wir noch das noch können.

  75. Hallo LInus, du argumentierst, und ich stimme dir da zu, dass eine sehr kleine Fehlerquote bei der hohen Nutzung von iPhones zwangsläufig zu vielen False Positives in absoluten Zahlen führen wird. Etwas später argumentierst du aber, dass nur ein winziger Prozentsatz Anteil der Nutzer eines Cloudproviders und/oder Festplattenhersteller fragwürdige/illegale Inhalte speichern. Hier greift jedoch die gleiche Argumentation. Auch ein kleiner Anteil führt bei hoher Nutzung zu großen absoluten Zahlen. Ich finde deine Argumentation an dieser Stelle widersprüchlich und sie ist auch keine Antwort auf die Frage der moralischen Verantwortung, die TIm aufgeworfen hat.

    Ansonsten fand ich den Beitrag klasse und ich fand es tatsächlich schön, dass ihr mal unterschiedliche Positionen eingenommen habt. Ansonsten habt ihr ja oft ähnliche Meinungen.

  76. zum Thema Covid-Impfung:

    Ihr verlangt von den den Menschen, dass sie eine medizinische Behandlung über sich ergehen lassen, die sie nicht verstehen. Das ist psychologisch dasselbe, wie sich dem System (dessen Verkommenheit ihr uns ihr hier wöchentlich zu Augen bzw. Ohren führt) zu ergeben. Diesen Gehirn-Spagat versteht ihr ja wohl.

    zum Thema Apple-Kinderporno:

    Das Problem ist nicht nicht der Konsum, sondern die menschenverachtende Produktion (d.h. die tatsächlich stattfindende Folter von den schutzlosesten Lebewesen auf dieser Erde: unseren Kindern.)

    Hier wird nicht das Problem angegangen, sondern die Infrastruktur so benutzt, um Menschen, dessen Seelen das Internet in den letzten 20 Jahren schon größtenteils zerstört hat, endgültig mit der Drohung einer Institutionalierung fertig zu machen.

    Und das ganze jetzt sogar in Neusprech (CWAS) zu verpacken, ist so perfide, dass ich nichtmal in meinen Alpträumen auf diese Idee kommen würde.

    • Bitte entschuldigt die Tippfehler, ich muss mich immer erst bist 2 Promille saufenm um noch zusammenhängend zu formulieren.

      zum Thema Apple:

      Linus hört doch, wie ich, den Sam Harris Podacast. Dort wurde das Thema dieser NGO, die angeblich die X Millionen von Kinderporno-Fällen verfolgt, behandelt. Dazu kann man nur abschließend folgendes destillieren: (sinngemäße Aussage des NGO-Guys:) >Wenn wir alle Anzeigen verfolgen würden, müssten wir gegen jeden 2. Mann in New Jersey ermitteln.< WTF

  77. Unglaublich, wie grundlegende Prinzipien der Community hier aufgeweicht wurden.
    Mit eigenen Kindern scheint sich die Sicht auf Lösungen in Richtung mehr Überwachung zu verschieben… Ist schon komisch, wie sich das Mindset über die Jahre ändert. KiPo ist halt immer noch das TodschlagArgument für noch mehr Überwachung… Das macht auch Apfel nicht besser.
    … mir fällt noch mehr ein, denke aber, dass mein Punkt klar geworden ist.

    Es gibt nicht „dass Gute im Bösen“ TM….

  78. Authentifizierung gegenüber dem Proxy – das hat man in der Tat wohl nur im Unternehmenskontext. Und die Reaktion auf einen Statuscode 407 dürfte dann sein, dass dem User ein Popup angezeigt wird, um Benutzername und Passwort einzugeben.
    Da das ein eher selten genutztes Feature ist, hatte ich da eine Weile einen schönen Firefox-Bug (den die auch nur durch Raten fixen und nicht selbst verifizieren konnten): https://bugzilla.mozilla.org/show_bug.cgi?id=1682240

  79. Ich glaub, das liest zwar hier niemand mehr, aber der Vollständigkeit halber:

    Am 15. Oktober 2021 haben einige Koriphäen der Cryptowissenschaften [u.a. W.Diffie, C.Troncoso und B. Schneier – alles Leute die glaube ich in LNP schon mal Erwähnung fanden ] dieses [0] doch recht eindeutig verdammendes Paper über Client-Side-Scanning auf arxiv.org veröffentlicht.

    https://arxiv.org/pdf/2110.07450.pdf

Schreibe einen Kommentar zu Magnus Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.