WEBVTT NOTE Podcast: Logbuch:Netzpolitik Episode: LNP403 Leichte Schläge auf den Hinterkopf Publishing Date: 2021-08-17T01:17:21+02:00 Podcast URL: https://logbuch-netzpolitik.de Episode URL: https://logbuch-netzpolitik.de/lnp403-leichte-schlaege-auf-den-hinterkopf 00:00:00.005 --> 00:00:01.826 Guten Morgen Linus. 00:00:02.115 --> 00:00:03.304 Guten Morgen Tim. 00:00:03.942 --> 00:00:06.207 Schon was vor, lass doch mal Domino spielen. 00:00:06.598 --> 00:00:07.691 Verboten. 00:00:08.569 --> 00:00:10.485 Oder Fallschirmspringen. 00:00:11.122 --> 00:00:12.390 Verboten. 00:00:12.955 --> 00:00:14.974 Hüttenkäse essen. 00:00:15.936 --> 00:00:19.757 Abends oder morgens auch verboten. 00:00:41.282 --> 00:00:51.431 Buch, Netzpolitik Nummer vierhundertunddrei vom, was haben wir denn heute eigentlich? Den sechzehnten August zwanzig einundzwanzig. Es ist ein 00:00:51.335 --> 00:00:58.744 Montag, wir verraten es euch und wir machen jetzt schon die Wochenendplanung. Und stellt sich raus, egal, was man machen will, alles verboten. 00:00:59.874 --> 00:01:10.636 Und zwar ist Domino spielen am Sonntag verboten in Alabama. Fallschirmspringen in Florida oder auch in Florida, wenn auch nur in Tampa Bay. 00:01:11.285 --> 00:01:15.714 Achtzehn Uhr keinen Hüttenkäse verzehren. Hat das Internet gesagt. 00:01:15.414 --> 00:01:17.250 Immer sonntags, ne? Sind wir immer so ein. 00:01:17.000 --> 00:01:18.976 Ja, immer sonntags, hat das Internet gesagt. 00:01:18.726 --> 00:01:23.013 Schon. Ja, aber wir haben halt nur Sonntag Zeit und das ist halt genau unsere Reiseroute. 00:01:22.775 --> 00:01:24.781 Genau. 00:01:23.480 --> 00:01:25.905 Ja? Scheiße. 00:01:25.653 --> 00:01:36.397 Aber bevor ihr jetzt wieder mit irgendwelchen Kommentaren kommt, dass das ja alles ganz anders ist. Wir haben das recherchiert. Wir haben mindestens zwei Minuten lang im Internet gesucht und die erstbeste Seite genommen, die das behauptet hat und. 00:01:37.269 --> 00:01:43.295 Was soll man noch mehr tun? Also ja, so viel Zeit haben wir jetzt auch nicht. 00:01:43.879 --> 00:01:53.505 Das ist aber schon äh finde ich ein Recherchestandard, der zumindest für ein Introvolumen von der Politik ausreichen sollte. Kleiner Spoiler, für den Rest haben wir uns ein bisschen mehr Mühe gegeben. 00:01:53.469 --> 00:02:05.252 Ja, wobei jetzt, man muss auch sagen, so mit dem, was, was verboten ist und was nicht, da kennen wir uns einfach nicht so aus. Selche, das ist nicht so unsere äh unsere Primärkompetenz, die auseinandersetzung mit Verboten. 00:02:05.115 --> 00:02:12.259 Wir sind nämlich mehr so zweihunderter Typen. Ja, wir dürfen alles, aber äh 00:02:12.247 --> 00:02:22.979 Wir haben's ja schon angedeutet, wir wollen ja uns ja auch ein wenig dem HTTP Status qoot äh holen und heute ist halt vierhundertdrei ran und vierhundertdrei, wer das schon geahnt haben, heißt schlicht und ergreifend vor Bitten, 00:02:23.244 --> 00:02:30.052 und ist halt eigentlich hätte man ihn auch verboten nennen können, weil es ja das Wort ja so populär ist auch im englischen Sprachraum. 00:02:29.896 --> 00:02:31.426 Das ist. 00:02:31.176 --> 00:02:32.221 Verboten. 00:02:32.181 --> 00:02:33.243 Verboten. 00:02:33.225 --> 00:02:41.096 Ja, da da kocht das Blut. Ich finde verboten ist die Steigerung von vor Binnen. Verbinden ist eine so. 00:02:41.277 --> 00:02:45.399 Ja, ich habe also ich muss auch tatsächlich sagen, ich habe ähm. 00:02:46.229 --> 00:02:58.186 Ja, also ich habe gerade äh glaube ich, du erinnerst mich daran, dass ich, glaube ich, gestern in einem Code, da hätte ich ein vier null drei setzen müssen, habe ich aber nicht. Also ist auch für uns äh sehr, sehr lehrreich hier 00:02:58.085 --> 00:03:04.153 Und äh da haben wir auch Feedback zu bekommen, nämlich von Andre. Und das ist auch das äh war mir nicht so bekannt, 00:03:04.262 --> 00:03:17.866 Zu den dreistelligen Ziffernfolgen habe ich einen historischen Hintergrund, weil ich mal aus Spaß die frühen RFCs durchgestöbert habe. FCs sind die, die de facto Internet-Standards, ja? Das Prinzip 00:03:17.812 --> 00:03:25.936 wurde zuerst bei FDP eingeführt, also dem Fall Transfer Protokoll, wo nebenbei Mail. 00:03:27.210 --> 00:03:27.991 Ja, 00:03:28.989 --> 00:03:41.896 nebenbei Mail zuerst eingeführt wurde. Wenn ich das grade spontan richtig gefunden habe in RFC sechs vierzig, die Notation war das ein eins XX, ein tendenziellen positiven aber unfertigen Zustand meldet, 00:03:42.341 --> 00:03:51.607 zwei XX positiv und fertig. Drei ist nicht schlecht, aber auch nicht fertig, wie zum Beispiel die frage da drüben mein Nachricht Redirection. 00:03:52.845 --> 00:04:06.251 Vier was Negatives, was auch wieder weggehen kann. Also vier null vier könnte sich auflösen, wenn die Datei dann doch noch auftaucht, vier null zwei könnte durch Bezahlung zu zweihundert werden. Und fünf permanente Fehler, 00:04:06.408 --> 00:04:08.174 Das passt mit fünfhundert, 00:04:08.355 --> 00:04:18.576 ähm dem Server ist grad übel oder er macht Kur in natürlich nicht mehr wirklich, aber als jedenfalls hatte DDP entwickelt wurde, war FDP schon gut gereift. 00:04:18.997 --> 00:04:19.868 Gut gereift. 00:04:19.808 --> 00:04:21.893 Der war der war. 00:04:21.593 --> 00:04:27.265 Das stimmt. Damals war das gut gereift, inzwischen macht's dann etwas überreifen Eindruck. Ähm, 00:04:27.427 --> 00:04:41.182 Und das Konzept der Response Codes auch mit SMTP durchgesetzt, da war es nicht schwer, die Notation leicht angepasst zu übernehmen. Und so kommt es, dass man die Response Codes eine Reihe von Internetprotokollen sehr ähnlich aufgebaut findet. Ja, super. 00:04:41.459 --> 00:04:49.925 Danke Andre. Tatsächlich wird man mit den anderen Codes natürlich nicht so oft konfrontiert, weil äh. 00:04:50.755 --> 00:04:53.062 Ja, warum eigentlich? Weil man diese, 00:04:53.272 --> 00:05:08.216 Protokolle eher dran äh nicht nicht direkt sieht oder nicht die Fehlermeldungen direkt bekommt, äh einfach nur, wer jemals versucht hat, ein Mählkleid einzurichten, weiß, dass da die in der steht, funktioniert nicht. Nicht wieso. Ähm. 00:05:09.088 --> 00:05:09.959 Aber sehr schön. 00:05:09.659 --> 00:05:18.678 Das kam überhaupt erst dadurch, dass eigentlich die Webbrowser äh und das ja auch heute eigentlich noch relativ lazy dabei sind, weil sie eigentlich diese Fehlermeldung dann, 00:05:18.793 --> 00:05:26.875 nicht unbedingt immer selber aufgelöst haben oder nicht nicht unbedingt immer wussten was zu tun ist, ja, beziehungsweise bei diesem, 00:05:26.983 --> 00:05:30.264 Einser ist ja sozusagen ja, 00:05:30.288 --> 00:05:42.913 ist ja tendenziell positiv, da passiert ja überall noch was, nur bei vier ist halt irgendwie so dieser klassische Fehler und manches wurde dann auch erstmal einfach nur so angezeigt, deswegen ist grad vier null vier so populär geworden, weil's halt. 00:05:43.256 --> 00:05:44.085 Oft kam, 00:05:44.590 --> 00:05:57.220 Ja und die Fünfhunderter, die kommen nicht so oft, aber die hat man sicherlich auch schon mal gesehen, wenn dann wieder irgend so ein Jaba-Code einem so sein sein inneres Magengeschwür auf dem Bild schon malt, dann äh dann ist so ein Fünfhunderter-Zustand erreicht. 00:05:57.966 --> 00:06:06.144 Ja oder äh Datenbankverbindung, Schlickfeder oder so, ne. Denn insgesamt, glaube ich, kann man sagen, in HTTP werden die. 00:06:06.421 --> 00:06:12.351 Äh weißt du, wenn du mit HTTP Statusmeldungen umgehst, als Mensch ist es eigentlich. 00:06:12.850 --> 00:06:25.758 Relativ egal, ja? Und wenn du jetzt irgendwie zwischen zwei mit einer API sprichst oder so, dann sagst du natürlich auch häufig einfach nur guck mal, ob der Staat es Q zweihundert ist, ansonsten ähm. 00:06:25.884 --> 00:06:27.416 Ist sowas anders. 00:06:27.182 --> 00:06:33.852 Ist irgendwas anders, ja? Also deswegen kann man sich auch vorstellen, warum die eben nicht so. 00:06:34.315 --> 00:06:43.580 Nicht so dogmatisch umgesetzt werden. Das als Entschuldigung, weil mir gerade einfällt, dass ich eben in in einem Stück Code, was ich gestern geschrieben habe, das auch nicht korrekt gemacht habe. 00:06:43.911 --> 00:06:57.672 So Georg, äh kommentiert, ach herrje, die HTP-Status kurz lesensicher, wie das Drehbuch zum LNP French heißt und es ist es wird wirklich spannend in ein paar Wochen. Vier null neun. 00:06:58.027 --> 00:06:58.898 Konflikt. 00:06:59.415 --> 00:07:13.854 Nach der Bundestagswahl gibt es einen epischen Streit darüber welche Partei mit der jeweiligen Partei Connect App am meisten Wählerdaten verloren hat. Linus beharrt darauf, dass die CDU in diesem Fall den besten Job gemacht hat 00:07:13.795 --> 00:07:20.957 Mit Hilfe der sogenannten Leeken Migration hat eine der anderen Parteien dies ausgenutzt, 00:07:21.023 --> 00:07:34.321 die Kräfteverhältnisse verschoben. Tim glaubt eher, dass es die SPD war, die am meisten Daten verloren hat und dass es eine Zählweise liege? Die Positionen sind unvereinbar, die Folge endet mit Smoke on the water. 00:07:34.808 --> 00:07:38.275 Eine Ankündigung eines LNP Fox durch Linus. 00:07:38.606 --> 00:07:56.152 Vier null zehn, Gon, Tim moderiert die Sendung alleine und lässt einen aus den Audioaufnahmen der Vergangenheit angelernten deep fake, Audio Avatar von Linus zu Wort kommen. Das wird allerdings erst im Produkt der LNP vierhundertelf verraten. Einige Hörer mutmaßen in den Kommentaren zur Sendung bereits das Linus irgendwie anders rübergekommen sei 00:07:55.978 --> 00:07:57.576 auf Fragen ernsthaft 00:07:57.565 --> 00:08:09.065 ach komm, lass uns das mit Blockchains machen und Backups sind für Anfänger geantwortet hat. Tim stellt im Nachhinein fest, dass er beim Training für das ML Modell, für den minus Audio Avatar das Fleck, 00:08:09.198 --> 00:08:11.992 Bindestrich nicht mitgesetzt hatte. 00:08:13.729 --> 00:08:17.496 Ich glaube, Mindes Irony, oder? Mindest, also ohne Irony, oder? Mit Irony, keine Ahnung. 00:08:17.605 --> 00:08:25.663 Vier null eins. Der echte Linus ist zurück, Klammer auf yay, hat in der Zwischenzeit einige Folgen vom 00:08:25.627 --> 00:08:29.610 Zugfunk-Podcast gehört und nimmt sich an deren 00:08:29.533 --> 00:08:42.404 mittlerer Dauer von mehreren Stunden. Ein Beispiel, sei neu, auch Ironiefähiger, Audia Avatar aus LMP vierhundertzehn, übernimmt inzwischen Standardberatungsdienste und entlastet damit das Original. 00:08:42.488 --> 00:08:50.931 Vierhundertdreizehn nach höherer Beschwerden a la, ich komme nicht mehr zum arbeiten, weil die LMP vorhin jetzt auf fünf Stunden dauert, wird Besserung gelobt. 00:08:51.935 --> 00:08:58.322 Tim und Linus schlürfen in der Weihnachtsfolge eine Stunde lang nur Heißgetränk. 00:08:58.749 --> 00:09:02.270 Sehr schön. Ist vierhundertachtzehn schon Weihnachten. 00:09:03.664 --> 00:09:11.301 Wenn wir so ähm also wenn wir unsere Frequenz weiter so niedrig halten, dann vielleicht auch vorbei. 00:09:09.607 --> 00:09:15.063 Das ist sehe ich noch nicht so ganz, aber es könnte so der Glühwein im im Frühherbst sein. 00:09:15.839 --> 00:09:19.888 So, dann hatten wir ein bisschen gesprochen in der letzten Sendung über. 00:09:20.874 --> 00:09:28.818 Da antwortet MSPherre hat bisher ja so gut funktioniert, weil im Prinzip alles vorbei war, bevor das 00:09:28.728 --> 00:09:38.192 Opfer überhaupt den Angriff bemerkt. Halte ich bei Dogsing oder Erpressung in Verbindung mit denen in Deutschland üblichen Uploadraten verdeutlich 00:09:38.114 --> 00:09:48.071 unwahrscheinlicher. Also er nimmt darauf Bezug, dass die inzwischen ja mit der Veröffentlichung von Daten. 00:09:48.949 --> 00:09:50.132 Drohen 00:09:50.120 --> 00:10:03.905 und ich habe das interpretiert als, sage ich mal, den Siegeszug des Backups, das äh sich eben die sagen so, hm, nicht, dass die nachher doch auf die Idee kommen, nicht zu zahlen, weil sie einen weil sie einen Backup haben. Deswegen 00:10:03.833 --> 00:10:10.587 drohen wir außerdem noch mit der Veröffentlichung von Daten. Und natürlich diese Daten müssen erst exfiltriert werden und das ist ähm. 00:10:10.864 --> 00:10:23.050 Dass es ein langwieriger Zeitraum oder ein langwieriger Prozess bei niedrigen Datenraten? Oft hast du aber bei diesen Erpressungsdingern, wo also mit der Veröffentlichung von Daten gedroht wird, 00:10:23.284 --> 00:10:35.663 ähm bestimmte Unternehmen betroffen, die ähm vielleicht auch bessere Anbindungen haben und nicht irgendwie mit Consumer oder ähm Mittelstands DSL äh Verbindung arbeiten. 00:10:35.994 --> 00:10:37.435 Muss man natürlich auch sagen. 00:10:38.253 --> 00:10:50.842 So ein heute üblicher Angriff auf eine Organisation, der geht dann doch durchaus mit einer längeren Zeit einher. Die vergeht zwischen der initialen Infektion. 00:10:51.143 --> 00:11:00.594 Und dem tatsächlichen Zugriff durch die. Hauptsächlich liegt das daran, ähm dass sie nicht mehr alle Hecken, die sie initial infizieren, 00:11:00.751 --> 00:11:13.171 sondern sich nur bei einigen halt die Mühe machen, ne, die das Active Directory zu kompromittieren und dann hast du natürlich auch äh Zeit, vielleicht äh langsam. 00:11:13.472 --> 00:11:21.181 Oder auch über längere Zeit ein paar Daten zu zu exfiltrieren, ja? Also insofern das ist natürlich schon richtig, dass uns. 00:11:21.597 --> 00:11:30.808 Niedrige Datenübertragungsraten eben auch davor schützen, dass viele Daten in kurzer Zeit äh übertragen werden, aber da diese Gangs äh, 00:11:30.947 --> 00:11:32.533 beschäftigt genug sind 00:11:32.527 --> 00:11:46.083 potenziell auch äh auch Zeit. Also da würde ich mich jetzt nicht äh also niedrige niedrige Bandbreiten sollten wir jetzt nicht als Sicherheitsfeature bewerben, wenn das die CDU hört, ja, dann, 00:11:46.222 --> 00:11:52.080 für ein sicheres deutsches Netz. Bandbreiten Limit auf der Datenautobahn, 00:11:52.315 --> 00:11:56.761 damit hier damit der Hacker, die die Daten nicht wegnehmt. Ihr denkt, ist auch gut für dich. 00:11:55.566 --> 00:11:57.620 Na toll. 00:11:57.987 --> 00:12:07.049 Aber äh eine schöne äh eine schöne äh Ironie, die ich dann, die mir nicht entgangen ist natürlich. 00:12:07.494 --> 00:12:21.146 Dann hatten wir über die CDU Connect App äh gesprochen, da haben natürlich sich auch sehr viele zu Wort gemeldet. Er sagte, ACY zur CDU-App, ich vermisse eine Diskussion über das Thema Datenschutz. 00:12:21.447 --> 00:12:32.761 Haben denn alle Bürgerinnen, deren politische Einstellung dort protokolliert wurden, der Datenspeicherung zugestimmt. Ähm Achtung, ich bin kein Anwalt, aber ich interpretiere die Situation folgendermaßen. 00:12:33.633 --> 00:12:41.066 Natürlich haben die Leute dem nicht zugestimmt und wahrscheinlich mussten sie es auch nicht. 00:12:41.529 --> 00:12:56.221 Weil ja ein großer Teil der Leute eben dort auch nicht namentlich erfasst wurde. Jetzt gibt es also weil die App das nicht vorgesehen hat, die hatte nur ein Kommentarfeld und da haben dann die Nutzerinnen gerne mal die Daten den den, 00:12:56.414 --> 00:13:06.977 Namen eingetragen, ne, irgendwie so heißt der Wilfried aus dem aus dem Schützenverein, der war schon zweimal König, den kenne ich und die Frau, die Gertrud, die war ja auch schon hier. Dieser Naturengruppe mit der Gerda, 00:13:07.092 --> 00:13:14.969 so dass äh hast du dann irgendwie. Äh das ist dann natürlich ein DSGVO äh Verstoß vermutlich. 00:13:15.607 --> 00:13:23.256 Allerdings glaube ich, muss man dann auch so ein bisschen sagen, ja, das ist ähm. 00:13:24.043 --> 00:13:26.134 Nicht strukturiert erfasst. 00:13:26.435 --> 00:13:38.981 Und ich glaube nicht, dass man da jetzt ernsthaft dann, also dann müsstest du nämlich den Leuten zuleibe rücken, die diese CDU-Connect-App genutzt haben. Also da bin ich mir nicht so sicher, ob da wirklich was äh. 00:13:39.348 --> 00:13:40.484 Schiefgeht. 00:13:40.839 --> 00:13:54.347 Oder ob das, ob das irgendwie juristisch wirklich Aussicht hat. Zumal die Daten hier hat ja auch eh irgendwie keiner ähm diese, dass die irgendwo veröffentlicht wurden, erscheint mir ja auch eher nicht so, sonst hätte ich die Daten ja inzwischen. 00:13:55.519 --> 00:14:09.405 Äh gesehen irgendwo. So und ähm dann haben wir äh ja als CCC entschieden, wir werden Schwachstellen nicht mehr der CDU melden und ähm das 00:14:09.400 --> 00:14:19.861 sondern auf den traditionellen Wegen machen und da gibt's einen schönen Blog also eine schöne Mail auf der Liste. Das ist eine sehr alte, 00:14:19.970 --> 00:14:29.464 Mailing-Liste, die äh ja, Full discloseer heißt, in der ähm vollständige ähm, 00:14:29.656 --> 00:14:34.722 Schwachstellen direkt geschildert werden und zwar an erster Stelle dort und niemand anders 00:14:34.572 --> 00:14:46.265 ja? Also im Gegensatz zu der responsible Disclosure, äh wo man vorher Bescheid sagt und sagte übrigens, hier in dem, also wenn ihr es gefixt habt, veröffentliche ich es oder jetzt in dieser sehr äh, 00:14:46.428 --> 00:14:54.359 und sehr klug abgewandelten Form. Wir veröffentlichen in so und so vielen Monaten, egal ob ihr ob ihr es gefixt habt oder nicht. Ähm, 00:14:54.606 --> 00:14:58.650 wacht man bei der, schreibt halt alles sofort dahin. 00:14:58.927 --> 00:15:08.607 Und äh ja, dampft einfach dieses Wissenswissen im Netz und gibt den äh Verantwortlichen keinen Vorsprung zur Behebung. 00:15:09.791 --> 00:15:21.376 Ja und da gibt's eine in der CDU in der Version drei Punkt acht von Team Smack Back, die eine sehr peinliche, 00:15:21.581 --> 00:15:28.515 Cross Side Scripting im Registrierungsform haben, also du kannst quasi, 00:15:28.750 --> 00:15:38.105 ähm in den als Name sagen, du heißt wie ein Java Skript äh im Frontend und dann wird das äh potenziell im Back-End. 00:15:38.430 --> 00:15:43.135 Ausgeführt. Die das Team schreibt dazu, 00:15:43.177 --> 00:15:56.535 üblicherweise wollten wir diese Schwachstelle als äh machen, aber wir waren abgeschreckt von den von den ähm Vorkommnissen, die äh hier bei der, 00:15:56.698 --> 00:16:04.828 Widmann stattgefunden haben und deswegen haben wir hier einen anderen Weg gewählt und diese Schwachstelle in einem, 00:16:04.996 --> 00:16:10.236 Aktuellen Produkt eben hier als und dann hat noch, 00:16:10.471 --> 00:16:19.832 Twitterer, auch in im Prinzip eine äh gemacht und hat gesagt. 00:16:20.295 --> 00:16:25.559 Ähm ey hier übrigens CDU ähm. 00:16:26.046 --> 00:16:33.593 Fix doch mal bitte euren Mailserver, da ist noch die Schwachstelle drauf. Der Mailserver läuft unter. 00:16:34.357 --> 00:16:42.859 OWA zwanzig zehn Punkt CDU DE. OWA steht für Outlook Web Exces und ich muss sagen, wenn ich mir die anschaue. 00:16:43.166 --> 00:16:51.206 Ohne wie das jetzt genauer anzuschauen, sieht das wirklich aus wie ein relativ alter Outlook Web Access Login, die sehen seit vielen Jahren 00:16:51.080 --> 00:17:00.976 echt anders aus, wenn ich das mal so sagen darf. Äh insofern scheint da wahrscheinlich auch der Domainname Programm zu sein und ähm der Twitter-Nutzer. 00:17:01.313 --> 00:17:10.188 Verdächtigt dort, dass es dort noch den, die gibt, also diese Schwachstelle, die seit einigen Monaten sehr problematisch ist. 00:17:10.916 --> 00:17:16.450 Oder vor einigen Monaten problematisch war, jetzt einfach nur noch für komplett. 00:17:16.739 --> 00:17:25.632 Also nur noch in in den, in den dunkelsten Ecken der Verwesung, findet man die noch, also keine Ahnung, so um die zehntausend Server in Deutschland vielleicht, ja? 00:17:26.966 --> 00:17:34.651 Ja, fand ich sehr lustig, hat hat also stattgefunden, wurden halt nicht mehr an die CDU gemeldet, sondern direkt veröffentlicht. So ist das manchmal. 00:17:34.447 --> 00:17:36.111 Tja, Pech gehabt. 00:17:36.496 --> 00:17:43.905 Ne? Haben wir ja gesagt, wir lehnen dafür die Verantwortung vorsorglich ab. Äh aber sowas kommt eben von sowas. 00:17:45.372 --> 00:17:52.096 Dann vielleicht noch ein kleine zwei ein kleines äh Adendom. Wir hatten über die, 00:17:52.264 --> 00:17:58.219 Impfzertifikate gesprochen, die nicht mehr ausstellbar waren von den Apotheken 00:17:58.165 --> 00:18:07.377 weil es die Schwachstelle gab, dass jeder behaupten konnte, er oder sie hätte eine Apotheke und dann eben auch in die Lage versetzt wurde, ein ähm, 00:18:07.635 --> 00:18:15.970 Also Zertifikate auszustellen, mit den Servern. Die Schwachstelle haben sie gefixt und äh ich entnehme 00:18:15.826 --> 00:18:28.294 also der Berichterstattung entnehme ich das jetzt die Anbindung mit Hilfe der Hardware der Telematik Infrastruktur erfolgt. Also das, was Martin auch in den Kommentaren zur vorletzten Sendung, die ich in der letzten Sendung 00:18:28.096 --> 00:18:37.728 vor äh besprochen habe auch kommentiert hatte. So interpretiere ich diesen Artikel. Zusammen hätten Experten von IBM, der Gematik und des deutschen Apothekerverbands, die, 00:18:37.729 --> 00:18:46.490 Bei der Ausstellung der QR-Codes dann auch identifiziert und beseitigt, weil das System lief dann erstmal nicht und hatte Performanceprobleme, nach denen sie's wieder 00:18:46.352 --> 00:18:55.671 in den, in den Gängen hatten. Aber, okay, diese Schwachstelle wurde also jetzt beseitigt, ähm, so wie ich das lese, mussten dann die Apotheken sich neu anmelden. 00:18:56.525 --> 00:19:04.300 Und äh über die Telematik identifizieren. Und das war ja auch das, was der äh Martin, wie gesagt, vorgeschlagen hat. 00:19:04.517 --> 00:19:05.797 Genau, weil. 00:19:06.428 --> 00:19:18.626 Und das wussten wir ja am Anfang noch gar nicht, diese Apotheken tatsächlich daran schon teilgenommen haben und sie eigentlich auch nur Zertifikate ausstellen dürfen, wenn sie diese äh Infrastruktur haben, nur benutzen mussten sie es nicht. Also es ist schon. 00:19:18.927 --> 00:19:27.574 Ja haben sie denn auch hier die vorgeschriebene Sicherheitstechnik? Ja, die steht dahinten in der Ecke. Ja super, alles klar, weiter. 00:19:27.971 --> 00:19:38.522 Das ist so ein bisschen wie Impfausweis auf Veranstaltungen zeigen und dann scrollen irgendwie irgendwelche Leute am Eingang da so kurz und drin rum und sagen, ja ist okay, 00:19:38.745 --> 00:19:43.239 Ich so, ja, müsst ihr doch, müsst ihr doch scannen. Ja, da haben wir nicht das Gerät für. 00:19:43.757 --> 00:19:51.237 Das Gerät ist in der Tasche heißt Smartphone und du baust die aber was willst du machen? 00:19:50.937 --> 00:20:00.690 Ja, was willst du machen? Ja, man kann denen dann halt auch einfach nur sagen so, ja, ich meine, ist ja auch deutlich zeitaufwendiger und fehleranfälliger, aber na ja Gott, egal. 00:20:00.606 --> 00:20:15.598 Ja, ja, ja, ja, ja. Na ja, also auf jeden Fall äh äh läuft es immerhin wieder, es gibt da allerdings auch so einige andere Sachen. Ich habe auch gehört, dass Leute jetzt irgendwie abgelehnt werden, wenn sie bei einer Apotheke versuchen, ihren Impf äh Ausweis sich äh zu holen, der. 00:20:16.578 --> 00:20:20.652 Und die Apotheke ist dann nicht in dem, in der Region, wo sie geimpft wurden. 00:20:21.656 --> 00:20:30.675 Sie auch nicht verstehe, also ich meine, entweder sind sie in der Lage, das zu verifizieren oder ist in der Lage, das nicht zu verifizieren, aber sieht das jetzt eine räumliche Nähe da in irgendeiner Form hilfreich sein soll. 00:20:30.375 --> 00:20:39.236 Na ja, das also ich vermute, dass das ein naiver Versuch ist, ähm. 00:20:38.986 --> 00:20:40.343 Missbrauch zu verhindern? 00:20:40.093 --> 00:20:44.989 Diese Telegram-Gruppen da, ähm denen entgegen zu treten. 00:20:44.689 --> 00:20:53.299 Ja, das äh das stimmt jetzt, wo du's sagst, ähm tja, macht's natürlich für Reisende dann auch nicht unbedingt einfacher, aber hm. 00:20:54.429 --> 00:21:03.316 Und vermutlich also der sinnvolle Check wäre eigentlich, du du wohnst in der Region, wo du auch in die Apotheke gehst. 00:21:03.671 --> 00:21:12.017 Aber du behauptest jetzt irgendwie, was weiß ich, in einem anderen Bundesland geimpft zu sein worden zu sein. Was eben unwahrscheinlich oder äh Erklärungs. 00:21:12.312 --> 00:21:15.773 Ähm bedürftig wäre. 00:21:16.308 --> 00:21:19.559 Ja, wenn auch mittlerweile möglich und ja, 00:21:19.577 --> 00:21:34.125 aber dann solltest du halt beim Impfzentrum zumindest, aber nicht beim Arzt. Ähm genau, den Nachweis ja auch schon direkt also es ist, ja, man hätte sich über die Sachen schon vorher Gedanken äh machen müssen und jetzt durch solche Maßnahmen versucht, diesen 00:21:34.107 --> 00:21:36.985 ähm potentiellen Betrug zu verhindern. 00:21:37.628 --> 00:21:40.308 Ich glaube ehrlich gesagt ähm. 00:21:41.642 --> 00:21:51.100 Ja, also der, der, der, der Betrug findet nur statt, weil du diese Checks machst. Und sonst würde sich kein wird's auch keiner fälschen. Also da, das, 00:21:51.323 --> 00:21:53.846 Ja, äh, 00:21:54.069 --> 00:22:06.021 du kennst meine Meinung dazu, dass ich das auch nicht gut finde, diese Dinger zu kontrollieren und dass ich diese äh dass ich das nicht nicht schön finde. Wobei man natürlich gleichzeitig auch sagen muss, ähm. 00:22:07.235 --> 00:22:12.180 So leichte Schläge auf den Hinterkopf erhöhen das Denkvermögen. 00:22:12.565 --> 00:22:26.494 Und wenn man mit diesen Impfausweisen eben die Impfverweigerer ein bisschen piesacken kann, dann wird man daraus unter Umständen halt zumindest insofern die Sprache vom Weizen trennen, dass man, 00:22:26.572 --> 00:22:34.768 Verweigerer von den Impfverpeilern trennt und die im Verpeiler halt beim dritten Mal sagen, boah ey, 00:22:34.925 --> 00:22:41.414 na ja, jetzt reicht's aber, Telegramm ist gefälschter Impfausweis, kostet ein Huni 00:22:41.180 --> 00:22:54.105 Impfzentrum gehen oder zum Hausarzt gehen kostet nüscht. Dann haste bis halt eben also für halbwegs normal denkende Verteiler ist es dann immer noch ein ähm sage ich mal ökonomisch, der steht, steht die Impfung im Vorteil. 00:22:55.272 --> 00:22:59.562 Genau, genau da sehe ich den äh Vorteil und wir sehen das ja jetzt auch, auch wenn's. 00:22:59.262 --> 00:23:00.739 Eine Bratwurst. 00:23:00.896 --> 00:23:04.321 Bratwurst oder äh Zugang zum Stadion, also 00:23:04.123 --> 00:23:14.494 gibt durchaus gibt durchaus Incentives, die man da jetzt hochhalten kann und ich glaube, das wird dann eben auch die faulen von den äh wirklich chronischen Leugnern und Verweigerern 00:23:14.296 --> 00:23:25.010 trennen und dann wird sich ja zeigen, wie die Prozentsitze wirklich sind. Aber wenn man sich so die aktuellen Impfzahlen anschaut, äh ist da auf jeden Fall der ein oder andere Schlag auf den Hinterkopf erforderlich. 00:23:25.004 --> 00:23:29.553 Das könnte er schon sein, ne. Na ja, also 00:23:29.475 --> 00:23:41.529 Es ist äh ein ein, ein, ein schwieriges äh Feld. Genauso wie der Bereich, über die wir jetzt äh sprechen, 00:23:41.608 --> 00:23:44.473 Ist eigentlich so ein bisschen der Klassiker der schwierigen Felder. 00:23:45.051 --> 00:23:52.544 Ne, gerade wenn's um Privatsphäre, Sicherheit und äh Überwachungsmaßnahmen geht. 00:23:53.277 --> 00:24:00.235 Nämlich der Bereich des dokumentierten Kindesmissbrauchs. Was. 00:23:59.935 --> 00:24:06.250 Ich muss mich korrigieren, sorry. Es tut mir leid, dich unterbrochen zu haben, aber ich muss mich korrigieren. 00:24:08.023 --> 00:24:17.109 Ähm leichte Schläge auf den Hinterkopf erhöhen, nicht das Denkvermögen. Haben Forscher untersucht. Sorry. 00:24:13.095 --> 00:24:22.295 Weil. 00:24:21.995 --> 00:24:36.860 Sei es das Gegenteil der Fall. Gehirnerschütterung und Risse im Gehirn können entstehen. Ja, also sorry, habe ich äh bevor jetzt die die Korrekturen kommen, tut mir leid. Ja, es stimmt gar nicht. 00:24:36.560 --> 00:24:41.920 Oh Gott. 00:24:41.734 --> 00:24:47.370 Sorry, ja nicht, das ist doch irgendwie Ärger gibt, ja. 00:24:45.670 --> 00:25:00.590 Ja, nachdem du jetzt meine meine vorsichtigen äh Versuch, hier wirklich einen gepflegten Übergang zum von einem schwierigen Thema zu einem schwierigen Thema äh torpediert hast und das äh du aber versuchen, das einzuleiten. 00:25:01.360 --> 00:25:03.180 Die Situation, 00:25:03.427 --> 00:25:16.298 in netzpolitischen Debatten dreht sich sehr häufig um das Thema des dokumentierten Kindesmissbrauchs. Ähm das sicherlich ein sehr ernstes und großes, 00:25:16.419 --> 00:25:24.044 Problem ist, dass fast so groß ist wie der tatsächliche Kindesmissbrauch über den äh ja hier Beweismittel. 00:25:24.579 --> 00:25:27.403 Verteilt werden von Menschen. 00:25:28.040 --> 00:25:38.676 Und das ist natürlich ähm illegal in so gut wie jedem Land dieser Erde und ähm gesellschaftlich geächtet, aus gutem Grund und wird ähm, 00:25:38.911 --> 00:25:47.587 strafverfolgt, ja? Wir haben ja auch immer wieder, darf man ja nicht vergessen, durch gute Polizeiarbeit dann so Ermittlungserfolge wie 00:25:47.546 --> 00:25:57.737 denke vor einem Jahr ungefähr war das länger herein in Münster ähm wo es da diesen Missbrauchsring gab und diese Menschen nutzen. 00:25:58.019 --> 00:26:00.471 Natürlich auch ähm. 00:26:01.481 --> 00:26:08.024 Technologien der Verschlüsselung und des anonymen Datenaustausches, um dieses Material, 00:26:08.265 --> 00:26:15.932 in Umlauf zu bringen. Immer mal wieder gibt es offenbar auch Leute, die da dann damit tatsächlich Geld verdienen und. 00:26:16.341 --> 00:26:27.301 Allerdings, was man so hört, scheinen das auch eher äh viel einfach ja Tauschbörsen zu sein, wo Menschen diese Materialien eben anonym miteinander. 00:26:28.095 --> 00:26:37.469 Teilen. Wie gesagt, das Problem ist fast so groß wie der tatsächliche Kindesmissbrauch, der da stattfindet. Und ähm natürlich ist es verständlich. 00:26:37.806 --> 00:26:46.103 Dass man dagegen vorgehen möchte als Gesellschaft. Ähm der Weg, der gewählt wird, 00:26:46.429 --> 00:27:00.195 Ist aber häufig so die Idee der Unmöglichmachung, ja? Ähm in Deutschland die prominenteste Ansatz war das mit den Stoppschildern, Ursula von der Leyen, die also ein sehr untaugliches und verfahren. 00:27:00.748 --> 00:27:14.857 Umsetzen wollte, dass also DNS-Server so etwas nicht mehr auflösen. Die einzige Folge davon wäre gewesen, dass eben die äh die Seiten sich nicht mehr auf DNS konzentrieren, sondern zum Beispiel als Hidden Services angeboten werden. 00:27:15.669 --> 00:27:28.714 Und äh eine ganze Reihe Overblocking stattgefunden hätte. Und durch diese ähm da gab es dann eben diesen Aufruf löschen statt Sperren und vor allem auch die Forderung. 00:27:29.093 --> 00:27:38.340 Führt das einer Strafverfolgung zu, wenn Menschen diese Materialien anbieten, besitzen äh oder teilen oder und äh ja, 00:27:38.479 --> 00:27:48.063 oder dafür bezahlen oder was auch immer, die juristischen Formulierungen sind. So, jetzt hat es sich ergeben, dass fast alle großen Tech-Anbieter. 00:27:48.496 --> 00:27:53.261 In den USA solchen solche Materialien, 00:27:53.496 --> 00:28:04.864 melden und zwar an das. Das ist das National Center von Missing and Explorted Children. Also das nationale Zentrum für äh Vermisste oder ähm. 00:28:05.226 --> 00:28:13.806 Äh missbrauchte Kinder oder ausgenutzte Kinder. So und die Unternehmen ähm, 00:28:14.065 --> 00:28:21.942 die großen Unternehmen wie jetzt Facebook oder Google, ähm die melden dort die Fälle hin, die ihnen ähm. 00:28:22.369 --> 00:28:26.095 Bekannt werden. So, jetzt hat Facebook. 00:28:26.564 --> 00:28:39.603 Wie wie werden die ihnen bekannt? Die haben automatische Scanner dafür. Das ist dieses Verfahren Foto-ID von Microsoft. Das haben wir hier auch schon mal in einer Sendung früher genauer erklärt. Das. 00:28:39.988 --> 00:28:44.080 Basiert im grob gesagt darauf, dass das Bild in. 00:28:44.741 --> 00:28:53.021 In ähm schwarz und weiß, quasi ganz hoher Kontrast gezogen wird und dann in Vierecke aufgeteilt wird und diese Vierecke, 00:28:53.148 --> 00:29:02.371 Also quasi das Bild nach und nach symblifiziert wird und darüber am Ende dann einen Fingerabdruck errechnet wird, der mit hoher Wahrscheinlichkeit gegen. 00:29:02.648 --> 00:29:08.957 Minimale kleinere Veränderungen des Bildes resistent ist. Ja, also zum Beispiel wenn du jetzt, 00:29:09.102 --> 00:29:16.835 einen Farbstich reinmachst, ist ja jeder Pixel des Bildes anders, aber dadurch, dass du den Kontrast halt wieder äh krass ziehst, 00:29:16.866 --> 00:29:29.286 lässt du lässt sich quasi wieder technisch das Bild auf seine wesentlichen Komponenten reduzieren und dafür haben die eben so einen Fingerabdruckverfahren entwickelt. Ähm was da bei solchen Scans zum Einsatz kommt. 00:29:30.056 --> 00:29:39.441 Und ähm wenn man sich die Meldungszahlen anschaut, hat Facebook zwanzig Komma drei Millionen Fälle an die Neckmac gemeldet im vergangenen Jahr, glaube ich, 00:29:39.550 --> 00:29:51.279 Google fünfhundertsechsundvierzigtausend. Der Unterschied ist mir auch noch nicht ganz klar und Apple hat zweihundertfünfundsechzig Fälle gemeldet. So, jetzt müssen wir natürlich fragen, 00:29:52.043 --> 00:29:59.091 so natürlich werden auf Facebook vermutlich sehr viel mehr Bilder getauscht als bei. 00:29:59.608 --> 00:30:13.116 Apple, aber Apple hat eben die Fotolibraries der Menschen, ja? Ähm und Google, da würde ich jetzt vermuten, dass Google ähm die haben ja kein soziales Netzwerk mehr, da kann es wahrscheinlich 00:30:13.092 --> 00:30:18.951 Google Mail betreffen und vielleicht auch tatsächlich das, was die Google Suche ähm findet. 00:30:20.129 --> 00:30:30.482 Ähm Apple hat aber hier natürlich sehr viel sehr viel weniger Nullen hinter der Meldungszahl und es scheint, dass sie da äh für schlecht dastehen. 00:30:30.885 --> 00:30:39.256 Ähm und jetzt haben sie angekündigt, dass sie diese Suche. 00:30:39.917 --> 00:30:49.507 Vornehmen möchten. So soll's aber eine Sache sagen, diese ganzen Scan-Verfahren funktionieren natürlich nur bei unverschlüsselten Daten, 00:30:49.670 --> 00:30:51.844 Wenn ich also jetzt so, 00:30:51.989 --> 00:31:05.533 Bild hätte und das unverschlüsselt in, was ich in lege oder so, dann wird das nicht lange dauern, bis das verschwindet und ich potenziell eben äh der Strafverfolgung äh zugeführt werde. 00:31:06.657 --> 00:31:16.614 Wenn ich das verschlüssele und irgendwo hinlege, gibt es keine Möglichkeit, dass das zu detektieren. Und glücklicherweise gibt es ja den. 00:31:17.173 --> 00:31:29.161 Tendenz dahin, dass wir immer mehr Daten verschlüsseln, weil wir immer mehr Daten äh haben, bauen, austauschen, bereitstellen und ähm, 00:31:29.390 --> 00:31:32.730 Das ist ja gut, das ist ja positiv, aber genauso wie das 00:31:32.580 --> 00:31:45.313 dann im Falle von Staatstrojanern dazu führt, dass der die eigentliche Scanner auf das System soll und auch bei diesen Sachen der Chatkontrolle, wenn wir mit Patrick Breier darüber gesprochen, wo dann gesagt wird, wir wollen diese Scanner 00:31:45.181 --> 00:31:48.985 in euren Messenger bauen, ja, also die E-Privacy 00:31:48.877 --> 00:31:55.186 Richtlinien, Ausnahme, die nachher zur Pflicht werden soll, über die wir, glaube ich, auch in der letzten Sendung gesprochen haben 00:31:55.127 --> 00:32:03.220 hört man natürlich schon die Nachtigall trapsen und bei Apple ist die Nachtigall jetzt ähm im Betriebssystem ab Herbst. 00:32:03.431 --> 00:32:08.454 So die Ankündigung von Apple. Und jetzt können wir uns anhören, wie der Tim sich da schön redet. 00:32:10.846 --> 00:32:23.513 Na ja, ich äh will das gar nicht erst mal äh bewerten, sondern erstmal wollte ich mal äh vorstellen, was eigentlich jetzt sozusagen der Plan ist, ne. Also der Grund, warum Apple so wenig Fälle meldet, ist schlicht und ergreifend, dass ihr halt diese Fotos nie gescannt haben, 00:32:23.519 --> 00:32:29.420 Und das ist ja schon mal auch äh eins ihrer Argumente äh gewesen, dass sie das halt auch überhaupt nicht tun wollen. 00:32:29.805 --> 00:32:39.076 Wollen halt nicht äh die Datenbestände von Nutzern durchforsten. Und das wollen sie halt weder in der Cloud noch, 00:32:39.209 --> 00:32:47.279 auf dem Telefon tun. Das ist quasi so der der Kern auch ihrer Ankündigung. Also was haben sie jetzt 00:32:47.189 --> 00:32:51.401 gemacht, wie du schon richtig gesagt hast, also das ist jetzt quasi der Ausblick 00:32:51.377 --> 00:33:04.429 auf eine ganze Reihe von neuen Betriebssystemen, also einmal so ihren ganzen Kladderadatsch von vorne bis hinten durch. IOS für das äh iPhone, iPad, US, fürs iPad, Watch OS für die Uhr 00:33:04.273 --> 00:33:13.845 und natürlich macOS für die Max, also alles kommt jetzt im äh Herbst in der neuen Version raus. Eiweiß fünfzehn und äh 00:33:13.833 --> 00:33:20.611 Ist acht und wie sie alle heißen. Auf jeden Fall ist es mittlerweile auch so, dass die ganzen 00:33:20.473 --> 00:33:32.028 mit einzelnen Varianten eines Kernbetriebssystems mittlerweile so ähnlich sind, dass sie jetzt mehr oder weniger Technologien jetzt auch auf allen Plattformen gleichzeitig releasen können. 00:33:32.618 --> 00:33:42.322 Ja und ihre Aussage ist, dass sie halt äh so lange äh da jetzt gar nichts getan haben, weil sie meinten, dass eben die Technologie noch nicht da sei. 00:33:42.629 --> 00:33:45.320 Sie das auf die Art und Weise machen können, 00:33:45.405 --> 00:33:55.109 wie sie es gerne machen wollen, nämlich unter Beibehaltung der Privatsphäre, das ist so quasi ihre ihre. Ähm. 00:33:55.434 --> 00:33:57.915 Auf jeden Fall erstmal auseinander halten sollte, ist. 00:33:58.355 --> 00:34:13.082 Was tun Sie eigentlich? Sie haben jetzt irgendwie drei Sachen angekündigt. Die ersten beiden kann man, glaube ich, schnell mal abhaken, die sind äh nicht sonderlich äh umstritten und auch nicht sonderlich umfangreich. Also zunächst einmal. 00:34:13.641 --> 00:34:21.910 Sie sprechen hier von Siri und Search, als ob sie irgendwie große Suchdienste am Start hatten, aber man kann ja quasi mit diesem Siri, mit diesem 00:34:21.694 --> 00:34:31.566 Apple Alexa äh auch Internetsuchen äh ausführen ja und wenn man das halt benutzt und ähm dann dann äh interpretieren sie halt, wie sie sagen, 00:34:31.681 --> 00:34:45.165 entweder so Hilfe suche oder eben so Sesam, Relate Topics, wie sie das nennen, also Cesam ist so jetzt der, ich weiß gar nicht, wie lange es diesen Begriff schon gibt, aber das steht eben für Charles, oder sozusagen. 00:34:45.730 --> 00:34:57.063 Fotos, ne, äh aller Art, die eben Kindesmissbrauch dokumentieren, also Sesam werde ich jetzt mal hier auch einen weiteren benutzen als ähm Abkürzung dafür. 00:34:57.592 --> 00:35:00.398 Und wenn man halt danach äh sucht 00:35:00.374 --> 00:35:11.773 dann wird halt irgendwie Hilfe eingeblendet, Ressourcen eingeblendet, hier melde dich doch da und so weiter. Äh beziehungsweise wenn halt Leute jetzt aktiv sich auf auf die Suche nach solchen Material machen 00:35:11.593 --> 00:35:21.411 meinen sie halt auch, dass sie dann äh entsprechende Warnungen einblenden und darauf hinweisen, dass das ja alles irgendwie nicht so geil wäre oder nicht so oder verboten oder was auch immer. Also da weiß ich jetzt auch nicht genau 00:35:21.256 --> 00:35:30.119 was da steht, aber das ist sozusagen das Erste. Ähm das Zweite ist, dass sie halt explizit in diese Messages App auf dem, 00:35:30.167 --> 00:35:37.666 Eiweiß, also auf dem auf dem iPhone eine Funktion einbauen, die halt ja, 00:35:37.799 --> 00:35:46.974 Wie sie das so schön sagen, sensitive Content erkennt. Ja, also sie benutzen quasi ihre Machine Learning, Algorithmen, die ja in der Lage sind, mittlerweile alles Mögliche zu erkennen, 00:35:47.191 --> 00:35:56.757 und sind da wohl recht konfident, dass sie halt tja, erkennen können. Das ist halt, sagen wir mal, eine. 00:35:58.139 --> 00:36:05.001 Eine eine Antwort auf diese Problematik von so Sexfotos verschicken und soll eine Funktion sein. 00:36:05.416 --> 00:36:12.044 Die ähm vor allem Eltern in die Lage äh versetzt, das eben bei Kindern 00:36:11.870 --> 00:36:23.251 sozusagen als Warnow einblenden zu lassen, also entweder um Kinder davon abzuhalten, äh selber Nacktfotos zu verschicken oder eine Warnung anzuzeigen, wenn sie welche 00:36:23.131 --> 00:36:32.084 empfangen. Ja, also um dieses Problem der der Anbahnung. Ähm irgendwie an äh anzugehen. 00:36:32.721 --> 00:36:39.860 Und das Ganze ist halt gekoppelt mit diesem Familysharing. Also das ist jetzt sozusagen keine Funktion, die auf allen Telefonen ist, 00:36:40.004 --> 00:36:54.168 sondern dass es eben in dieser Konstellation, wo man äh so verschiedene AppleIDs gruppiert zu einer Familie und dann sind bestimmte eben als Kinder ausgewiesen und da ist ja auch das Alter dabei und die Funktion verhält sich halt ein bisschen anders. Ähm 00:36:54.054 --> 00:37:03.962 je nachdem wie alt die Kinder äh sind. Sprich bei Kindern unter zwölf äh ist dann auch eine Benachrichtigung, 00:37:04.143 --> 00:37:06.907 der Eltern äh mit dabei und bei älteren, 00:37:07.003 --> 00:37:16.227 werden sozusagen die Kinder nur selber gewarnt, das ist auch alles Opt-In, also nicht die folgtmäßig äh eingeschaltet, 00:37:16.359 --> 00:37:31.995 und die Funktion ist halt so, dass wenn du jetzt so ein Foto bekommst, wo die der Algorithmus schlägt an und sagt so, ja hier Sensitive Content, dann ist es erstmal blöd und dann wird halt so drauf hingewiesen, so ja, hier könnte problematischer Inhalt sein, willst du das wirklich sehen? Dann kannst du aber immer trotzdem noch dich drüber hinweg setzen und ja sagen. 00:37:31.803 --> 00:37:38.923 Bei den kleineren Kindern ist es halt so und dann wird dann auch gesagt so ja okay kannst du dir jetzt angucken, aber wir benachrichtigen dann auf jeden Fall auch deine Eltern, 00:37:38.971 --> 00:37:49.403 So, ne? Das ist der der Modus, den sie jetzt hier machen. Dadurch, dass es in dieser Messe App ist, ist es halt keine Funktion von iMessage, sondern es deckt dann quasi auch SMS mit ab 00:37:49.337 --> 00:37:54.715 aber eben nicht die anderen Messaging Dienste. Es ist wohl auch im Gespräch. 00:37:55.130 --> 00:38:09.557 Diese Funktionalität generell im Betriebssystem auch anzubieten. Ohnehin werden diese ganzen Funktionen als Teil des Betriebssystems äh angeboten und werden nicht über noch einen anderen Seitenkanal äh aktualisiert. 00:38:10.237 --> 00:38:12.736 Ähm das wird sich zeigen, ob 00:38:12.592 --> 00:38:21.047 ob sich sowas dann äh etablieren, wird das dann andere Messenger sich sozusagen derselben Funktion bedienen, dass sie einfach sagen, ja hier Betriebssystem, ich habe gerade ein 00:38:20.975 --> 00:38:31.208 bekommen, sag mal was dazu und dann im Prinzip in der Lage werden ja auch diesen selben Prozess oder vergleichbaren Prozess anzusteuern. Das äh liegt jetzt alles noch ein bisschen. 00:38:31.611 --> 00:38:40.960 In der Zukunft. So, das sind so die ersten beiden Maßnahmen, die Sie angekündigt haben. Ähm und die. 00:38:41.430 --> 00:38:49.217 Die Maßnahme, die jetzt am meisten Aufmerksamkeit bekommen hat, ähm die bezieht sich auf, 00:38:49.434 --> 00:38:58.243 i-Cloud-Fotos, i-Cloud Fotos ist ja quasi Apples, Methode, wie ähm Apple-Nutzer, 00:38:58.375 --> 00:39:02.215 ihre Fotosammlung, ihre Foto Library, 00:39:02.438 --> 00:39:11.823 im iCloud-System hinterlegen können, so dass man das nicht alles auf den die Weiße speichern muss, ich mache ein Foto aufm iPhone und wenn die iCloud Library eingeschaltet ist, dann wird das halt 00:39:11.619 --> 00:39:14.912 automatisch in diese Cloud hochgeladen und mit den ganzen anderen 00:39:14.738 --> 00:39:24.190 Rechnern, die da äh mit derselben Apple ID arbeiten und wo auch iCloud-Fotos eingeschaltet ist, wird das dann halt gesündt, sodass man halt hier ein Foto macht und es dort sofort verwenden kann. 00:39:25.134 --> 00:39:33.654 Und was sie halt machen werden und ähm man muss nochmal darauf hinweisen, 00:39:33.642 --> 00:39:43.786 Das ist jetzt eine Funktion, die jetzt erstmal nur in den USA zum Tragen kommt. Das ist jetzt quasi nichts, was jetzt in Deutschland aktiv werden würde, also zumindest nicht jetzt, nicht zu diesem Zeitpunkt, 00:39:43.882 --> 00:39:47.162 Ähm das halt, wenn, 00:39:47.163 --> 00:39:58.207 Fotos in diese, also wenn i Cloud Fotos eingeschaltet ist und nur dann, dann ähm werden diese Bilder geprüft, ob es sich dabei um bekanntes 00:39:58.166 --> 00:39:59.710 Cesar Material, 00:39:59.752 --> 00:40:13.368 handelt. Und hier kommt die anfangs erwähnte ähm dieses Anfangs erwähnte Nationalcenter Children, dieses Neckmack oder NCMEC äh mit rein, was halt in den USA 00:40:13.230 --> 00:40:14.972 quasi, 00:40:15.087 --> 00:40:24.797 die einzige Organisation ist, die solche Bilder überhaupt vorrätig haben darf. Das heißt, deren Datenbank existiert nur dort. 00:40:25.212 --> 00:40:29.484 Und wie du schon gesagt hast, gibt verschiedene Methoden, wie man eben, 00:40:29.737 --> 00:40:36.821 auf die Identität dieser Fotos prüfen kann, ohne dass die Fotos selber wieder in die Welt geschickt werden, 00:40:36.966 --> 00:40:48.551 Ne, also mit entsprechenden Fingerprintmethoden. So wie du das von der Microsoft-Methode beschrieben hast, scheint das hier äh noch ein bisschen anders äh zu laufen. 00:40:49.104 --> 00:40:55.732 Ähm ich vermute mal, dass Apple hier äh mit der Organisation das, 00:40:55.769 --> 00:41:07.498 technisch gemeinsam, koordiniert hat und hier sprechen sie von sogenannten Noyalas, also ist die ganze Zeit von die Rede, Hashtag ist ja so allgemein so, 00:41:07.540 --> 00:41:13.963 so ein bisschen in der in der Debatte so ein ist, du nimmst irgendeine Datei, du bildest einen Hash und dann hast du so 00:41:13.796 --> 00:41:25.826 eine ID, die quasi so ein bisschen für die ganze Datei spricht, ohne dass so die ganzen Daten durchackern musst. Und in der Theorie ist es halt so, du änderst irgendwo ein Bit und dann ändert sich auch irgendwo ein Bit in diesem, 00:41:25.964 --> 00:41:34.941 das heißt also aus sehr viel mehr Daten wird ein sehr viel kleinerer Zahlenbereich gemacht, der aber trotzdem so ist, dass dass er in der Regel jede Änderung irgendwie, 00:41:35.068 --> 00:41:38.306 bekommt und 00:41:38.247 --> 00:41:49.706 äh das würde natürlich sofort fehlen, wenn du halt bei irgend so einer Bilddatei auch nur ein Bike weglässt oder äh von Farbe auf schwarz weiß gehst oder das Bild äh abschneidest, anderes, 00:41:49.712 --> 00:41:59.332 äh machst oder auch irgendwelche Filter drüber jagst, dann ändern sich ja im Prinzip alle Bits auf einmal und so normaler Hashtag würde dann einfach überhaupt nicht mehr greifen 00:41:59.230 --> 00:42:02.505 Und dieser ist halt eher 00:42:02.415 --> 00:42:15.256 so diese Methode wie heutzutage mit Machine Learning, auch Bilder generell analysiert werden, ne? Dieses Deep-Learning geht ja mehr auf Features ein und ähm schaut sich quasi die eigentlichen Struktur dieses Bildes an. 00:42:15.858 --> 00:42:21.235 Und sie sagen halt, dass eben mit dieser Methode sie eben auch. 00:42:22.059 --> 00:42:33.812 Mehrere Varianten eines Fotos ähm auf einen eindeutigen Wert zurückführen können, selbst wenn eben solche Filterkopping und Farbmodifikationen durchgeführt worden sind. 00:42:34.456 --> 00:42:42.651 Wie gut das funktioniert, kann ich nicht sagen, aber das ist äh die Behauptung, die hier im Raum ist. Man nennt das dann perceptive äh Hashing, ne. 00:42:43.235 --> 00:42:44.989 So und was passiert jetzt? 00:42:45.506 --> 00:42:57.722 Du hast also ein neues Bild, ja, was irgendwoher kommt, vom Internet oder äh aus irgendeiner anderen äh Quelle und das soll halt in die iCloud-Foto Libri hochgeladen werden und dann wird eben. 00:42:58.131 --> 00:43:04.783 Dieses Bild wird von diesem Bild, dieser neurollas gebildet und das Ganze wird. 00:43:05.138 --> 00:43:10.371 Verglichen mit einer Liste von die eben von diesen, 00:43:10.432 --> 00:43:20.875 NCMEC kommt. Diese Liste, dieser Bilder der bekannten Bilder, die ist Teil des Betriebssystem Updates, wird mit dem Betriebssystem quasi mit ausgeliefert. 00:43:21.717 --> 00:43:28.387 Und das findet dann ein Vergleich statt. Und der Vergleich ähm findet. 00:43:29.282 --> 00:43:36.799 Auf eine kryptographische Methode statt. Also man nennt das Private Intersection. 00:43:37.316 --> 00:43:51.095 Und in dem Fall äh werden also quasi diese beiden Sets, also auf der einen Seite hier meine Fotos, hier äh die Foto-IDs, diese von der äh Datenbank werden miteinander verglichen. 00:43:51.648 --> 00:44:00.896 Und damit soll verhindert werden, dass eben diese Sets komplett zugänglich werden, man aber trotzdem irgendwie diese Inhalte miteinander vergleichen kann. 00:44:01.557 --> 00:44:10.173 Eine ähnliche Technik wird wohl schon zum Einsatz gebracht, um zum Beispiel Passwörter im Schlüsselbund mitliegt, 00:44:10.294 --> 00:44:18.695 Passwörtern ähm zu vergleichen. Das hatten wir ja hier auch schon mal besprochen. Äh wie hieß noch gleich diese Passwörterdatenbank? Minus. 00:44:18.791 --> 00:44:31.962 Die hören diese Liste. Da schickt man quasi äh einen Teil des aber nur hin, das Ende und kriegt dann alle, die auch so enden und vergleicht dann lokal, ob man diesen hat. 00:44:31.675 --> 00:44:38.819 Mhm. Also Apple sagt zumindest, dass sie dieselbe Technik dort äh auch, äh dass sie sie dort auch verwenden. 00:44:39.474 --> 00:44:46.342 So und jetzt kommt der eigentliche Punkt. Es gibt dann also quasi in diesem cryptographischen Vergleich gibt es ein Ergebnis, 00:44:46.517 --> 00:44:59.460 und das Ergebnis ist dann, würde man sagen, es ist so, ja, ist Bestandteil dieser Datenbank oder nicht, aber ganz so einfach ist es nicht, sondern was sie machen ist, sie erzeugen, sie kriegen sozusagen ein kryptographisches Vergleichsergebnis, 00:44:59.629 --> 00:45:06.593 was dem Code selber in dem Moment auf dem Telefon gar nicht sagt, ob das jetzt ja oder nein war. 00:45:06.942 --> 00:45:20.029 Sondern sie schließen das in so einen Wauscher ein, also ist so ein kleiner Kryptographischer Anhang, der dann einfach mit dem Bild hochgeladen wird, in die Wolke. Und man kann diesen Wortschal selber erstmal nicht ansehen, 00:45:20.282 --> 00:45:29.553 Wie das Ergebnis eigentlich war. Und der Grund, warum man das nicht sehen kann in dem Fall, ist, dass es ein sogenannter. 00:45:29.860 --> 00:45:39.126 So ein Schwellwert, Kryptosystem ist, dass diese zusätzliche Absicherung das bedeutet, dass du. 00:45:39.685 --> 00:45:48.770 Eine bestimmte Mindestmenge an solchen Vergleichen insgesamt positiv haben muss, bevor du sehen kannst, dass diese Menge positiv 00:45:48.687 --> 00:45:57.796 das lässt sich irgendwie einstellen, er bleibt gesagt, es liegt so ungefähr derzeit bei dreißig Bildern. Mit anderen Worten, wenn du ein Bild in deiner 00:45:57.730 --> 00:46:01.155 Foto Librier hast, was jetzt mit dieser Datenbank. 00:46:01.450 --> 00:46:10.301 Datenbank von positiv verglichen wird, löst das erstmal noch gar nichts aus. Wenn du aber, 00:46:10.493 --> 00:46:19.963 dreißig Bilder in deiner Datenbank hast, dann werden die überhaupt erst als solche in der Cloud erkennbar. 00:46:20.841 --> 00:46:32.096 Und dann kann ein System erst sagen, so, ah okay, hier ist der Schwellwert überschrieben und dann kann man eben diese Wortschau überhaupt erst auslesen. Und das wiederum. 00:46:32.433 --> 00:46:33.754 Triggert dann. 00:46:34.236 --> 00:46:45.628 Also sollte das jetzt sozusagen passieren. Ich habe jetzt irgendwie dreißig Bilder mit diesem Schwellwert sozusagen äh erreicht, dann ist Cloud-seitig überhaupt erst der Einblick möglich, 00:46:45.785 --> 00:46:50.586 und dann triggert das bei Apple eine manuelle Überprüfung. Das heißt, Apple. 00:46:51.313 --> 00:47:00.459 Hat dann irgendwie ein Team, die dann Zugriff auf diesen Benutzer-Account äh bekommen, sich diese fraglichen Bilder anschauen können, ob das sozusagen, 00:47:00.699 --> 00:47:10.373 nicht irgendwelche waren, sondern ob das jetzt wirklich problematischer Inhalt äh ist und der Account wird äh auch erstmal gesperrt. 00:47:11.720 --> 00:47:20.631 Ja und wenn ein Nutzer der Meinung ist, er wäre zu unrecht äh gesperrt, so dann gibt's auch einen Prozess, äh mit dem man da sich sozusagen entsprechend beklagen kann. Aber diese. 00:47:20.914 --> 00:47:32.727 Ähm dieses Schwellwertsystem soll die Chance von Fehlmeldungen reduzieren. Sie sprechen von eins zu einer Billion, sozusagen wahrscheinlichkeit. 00:47:33.888 --> 00:47:40.948 Ja, also das ist das ist sozusagen das, was sie äh tun und sie treiben da einen relativ großen Aufwand, 00:47:41.074 --> 00:47:51.686 eben dazu führt, dass weder der Code auf dem Telefon eigentlich weiß, was das Ergebnis dieser Untersuchung ist, ja? Noch äh das. 00:47:52.257 --> 00:47:59.768 Es ähm irgendwelche Aussagen, aber irgendwelche Bilder äh gibt in der, 00:47:59.937 --> 00:48:11.594 nicht erst dieser Schwellwert erreicht ist, also zu sagen erst, wenn sie sich wenn sich, ich sage mal so etwas erdrückender Beweis angesammelt hat, ist der Beweis als solcher überhaupt erst sichtbar und das triggert dann 00:48:11.504 --> 00:48:19.995 den manuellen Prozess und wenn der dann halt positiv beschieden wird, so ja OK hier wirklich problematisches Material 00:48:19.851 --> 00:48:29.489 dann erfolgt eine Meldung an diese NC MEC Organisation. Ja, also das ist sozusagen das. 00:48:29.766 --> 00:48:35.714 Das Modell, was sich jetzt äh Apple hat einfallen lassen, um. 00:48:36.003 --> 00:48:42.048 Ja, ob zu sagen, das ist ihre Position so. Wir sehen das als problematisch an. 00:48:42.373 --> 00:48:48.556 Dass sowohl Kinder aufgefordert werden, das ist diese Sache mit den Messages, ja? Als auch, dass Leute. 00:48:48.869 --> 00:48:55.730 Solche Fotosammlungen anlegen und wenn halt Fotosammlungen eine gewisse Menge annehmen, dann. 00:48:56.314 --> 00:49:01.998 Weist es darauf hin, dass es sich um problematischen Account handelt, der sie dann. 00:49:02.563 --> 00:49:06.697 Quasi verpflichtet, ähm das zu melden. 00:49:07.184 --> 00:49:12.514 Ja, aber das hat ja sehr, sehr lange erzählt, dass sie letztendlich einen Inhaltescanner. 00:49:13.043 --> 00:49:22.020 Auf deinem Telefon laufen lassen für ähm Inhalte, was weiß ich, die dir zugesendet werden und die für dich privat sind. Und, 00:49:22.213 --> 00:49:28.330 das ist denke ich in dieser Form noch nie da gewesen und 00:49:28.294 --> 00:49:32.800 eine Dammbruch, da könnt ihr noch so viel Mühe geben, denn 00:49:32.663 --> 00:49:45.450 was ich eingangs natürlich nicht erwähnt habe, ist es sämtliche solcher Maßnahmen, die anfangs mit äh Terrorismus und Kindesmissbrauch begründet werden, ihren, 00:49:45.606 --> 00:49:56.104 Weg in die allgemeine Nutzung finden. Um mal ein ein einfaches Beispiel zu nennen, weiß nicht, ob das immer noch so ist, aber ähm. 00:49:57.096 --> 00:50:06.878 Wenn man irgendwie für iTunes, für Apple Music zahlt, dann kann man ja auch eigene MP3s in äh in in dieses iTunes reinwerfen. 00:50:07.185 --> 00:50:21.312 Und äh die werden auch über Geräte synchronisiert, ja? Wenn man jetzt irgendwie, wenn Apple erkennt, das ist ein Song, den es auch bei uns in besserer Qualität gibt, da gebt ihr sogar den in besserer Qualität. Was so ein sicherlich eine Funktionalität ist, die. 00:50:22.243 --> 00:50:32.224 Ähm irgendwelchen Urheberrechtsinhaberinnen nicht so äh nicht so gut gefällt und die haben sicherlich Lust, dass äh auch sie eine Liste mit, 00:50:32.321 --> 00:50:41.827 nicht zu verwendendem Material pflegen und für die Anbieter verpflichtend machen können. Siehe 00:50:41.797 --> 00:50:48.479 Uploadfilter, ja? Wir haben ja genau diese Diskussion gerade, dass also ähm. 00:50:49.116 --> 00:50:56.813 Sämtliche Inhalte gescannt werden und ähm in diesem Fall dann die den die Veröffentlichung 00:50:56.693 --> 00:51:10.658 Uploadfiltern, also die Veröffentlichung auf der Plattform präventiv sofort verhindert wird. Und ähm nichts anderes als genau eine solche Filtertechnologie, egal wie sie jetzt im Detail anders funktioniert, will Apple jetzt auf die äh 00:51:10.532 --> 00:51:18.061 iPhones selber bringen bei den Nutzern in die Geräte, für die sie sehr viel Geld bezahlt haben. Und das sind genau die, 00:51:18.218 --> 00:51:24.623 ähm ja, Handlung und Szenarien, vor denen ähm. 00:51:25.387 --> 00:51:34.208 Also vor denen immer gewarnt wird, wenn man sich mit closed Software auseinandersetzt, dass nämlich genau äh 00:51:34.166 --> 00:51:47.061 in dem Moment, wo sich das Unternehmen entscheidet äh nicht mehr unbedingt in meinem Interesse zu handeln und da eine äh Risikotechnologie in diese Geräte einzubauen, äh die, 00:51:47.080 --> 00:51:47.872 dann eben, 00:51:47.873 --> 00:51:57.319 mit großer Wahrscheinlichkeit eben oder mit mit an Sicherheit grenzender Wahrscheinlichkeiten, Begehrlichkeiten anderer äh Interessengruppen, 00:51:57.331 --> 00:52:06.615 wecken, die dann nämlich sagen, die Technologie ist doch da. Ihr könnt jetzt nicht mehr sagen, das ist unmöglich und jetzt möchten wir bitte, dass ihr die auch nutzt. Ähm, 00:52:06.820 --> 00:52:15.742 um dann denen du eben nicht mehr entgegentreten können. Und dann hast du genau das Problem, dass du, sage ich jetzt auch, ist ja kein Geheimnis, dass ich einen Nutzer dieser Plattform bin. 00:52:16.656 --> 00:52:18.891 Und äh da lange, 00:52:19.006 --> 00:52:28.560 jetzt auch ja wie sagt man so schön, investiert bin, also ein verabschieden aus diesem Ökosystem würde mir auf jeden Fall schwerfallen 00:52:28.512 --> 00:52:35.753 vor allem natürlich auch in in Ermangelung an brauchbaren Alternativen, aber das ist ein anderes Thema. Ähm. 00:52:36.192 --> 00:52:40.187 Dass sich jetzt hier eben ein, ein, ein System, das sich, 00:52:40.452 --> 00:52:48.041 viele Jahre relativ zufrieden genutzt habe oder eine Plattform in diesem Gerät, dieses Gerät iPhone ähm, 00:52:48.066 --> 00:52:52.776 auf einmal potenziell gegen mich wendet und gegen meine Interessen verstößt und ich denn nichts 00:52:52.711 --> 00:53:03.557 machen kann, außer was weiß ich jetzt irgendwie und versuchen, das irgendwie wieder auszubauen, dass Apple nicht meine ähm meine Inhalte scannt. Und ähm. 00:53:03.851 --> 00:53:10.353 Wenn ich das an einem Cloud-Anbieter äh missachte, ja, 00:53:10.576 --> 00:53:15.304 den kann ich in der Regel einfacher wechseln, noch ja? Oder. 00:53:16.134 --> 00:53:23.940 Habe mich nie dazu entschieden, äh ihn zu benutzen, ja oder da war zumindest auch klar, okay, du nutzt eine Cloud 00:53:23.898 --> 00:53:31.691 Das sind die Computer von anderen Leuten und die werden sich potenziell äh nicht nicht deinen Interessen, 00:53:31.733 --> 00:53:44.202 verpflichtet fühlen. Das ist aber was anderes, wenn ich irgendwie über tausend Euro für ein Telefon ausgebe, dann erwarte ich, dass da eine Software drauf ist, die ausschließlich meinen Interessen gehorcht und diese nicht aufs Spiel setzt. Und jetzt 00:53:44.154 --> 00:53:52.807 weiß ich das natürlich für für Hörerinnen und Hörer der Eindruck entsteht, äh dass wir jetzt das das das wir jetzt hier gegen äh Maßnahmen. 00:53:53.589 --> 00:53:58.978 Zur Verfolgung oder Erschwerung des Austausches von Sesam ähm. 00:53:59.640 --> 00:54:08.617 Argumentieren, darum geht es nicht. Es geht einfach um eine probate Technologie oder eben um eine nicht probate Technologie und das ist keine, 00:54:08.798 --> 00:54:14.500 probate Technologie, zumal es nicht dabei bleiben wird, ist, weil es nicht dabei bleiben wird. 00:54:15.360 --> 00:54:26.331 Keine einzelne, keine einzelne Technologie dieser Art. Tim, wurde jemals irgendwo eingeführt, ohne dass ihr ähm Anwendungszweck unmittelbar ausgedehnt wurde. 00:54:26.482 --> 00:54:36.469 Unmittelbar. Ja, Beispiel, Uploadfilter gegen äh Urheberrechtsverletzungen und jedes andere äh äh System, 00:54:36.608 --> 00:54:40.255 der das das ursprünglich mit mit derartigen Materialien, 00:54:40.417 --> 00:54:52.483 argumentiert wurde. Ja, Staatstrojaner waren ursprünglich auch nur gegen äh schwere Verbrechen und Terrorismus, ja. Zack, inzwischen werden damit irgendwelche von der Ecke äh angegriffen 00:54:52.375 --> 00:54:56.389 Es ist ein ein so sicher wie das Amen in der Kirche. 00:54:56.089 --> 00:55:03.041 Ja, also machst es dir jetzt doch ein bisschen einfach, ne? Also ich meine. 00:55:02.741 --> 00:55:05.799 Nee, das ist nicht einfach, das ist eine Tatsache, dass äh Grund, 00:55:05.926 --> 00:55:19.722 unumstößliche Tatsache, dass wenn solche Systeme gebaut werden, sie anfangs mit schweren Straftaten begründet werden und dass dann im weiteren Verlauf gibt der Sache fünf, gibt der Sache zehn Jahre die Anwendung 00:55:19.675 --> 00:55:23.382 ähm ausgeweitet wird. Ein einfaches Beispiel 00:55:23.262 --> 00:55:36.151 du wartest gerade in den USA, ja? Wirst du nur, äh da brauchst du auch nicht lange zu warten. In den USA, bis wieder irgendein durchgeknallter Waffennarr ähm auf den Balkon tritt und ein paar Menschen erschießt. 00:55:36.073 --> 00:55:40.195 Ja? Und dann hast du zum Beispiel diese Situation. 00:55:40.953 --> 00:55:50.140 Ähm die haben wir auch in Deutschland, wenn so etwas passiert. Äh zuletzt war das, glaube ich, in München der Fall, dass dann die Polizei sagt, okay, verbreiten sie nicht diese Materialien oder so 00:55:49.996 --> 00:55:56.498 ja? Du hast jetzt gerade die Situation in Afghanistan, wo ähm wahrscheinlich, 00:55:56.516 --> 00:56:03.985 auch eine ganze Reihe an ähm sehr, sehr unschönen Bildern, politisch motivierte Tötungen und so, 00:56:04.028 --> 00:56:14.513 dokumentiert werden. Das sind auch alles wieder Materialien, äh die die man dann zum Beispiel als Terrorpropaganda und sonstiges bezeichnen kann, wo du selbstverständlich, 00:56:14.591 --> 00:56:20.798 als als Staat an Apple herantrittst und sagt, hör mal, ihr habt doch dieses System, mit dem man sicherstellen kann, dass solche 00:56:20.703 --> 00:56:29.746 Daten nicht auf den Geräten sind. Ähm nutzt das bitte für diesen Anwendungsfall. Und das ist, du kannst mir doch nicht erzählen, dass diese 00:56:29.632 --> 00:56:35.292 ähm dieser Bedarf nicht innerhalb der nächsten fünf Jahre an Apple herangetragen wird. 00:56:36.158 --> 00:56:39.018 Ja, aber die Technologie ist auch schon lange auf diesen Geräten. 00:56:39.986 --> 00:56:49.780 Das ist doch jetzt gar nix Neues in in der Hinsicht. Also jetzt einzelne Bilder zu finden, ist äh schon immer möglich gewesen. Und wenn jetzt halt, 00:56:49.937 --> 00:56:56.877 zu irgendwas gezwungen werden, irgendwas zu tun, dann wäre Ihnen das ja schon immer möglich gewesen. 00:56:57.262 --> 00:57:02.772 Argument erschießt sich mir nicht. Also das ist immer möglich gewesen. Es heißt ja nicht, dass es jetzt getan werden muss. 00:57:02.490 --> 00:57:09.310 Apple hat ja jetzt nur eine Methode dokumentiert und sehr öffentlich auch dokumentiert. 00:57:09.731 --> 00:57:18.702 Wie man so etwas tun kann unter der Maßgabe, dass eben die Privatsphäre dabei trotzdem erhalten wird und sie eben nicht in der Cloud alles durchsuchen. 00:57:18.984 --> 00:57:24.975 Das ist ja quasi ihr ihr Pitch an der Stelle. Ja, so nach dem Motto, wir versuchen das eine, 00:57:25.222 --> 00:57:31.513 machen, von dem ja, was sie so jetzt quasi für moralisch geboten halten. 00:57:31.868 --> 00:57:39.716 Ne, so weil schützen von Menschen ist ja durchaus auch ein Aspekt, den man mal hier äh mit aufbringen muss. 00:57:40.551 --> 00:57:52.990 Und versuchen eine Methode dafür zu äh posolieren, die sicherstellt, dass dass die in der Form, wie sie so läuft, wie sie dokumentiert ist, so nicht missbraucht werden kann. 00:57:53.218 --> 00:57:55.616 Wie, wieso kann die nicht missbraucht werden? 00:57:55.832 --> 00:57:58.590 Na wie würdest du sie denn missbrauchen wollen? Also was. 00:57:58.290 --> 00:58:06.258 Habe ich doch gerade formuliert. Also was wäre denn also was ist definiere, Missbrauch und sage wie das unmöglich gemacht wird durch dieses System? 00:58:06.408 --> 00:58:12.921 Bin jetzt nicht in der Lage, einhundert Millionen verschiedene äh Angriffsvektoren äh mir auszudenken 00:58:12.868 --> 00:58:27.722 ich sehe jetzt erstmal nur, wie diese Technik funktioniert und was sie durch diese Technik versuchen zu verhindern. Ja, sie versuchen zu verhindern, dass sie selber darüber Kenntnis erhalten, wie dieser Vergleich ist. Sie sagen im Übrigen auch in ihrem. 00:58:28.071 --> 00:58:40.221 Ähm in ihrem in ihrer Technologie Summery äh Dokumentes, habe ich's nicht komplett durchgelesen, ist ziemlich lang, wo sie eben so verschiedene Angriffsszenarien, 00:58:40.378 --> 00:58:41.795 auch ähm. 00:58:42.204 --> 00:58:50.514 Beschreiben und wie sie denken, wie ihr System dagegen äh resistent ist, dass unter anderem diese Listen, mit denen sie arbeiten, 00:58:50.779 --> 00:58:57.365 von zwei Organisationen kommen müssen, wobei sie jetzt noch nicht gesagt haben, wer denn jetzt bitte die zweite Organisation ist 00:58:57.287 --> 00:59:10.897 Ja, also ich spreche jetzt, dass ihr mit dieser NCMEC zusammenarbeiten. Auf der anderen Seite sagen sie aber auch, dass sie quasi die Listen aus zwei Quellen haben wollen und dann nur die Idetyfire benutzen, die eben in beiden Datenbanken drin ist, aber 00:59:10.765 --> 00:59:18.787 fehlt mir noch ein bisschen die Information, was diese zweite Organisation ist und ähm jetzt, 00:59:19.034 --> 00:59:29.621 müsste man sich halt überlegen, okay, auf welche Art und Weise könnte dieser öffentlich dokumentierte Prozess missbraucht werden? Ich meine, in dem Moment, wo ein Unternehmen, 00:59:29.802 --> 00:59:32.320 im Geheimen irgendwas macht. 00:59:32.020 --> 00:59:35.510 Indem sie jetzt einfach zu dem nächsten verpflichtet werden. 00:59:37.001 --> 00:59:49.752 Ist doch, also zwei Organisationen, die sagen, das sind jetzt hier Terrorinhalte. Es geht ja nicht darum, es geht nicht um einen Ist-Zustand, der ist, es ist ja immer so, dass solche Technologien mit einem 00:59:49.722 --> 00:59:58.796 also schleichend eingeführt werden, äh anhand eines Themas, ähm bei dem alle sich einig sind, dass das schon, 00:59:58.850 --> 01:00:06.727 hier eine eine sagen wir mal angemessene Abwägung stattfindet, ja? Ähm das ist natürlich naheliegend und auch, 01:00:06.776 --> 01:00:13.842 Ich sage natürlich auch, ich habe hier nix zu verbergen, äh ich habe auch keine nennenswerte Befürchtung 01:00:13.722 --> 01:00:22.345 hier durch dieses System drangsaliert zu werden. Man redet sich das natürlich klein mit einer unglaublich geringen, 01:00:22.436 --> 01:00:33.360 Wahrscheinlichkeit ähm im Betrieb sind irgendwie, weiß ich nicht, über eine Milliarde iPhones auf diesem Planeten, wenn ich das wenn ich mich da nicht täusche, die Leute machen Bilder am laufenden Band. 01:00:33.973 --> 01:00:46.093 Egal wie klein die Fehlerwahrscheinlichkeit ist, sie wird in absolut Unmengen an Zahlen landen äh äh zu zu absolut sehr großen Zahlen führen, egal wie klein die Fehlerwahrscheinlichkeit ist, 01:00:46.333 --> 01:00:51.921 gegen äh wir weiten dieses System auf andere Themenbereiche aus, 01:00:52.042 --> 01:00:58.622 ist eben jede technische Implementierung nicht ähm nicht gewachsen. Also da können ja noch so viel schreiben. 01:00:58.929 --> 01:01:08.825 Ja gut, sagen wir mal, du bist ein Fotocloud-Anbieter, ja? Du, du bietest jetzt diesen Dienst Leuten an. 01:01:09.655 --> 01:01:17.893 Dann ist deine Position, dass sozusagen du keinerlei Verantwortung für die Inhalte hast, die die Leute dort speichern. 01:01:18.759 --> 01:01:28.360 Absolut. Und äh ich sollte auch weiterhin keinen Einblick haben in die Inhalte, die die die Leute dort speichern. Und ich kann das auch begründen. 01:01:28.103 --> 01:01:41.604 Okay und jetzt sagen wir mal jetzt weiß man dann irgendwann, ja, dass dieser Speicher massenhaft zum speichern von diesem Caesar-Material verwendet wird von Leuten. 01:01:42.368 --> 01:01:51.784 Das äh also diese Frage, also ich muss mal ganz ehrlich sagen, so ähm wenn man das weiß, woher weiß man es denn? 01:01:52.367 --> 01:01:55.359 Stellt sich doch schon die Frage, dürfte man doch gar nicht wissen. 01:01:55.787 --> 01:02:05.701 Ich stelle das übrigens auch in in ich ich ziehe das in Zweifel, dass das der äh dass das äh bei Apple der Fall ist. Also ich kann mir, ich meine, du müsstest schon wirklich 01:02:05.599 --> 01:02:13.849 echt mit einem Klammerbeutel gepudert sein, um äh um derartige Materialien in deine Privatcloud zu zu laden. So ähm, 01:02:13.934 --> 01:02:23.530 also die Befürchtung, dass das passiert, ja, durchaus klar, kann sein, ähm aber ich kann, ich sehe, sehe keine Zahlen, dass es tatsächlich stattfindet. 01:02:23.326 --> 01:02:27.892 Aber wie kann es dann sein, dass Facebook zwanzig Millionen Fälle meldet in einem Jahr. 01:02:28.884 --> 01:02:40.980 Da bin ich also das ist also bei Facebook reden wir auch von einer Veröffentlichung, ne? Und jetzt ich äh es gibt auch einen entscheidenden Unterschied von zwischen Facebook und Apple. 01:02:41.822 --> 01:02:49.687 Und der, denke ich, ist hier ähm relevant. Wenn du dich in einer Facebook, also die werden ja nicht. 01:02:51.232 --> 01:03:02.998 Ich habe keine Ahnung von Facebook oder ich habe keine Ahnung von ähm Sesam, ja. Aber die werden ja nicht äh morgens aufstehen und sagen, äh hier, was weiß ich, schönen guten Morgen. 01:03:03.419 --> 01:03:16.043 Guck mal hier, schönes Bild. So, das werden wir nicht tun. Die werden im Zweifelsfall irgendwie Facebookgruppen äh oder andere derartige Wohnzimmer, die andere Menschen ihnen bereitstellen, nutzen und machen dort, 01:03:16.176 --> 01:03:19.144 Auf jeden Fall irgendeine Art, 01:03:19.295 --> 01:03:30.182 der zugänglichmachung. Ja, die, die einzige Weg, etwas, also der einzige Grund, warum etwas bei Facebook landet, ist, dass du es mit mindestens einer weiteren Person teilen möchtest. 01:03:30.591 --> 01:03:40.146 Ja, wenn wenn du es für dich hältst, dann bist du bei Facebook falsch. Ja? Und die Foto Library deines privaten, 01:03:40.272 --> 01:03:47.387 Smartphones ist deine persönliche Fotolibray. Und zwischen den beiden gibt es einen Unterschied, 01:03:47.597 --> 01:03:52.897 und zwar einen fundamentalen. Und wir haben ähm. 01:03:53.444 --> 01:04:01.760 Ohnehin, ja, also meine ersten Computer, ja, die waren für mich offline, auch. 01:04:01.941 --> 01:04:03.629 Eingeschränkt brauchbar, 01:04:03.713 --> 01:04:17.240 ja? Mit denen konnte ich, was weiß ich, irgendwelche Spiele äh spielen, dafür brauchte ich keine Mode im Verbindung oder ich konnte ein Word-Dokument bearbeiten und brauchte äh keine keine Onlineverbindung damit. 01:04:17.384 --> 01:04:21.181 Diese ähm diese Tendenz überhaupt, 01:04:21.278 --> 01:04:33.770 Personal Computer zu haben, weicht grade massiv auf. Und ähm und zwar durch diese ganze Klauderei und natürlich auch das das äh ja das Nutzungsverhalten, 01:04:33.885 --> 01:04:37.370 natürlich interaktiver geworden ist, ne, man irgendwie die ganze Zeit auf 01:04:37.292 --> 01:04:51.275 sein Essen fotografieren muss für Instagram und Selfies von sich selber veröffentlichen muss und so. Klar. Aber es gibt eben auch nun mal die private Nutzung und es gibt Dateien, die möchte ich auf meinem Computer speichern und ich muss, 01:04:51.371 --> 01:04:58.702 sicher gehen, absolut sicher gehen. Ähm beruflich oder äh journalistisch oder sonst was, 01:04:58.781 --> 01:05:08.371 dass diese Datei niemals meinen Computer verlässt. Und ich muss meinen Computer einhundert Prozent vertrauen können, dass der nicht meine Dateien scannt, ja? Äh einer der Gründe 01:05:08.227 --> 01:05:22.390 so und heute hast du eine, hast du eine Situation, wo du was weiß ich, irgendwelche Cloud basierten Virenscanner hast, die dir am laufenden Band irgendwelche Dateien zu Virus Toy werfen, ohne mit dir darüber gesprochen zu haben, äh du hast äh deine Foto Library. 01:05:22.547 --> 01:05:36.019 Liegt auf anderen Servern und wird dort synchronisiert deinen Apple Notes, deine äh wenn du nicht aufpasst, lädt der deine Passwörter bei denen in die Cloud. Und das, was du zurecht als privaten. 01:05:37.047 --> 01:05:44.912 Ähm als privates Gerät auch wahrnimmst, ja ähm erodiert, 01:05:45.027 --> 01:05:53.535 zu einer Plattform, wo alle möglichen Daten gesammelt werden. Ja, das ist äh schon dramatischer 01:05:53.511 --> 01:06:04.261 heutzutage gebe ich gerne zu, wenn du dich zum Beispiel in in einem Standard-Google-Kontext äh befindest, äh mit einem Android-Telefon, ja? Ähm, 01:06:04.303 --> 01:06:07.368 und das ist immer noch. 01:06:07.957 --> 01:06:22.366 Eine krasse Veränderung, wenn du dich irgendwie in diesem Apple-Bereich befindest. Du hast ja auch kürzlich werde ich mich nicht täusche, darüber, dich, äh, geärgert, dass die äh HomePots äh ohne Internet überhaupt nicht mehr zu bedienen sind, nicht mehr nutzbar sind. 01:06:22.066 --> 01:06:30.527 Ja, okay, aber das ist jetzt, das ist, führt mir jetzt, ehrlich gesagt, ein bisschen in die falsche äh äh Richtung so. Äh abgesehen davon kannst du dieses i-Cloud-Fotos 01:06:30.473 --> 01:06:37.221 Dieses Hochladen in deren Cloud abschalten, dann greift diese Methode nicht. So an diese Methode greift nur für die Leute, die ihre Cloud benutzen. 01:06:38.711 --> 01:06:42.941 Greift nicht für Leute auf, die auf ihrem Telefon irgendwas speichern. 01:06:42.840 --> 01:06:51.114 Und ihre Überprüfungsmethode ist ja auch eine Überprüfungsmethode, die auf dem Telefon überhaupt keinerlei Entscheidungen fällen kann. Sondern es geht 01:06:51.096 --> 01:06:56.684 sozusagen nur in der Cloud. Das kannst du tausendmal argumentieren, dass das ja auch alles anders sein kann 01:06:56.642 --> 01:07:15.571 Das ist die Methode, die sie jetzt öffentlich dokumentiert haben. Das ist ihre Ansage, das ist das, was wir tun wollen und aus folgenden Gründen ist das irgendwie durch Security-Resserch auch überprüfbar, da kann ich mich nicht zu äußern. Das haben sie jetzt irgendwie da in ihren Dokumenten äh behauptet. Es gibt da irgendwie diverse Papers, die da beiliegen, aber das habe ich jetzt nicht alles durchgelesen und das würde ich wahrscheinlich auch nicht alles unbedingt verstehen. Ich wollte aufhören 01:07:15.379 --> 01:07:22.878 auf was anderes hinaus und das ist eine Perspektive, von der ich finde, dass wir sie auch mal beachten müssen, 01:07:22.974 --> 01:07:31.946 weil sie nämlich Teil dieser öffentlichen Debatte ist. Und wenn man in dieser öffentlichen Debatte auch ein Punkt vertreten möchte, wie auch immer dieser Punkt ist, 01:07:32.006 --> 01:07:40.514 ja? Muss man den einfach berücksichtigen. Und deswegen habe ich gesagt, was ist, wenn du ein Anbieter bist? Jetzt sage ich mal, was ist, wenn ich ein Anbieter bin, 01:07:40.707 --> 01:07:50.063 Ich stelle jetzt diesen Space für die Leute bereit. Und mir kommt es zur Kenntnis, dass der eben dafür verwendet wird. 01:07:51.085 --> 01:07:53.025 Habe ich damit ein Problem. 01:07:53.699 --> 01:08:05.740 Ist das für mich moralisches Problem, ist vielleicht kein legales Problem. Vielleicht gibt's diese Gesetze nicht und so weiter, aber habe ich als Anbieter ein Problem damit? 01:08:06.071 --> 01:08:10.704 Ist das für mich sozusagen wichtiger, dogmatisch zu sagen, mit. 01:08:11.107 --> 01:08:19.315 Ja nee, äh mir doch egal, was ihr macht. Ja, oder äh dringt in mein Gewissen, äh die Erkenntnis rein. 01:08:19.610 --> 01:08:26.268 Das, was ich jetzt hier mache und womit ich Geld verdiene, trägt auch dazu bei, dem Treiben, 01:08:26.340 --> 01:08:32.229 Vorschub zu leisten, weil ich denen eine Dienstleistung anbiete. Und wir haben oft solche Diskussionen, 01:08:32.313 --> 01:08:47.221 Bitcoin, was das irgendwie trägt und so weiter. Kann man irgendwie Kryptosysteme, die völlig anonym sind, ist das sozusagen moralisch haltbar. Ja, legal mag das alles sein, aber ist das, ist das moralisch vertretbar, dass man das äh sozusagen gegen 01:08:47.216 --> 01:08:51.752 alle politischen Versuche, das zu regulieren verteidigt, 01:08:51.999 --> 01:09:00.778 Wenn man gleichzeitig weiß, was dadurch auch ermöglicht wird, das sind abwägen. Und in dem Fall und ich sage dir das auch ganz ehrlich. 01:09:01.481 --> 01:09:09.166 Mia, wer das nicht egal. Mir wäre das nicht egal und jetzt muss ich quasi ein, ein Weg finden, 01:09:09.443 --> 01:09:18.252 wie ich das, wie ich das balanciert bekomme. Und die eine Möglichkeit wäre, ich stelle den Dienst ein. 01:09:19.418 --> 01:09:29.080 Ja, das wäre definitiv die eine Methode und es gibt einiges in meinem Leben, was ich nicht tue oder weil ich das Gefühl habe, dass das für die Gesellschaft in irgendeiner Form, 01:09:29.087 --> 01:09:43.875 schädlich wäre. Deswegen tue ich diese Dinge nicht. Ich weiß, dass andere Leute die Dinge tun, die müssen das irgendwie mit mit ihrem eigenen Herzen und Kopf äh für sich bewerten, aber ich tue sie deshalb halt nicht. Und in dem Fall wäre das natürlich eine Fragestellung, 01:09:43.893 --> 01:09:49.511 ich mir auch stellen muss. Und das gilt sicherlich nicht nur für das Thema, aber es gilt auch für dieses Thema. 01:09:50.004 --> 01:09:58.452 So und das ist glaube ich auch die Fragestellung, die sich Apple stellt an der Stelle. Das nehme ich ihnen einfach an der Stelle aber auch wirklich mal ab, 01:09:58.453 --> 01:10:12.790 Ja, weil ihre Geräte sind halt in der Hand von vielen Kindern. Ihre Geräte sind eben ein Kommunikationsbeschleuniger. Und so viel Gutes das tut und so viel äh Privates das schützt und so weiter, wissen sie auch, 01:10:12.875 --> 01:10:23.637 dass eben Missbrauch auch stattfindet. Und die Frage, die sie sich gestellt haben. Und das ist jetzt quasi die Antwort, die sie darauf gegeben haben, ist, gibt es dort etwas, was wir tun können, 01:10:23.860 --> 01:10:33.167 um unser moralischen Verpflichtung und teilweise eben auch unserer legalen Verpflichtung, damit äh auch äh gerecht zu werden. 01:10:33.570 --> 01:10:35.379 Und jetzt haben sie halt ein. 01:10:35.943 --> 01:10:45.600 Einen technischen Weg gesucht und meinen, den jetzt gefunden zu haben, der in dieses moralische Handeln ermöglicht, 01:10:45.822 --> 01:10:55.449 Mit der Behauptung, dabei eben die anderen Sachen, die ihnen genauso zu wichtig sein scheinen, wie Privatsphäre, nicht zu verletzen. 01:10:55.816 --> 01:10:57.461 Wenn du. 01:10:57.877 --> 01:11:09.738 Diesen Cloud-Service anbietest, Tim, ne? Den, den du ja jetzt äh für dich annimmst, dann wirst du dann tatsächlich machst, ist, du vermietest Festplattenplatz, 01:11:09.883 --> 01:11:15.189 ja? Du hast ähm Server mit Festplatten drin, 01:11:15.321 --> 01:11:29.123 vielleicht sogar mit einer kleinen SSD oder so. Und ähm du hast ein Geschäftsmodell daraus entwickelt, eine gewisse Menge Speicherplatz auf diesen Servern, deinen Kundinnen und Kunden für einen bestimmten monatlichen Beitrag, 01:11:29.364 --> 01:11:35.204 zur Verfügung zu stellen. Das ist das, was Cloud bedeutet. Ja? Und. 01:11:35.794 --> 01:11:50.443 Wenn du argumentierst, dass du dass dass dann für dich ein Problem ist, welche Bits die Menschen auf diesen ähm Festplatten speichern, dann kann ich das äh kann ich durchaus verstehen, ja, dass man solche, dass man. 01:11:50.792 --> 01:11:53.292 Einen solchen Service vielleicht ungerne. 01:11:53.575 --> 01:12:03.002 Anbietet, ja? Aber du gehst jetzt auch davon aus, als wäre das hier die hauptsächliche Nutzung. Und das ist ja äh mit mit Sicherheit nicht der Fall. 01:12:02.895 --> 01:12:06.091 Nein, das habe ich damit nicht gesagt. Das ist die hauptsächlich ist. 01:12:05.911 --> 01:12:19.840 Ganz kurz, bei den Festplattenthemen zu bleiben. Ähm ich muss weil hier wieder so ein scheiß Festplatte kaputt ist. Ich muss jetzt mir wieder neue holen oder wenn ich Glück habe, kriege ich die noch äh kriege ich die noch ersetzt von äh Western Digital, weil die, 01:12:19.859 --> 01:12:21.372 in der Regel ja nach einem Jahr 01:12:21.270 --> 01:12:32.363 gehen, aber zwei Jahre Garantie haben. Äh das heißt, einmal kann man die kostenlos austauschen. Muss jetzt wahrscheinlich bald wieder Festplatten kaufen. Und da sagt Western Digital auch nicht, das darfst du darauf speichern und das nicht. 01:12:32.520 --> 01:12:42.350 Ja äh mir sagt auch Heckler und kocht nicht, dass ich mit ihrem Maschinengewehr äh äh nur Bösewichte erschießen äh darf. Verstehst du? Das ist genau dasselbe. 01:12:42.086 --> 01:12:49.038 Doch und da ist jetzt genau, da ist aber der entscheidende Unterschied. Wenn du, wenn du äh Festplatten herstellst, dann kannst du. 01:12:49.813 --> 01:12:57.751 Sehr gut in dem Wissen schlafen, dass deine Festplatten größtenteils relativ harmlose Bits und Beids speichern. 01:12:58.106 --> 01:13:04.385 Und zwar in sehr überwiegendem Ausmaß. Wenn du Heckler und Koch bist. 01:13:04.734 --> 01:13:09.878 Dann kannst du dich eventuell noch damit trösten, dass deine Waffen. 01:13:10.461 --> 01:13:20.460 In in einem gewissen Prozentsatz äh der Fälle ähm ihr Ziel verfehlen und deshalb nicht ganz so viele Leute töten. Die sind aber fürs Töten gemacht worden. 01:13:21.055 --> 01:13:23.692 Und ähm dann. 01:13:24.131 --> 01:13:37.928 Kannst du vielleicht auch sagen, okay, wir haben eine moralische äh Verpflichtung, der wir nicht gerecht werden, weil wir nun mal äh tödliche Waffen in die Welt setzen. Das ist, ne? Und das kann auch dich zum Beispiel dazu führen, bestimmte Services, 01:13:38.187 --> 01:13:43.607 zu unterstützen oder nicht, ja? Zum Beispiel, was weiß ich, das Tornetzwerk. 01:13:44.190 --> 01:13:58.948 Kann sein, dass du das Tor finde ich irgendwie total geil, ich möchte ich ich investiere in Server um Exit-Notes oder Middle-Notes oder sonst was zu betreiben oder du kannst irgendwann zu dem Eindruck gelangen, dass dass das ein System ist, 01:13:59.008 --> 01:14:03.610 zu dem du nicht mehr beitragen möchtest. So, das äh sind jetzt so, 01:14:03.689 --> 01:14:18.561 da würde ich deine Argumentation so werten. Aber wenn du ein Fotocloud hast, wo wo der größte, der größte Teil der Inhalte wahrscheinlich Selfies, Mittagessen und irgendwelche Fotos von von niedlichen Tieren sind. 01:14:19.264 --> 01:14:29.005 Und sagst, okay, es gibt einen winzigen Prozentsatz der Menschheit, die potenziell darin Inhalte haben, die mir nicht gefallen, ja. 01:14:29.732 --> 01:14:41.378 Dann aber auch nur spezifische Inhalte, die mir nicht gefallen, weil es ja relativ viele Inhalte gibt, die mir vielleicht persönlich nicht gefallen. Wahrscheinlich gefallen mir die meisten Foto Librarys nicht die Leute haben. Ähm, 01:14:41.492 --> 01:14:50.691 dann zu sagen, ja okay, die äh darfst du aber nicht haben. Das finde ich übrigens nicht klar genug gemacht bei diesen Cloud-Anbietern genauso ähm, 01:14:50.824 --> 01:15:00.823 inakzeptabel. Die sagen dir aber nicht, äh oder die täuschen dir nicht vor, sie wären an deiner Privatsphäre interessiert. Und ich sehe das wirklich ähm. 01:15:01.599 --> 01:15:03.497 Nicht so. 01:15:04.309 --> 01:15:11.868 Nicht so gut, was die da machen, weil ich auch wirklich da dahin gehe und das wird, wird vielleicht vielen Leuten nicht gefallen. Das, 01:15:11.952 --> 01:15:23.711 ich davon ausgehe, dass das wirklich halt im Promillebereich äh oder oder weit weiter runter noch befindet, die Nutzerinnen, die die vielleicht derartige Materialien auf ihr iPhone laden. 01:15:24.626 --> 01:15:32.719 Und ähm dass das eben die die die ähm in einem Bereich ist, dass der nicht. 01:15:33.026 --> 01:15:46.780 Diesen schwerwiegenden Eingriff. Wir bauen jetzt einen Scanner in deine Hardware ein und du kannst den da nicht rauskriegen und wir prüfen deine Bilder und du kannst deinem dein dein Gerät arbeitet potenziell gegen dich im Fehlerfall. 01:15:46.480 --> 01:15:56.515 Wann, ab wie viel Prozent ändert sich dein moralischer Kompass an der Stelle, also fünf Prozent, zehn Prozent, zwanzig Prozent. 01:15:56.876 --> 01:15:59.376 Ja ich würde wahrscheinlich irgendwo in diesem Bereich gehen, ja. 01:15:59.628 --> 01:16:01.833 Okay, also ein Prozent ist okay. 01:16:02.861 --> 01:16:04.615 Mir fünf, also. 01:16:04.315 --> 01:16:06.971 Von Milliarden, an. 01:16:06.671 --> 01:16:17.529 Unter fünf Prozent als das äh ähm als das äh ähm seltene Ereignis definiert. Und wir reden hier von Bruchteilen davon, 01:16:17.710 --> 01:16:22.937 Aber wir reden davon, dass diese diese Scanner auf äh ja Milliardentelefone kommen. 01:16:22.998 --> 01:16:31.470 Und eben das äh Missbrauchspotential durch andere juristische Anforderungen haben. Du hast da, weißt du, du sagst jetzt hier, okay, das gilt nur in den USA 01:16:31.458 --> 01:16:41.060 der wird ja jetzt sicherlich nicht China sagen übrigens Apple. Wir haben gesehen, ihr habt da was Schönes. Äh wir haben uns überlegt, folgende Inhalte könnt ihr mal für uns löschen. 01:16:41.409 --> 01:16:54.755 So, das wird ja bestimmt nicht passieren, dass ja sonst auch nie passiert. Also solche Technologien baut man halt nicht, ja? Das ist der der gleiche Grund, warum du bestimmte Technologien nicht baust, die eben vielleicht sehr gut dafür geeignet sind, 01:16:54.881 --> 01:17:04.250 hier zu verteilen, ne? Dann entscheidet man sich, okay, so etwas baue ich nicht, weil ich eine Technologie baue, die massiver ähm. 01:17:05.103 --> 01:17:06.677 Massiven Missbrauch. 01:17:07.056 --> 01:17:17.536 Vorschub leistet und fast dafür gebaut wurde, nur missbräuchige Nutzung anzuziehen. Und das ist ja jetzt eine iCloud-Foto Library eben nicht. 01:17:18.347 --> 01:17:23.454 Naja, es du sagst jetzt im Prinzip so eine Millionen Leute, die das machen, ist okay. 01:17:23.167 --> 01:17:29.536 Nein, das sage ich nicht, Tim, so soll das auch jetzt einfach unlautern, das sieht man auch sehr genau nachfühlen. Ich habe gesagt, ist ein 01:17:29.476 --> 01:17:41.890 ähm im Promillebereich befindet sich das und das ist äh es äh sind also sehr, sehr wenige Menschen, die das tun. Und ähm wenn das äh ähm. 01:17:42.510 --> 01:17:44.048 Die, 01:17:44.120 --> 01:17:58.535 Die Maßnahme betrifft immer die Grundgesamtheit, ja? Und du kannst natürlich sagen, äh der Linus toleriert eine Million Menschen, die so etwas tun. Nein, der Linus will eine Milliarde Menschen, die das nicht tun, davor bewahren, dass ihre Hintertür bekommen. 01:17:59.202 --> 01:18:08.901 Na ja, jetzt ist halt die Frage, was ist eine äh Hintertür, eine Hintertür ist etwas, wo jeder äh unkontrolliert reingehen kann? Und das ist es ja an dieser Stelle nicht. 01:18:09.484 --> 01:18:17.260 Na ja, ich habe ja schon jetzt mehrmals versucht zu erklären, dass es eben eine ein sich beugen nach juristischen Anforderungen ist 01:18:17.110 --> 01:18:28.136 äh ein ähm letztendlich äh Schwächen ähm von Verschlüsselungsmethoden, eine Verletzung der des Privatsphäreversprechens 01:18:27.992 --> 01:18:31.381 und es ist, denke ich, unstrittig, dass, 01:18:31.633 --> 01:18:42.053 andere Kulturbereiche mit anderen mit anderen Vorstellungen davon, was du auf deinem Gerät haben sollst oder nicht. Äh diese Technologie ebenfalls für sich beanspruchen. 01:18:42.468 --> 01:18:43.309 Werden. 01:18:43.015 --> 01:18:49.787 Ja, also Verschlüsselungsmethoden werden ja hier nicht geschwächt. Das ist ja schon mal ein interessanter Eigenschaft davon, muss man jetzt 01:18:49.685 --> 01:19:02.688 äh auch mal so sehen. Und tatsächlich könnte das sogar auch eine Methode sein, die es Apple wiederum ermöglicht, diese ganze ICloud-Speicherei eben sogar noch sehr viel besser zu verschlüsseln, weil sie dann trotzdem ihren Anforderungen noch gerecht werden können. 01:19:02.682 --> 01:19:08.469 Dadurch, dass sie quasi diesen Scheck kryptografisch auf den Zeitpunkt des Uploads, ja 01:19:08.397 --> 01:19:16.786 verlagern, können sie alles andere verschlüsseln, ohne sich dort ähm zwingen zu lassen, dafür eine Vektor anzubieten 01:19:16.641 --> 01:19:25.036 Man kann es also auch genauso gut so sehen, dass es unter Umständen ein Pfad ist, der explizit das Einrichten von Pektors auch verhindern kann. 01:19:25.565 --> 01:19:34.590 Weil er eine Vektor ist, dass er mit der gleichen Argumentation äh also wir diskutieren in in zwei Folgen vorher darüber, dass die EU ähm äh EU 01:19:34.512 --> 01:19:44.848 EU mit dieser Chatkontroll Initiative in die deine Chat scannen möchte in in verschlüsselten Messengern und das nicht darf, ja? Also solche Technologien, 01:19:45.035 --> 01:19:49.938 bieten wir aus gutem Grund. Ja, das ist verboten. Deswegen, 01:19:50.016 --> 01:20:03.740 weichen sie ja die E-Privacy-Detektive auf, um das zu tun. Also sie verletzen äh und es ist exakt das Gleiche, ja. Sie verletzten ähm es trifft ja hier auch auf Messages zu. Sie verletzen äh dann äh, 01:20:03.819 --> 01:20:12.531 damit quasi Gesetze, von denen sie vorher eigentlich relativ sicher waren, dass die gut sind. Und neben der, nehmen uns damit Rechte und Schutzrechte weg, 01:20:12.767 --> 01:20:19.970 Ja, das ist und es ist die gleiche Technologie, also das, was unter Chatkontrolle äh diskutiert wird, ist ähm, 01:20:20.086 --> 01:20:24.093 vielleicht in in technischen Details ähm, 01:20:24.256 --> 01:20:38.550 noch unterscheidbar von dem was Apple jetzt hier sehr genau schon mal formuliert hat, aber es ist von der von der gesellschaftlichen Wirkung, von der Initiative her genau das Gleiche. Und auch da werden. 01:20:38.954 --> 01:20:47.180 Weiß ich nicht, wie viele Milliarden blöde Nachrichten versendet jeden Tag, ja? Und die werden alle von diesem Scanner untersucht werden. 01:20:47.565 --> 01:20:49.896 Und da findest du das, glaube ich, auch nicht in Ordnung. 01:20:51.687 --> 01:21:05.784 Das ist ja auch noch eine andere Sache. Die Frage ist ja immer, wem gibst du Zugang? Also wer hat sozusagen Zugang zu diesem System? Ja, also wer hat überhaupt Zugang zum Handling dieser Nachrichten? Und gibt es eine Möglichkeit 01:21:05.742 --> 01:21:14.353 Das ist ja die die Frage. Gibt es eine Möglichkeit, ein eine moralische Verantwortung, die man gegenüber der Gesellschaft auch hat 01:21:14.317 --> 01:21:18.343 in irgendeiner Form so zu implementieren, um das andere nicht in Gefahr zu bringen, 01:21:18.511 --> 01:21:30.830 Das ist ja die Frage, die jetzt an dieser Stelle im Raum steht. Du bist jetzt auf der stringenten Grundmeinung mit nichts darf da jemals getan werden. Du sollst das alles in Gefahr, 01:21:31.040 --> 01:21:38.167 Kann ich auch verstehen, weil so wie es halt meistens auch gehandhabt wird, bringt es eben die Sachen auch in Gefahr. Ich sage nur. 01:21:39.507 --> 01:21:43.479 Ich denke, es ist wertvoll, die die angezeigt, 01:21:43.653 --> 01:21:55.028 Lösungen auch separat zu analysieren, weil sie halt unter Umständen gerade auch einen Weg aus dieser Falle heraus zeigen können. Dass man sagen kann. 01:21:55.353 --> 01:22:04.222 Hör mal, ich weiß, ihr habt da irgendwie jetzt den Druck hier alles aufzumachen und ihr wollt die die dicken Backdoors einbauen, ja? Aber, 01:22:04.487 --> 01:22:17.610 Wir können euch auch unter Verwendung von kryptographischen Systemen einen Weg zeigen, wie äh das alles nicht erforderlich ist und trotzdem wird das, von dem ihr immer behauptet, was ihr tun wollt. 01:22:17.971 --> 01:22:22.880 Und nur das wird realisiert und damit nimmt man ihnen natürlich auch das Argument, 01:22:23.025 --> 01:22:28.517 Raus, weil gerade dieses Problem, das halt über 01:22:28.415 --> 01:22:38.251 Material, Zugriff erlangt werden soll auf alles andere, ja? Da ist es ja eigentlich ein ganz eleganter Gedanke zu sagen, 01:22:38.456 --> 01:22:47.470 Ist alles überhaupt gar kein Problem. Gucke mal, wir haben hier eine Privatsphäre schon äh Methode herausgefunden, wie man das ganz gezielt rauslösen kann und nur genau das, 01:22:47.674 --> 01:22:54.001 ja? Und deswegen braucht ihr alles andere nicht zu machen. Das mal. 01:22:54.326 --> 01:23:07.967 In den Raum gestellt. Wir müssen diese Debatte jetzt nicht abschließen und, und, und, und äh auf einen Punkt bringen, sondern ich würde gerne diesen Gedankenraum an der Stelle auch äh offen lassen können. 01:23:08.543 --> 01:23:15.351 Okay, ähm Apple-Mitarbeiter äh wenden sich auch dagegen. Wer möchte, kann sich noch ein paar Sachen. 01:23:15.659 --> 01:23:29.629 Angucken, aber es gibt einfach manchmal Dinge, die sollte man lieber nicht bauen, egal wie schön und elegant man sie baut, ja? Das äh, denke ich, sollte man, 01:23:29.780 --> 01:23:39.820 so erkennen und das haben wir zum Beispiel auch gesagt bei der Luca App, ja, wo klar war, dass es ein zentrales System und das ist keine gute Idee 01:23:39.742 --> 01:23:48.623 äh und die kann man auch nicht gut machen, dadurch, dass man halbherzig noch irgendeine Verschlüsselung dran kloppt, kloppelt. 01:23:48.907 --> 01:23:56.177 Und jetzt langsam so, langsam, langsam, langsam häufen sich dann jetzt auch die Berichte. 01:23:56.670 --> 01:24:06.158 Und darüber, dass die tolle Luca-App, von der immer gesagt wird, die funktioniert, äh, nicht funktioniert, ja, in Bad Doberan gab es eine, 01:24:06.242 --> 01:24:19.060 Party mit ursprünglich zwei Corona Infizierten. Inzwischen sind dort äh elf positive Fälle und die kommen nicht an die Luca-Daten. Ist nicht der erste Fall. Ich hatte das auch hier in der Sendung sofort gesagt 01:24:18.964 --> 01:24:28.500 dass eben sagt, okay, wir verschlüsseln, die Leute müssen dann auf diesen Schlüssel aufpassen und dass die ähm. 01:24:28.873 --> 01:24:37.916 Anbieter quasi, also die die Locations. Die sind Schlüssel eben sicher verwahren müssen. Und ein Schlüssel sicher zu verwahren ist ein, 01:24:38.175 --> 01:24:45.613 Ist ein Problem, das wir alle kennen, ja? Es gibt kaum eine Person, die nur einen PGP hat, 01:24:45.872 --> 01:24:56.400 weil alle beim ersten Mal einen generieren und den verlieren, ja? Also jede PGP-Nutzerin oder eine größere Teil der PGP-Nutzerin hat zwei Schlüssel, weil sie den ersten irgendwann mal verloren hat 01:24:56.340 --> 01:25:05.341 und dann gelernt hat, ach so, Scheiße, wenn man den wenn man den verloren hat, äh kann man gar nicht äh mehr entschlüsseln. Da hätte ich ja vorher wissen müssen, steht da auch Groß und Rot? 01:25:05.835 --> 01:25:14.992 Ja, insofern ist das ein ein klares Problem, dass wenn man heutzutage mit Leuten eine Verschlüsselungstechnologie anbietet, dass man sich sehr viel Mühe geben muss, 01:25:14.992 --> 01:25:23.597 sie dahin zu natschen auch wirklich die Schlüssel sicher zu verwahren. Machen zum Beispiel auch so einen Messenger wie Signal, äh dass sie äh versuchen 01:25:23.393 --> 01:25:37.076 dich zu einem Schlüssel-Backup zu äh zu bringen oder dass sie dir halt irgendwie eine PIN aufschwatzen und dich äh dich dann regelmäßig an die PIN erinnern, damit du die nicht verlierst oder sonstiges. All diese äh dieses Wissen hat 01:25:36.931 --> 01:25:42.075 äh darauf verzichtet, Luca und äh Daniel ist noch viel besser. 01:25:42.358 --> 01:25:48.012 Jetzt ist es also so, dass diese Betreiberin von dieser Diskothek da nicht an den Schlüssel kommt, ist auch nicht der einzige Fall. 01:25:49.310 --> 01:25:57.819 Dann geb die sogar noch den Location-Betreibern daran die Schuld. Ja, also die sind sich noch nicht mal zu fein, die dann eben auch äh, 01:25:58.023 --> 01:26:07.721 ähm denen den Fehler zu unterstellen. Jetzt ist es in diesem Fall sogar so, dass der Anbieter hier dementiert den äh Schlüssel verloren zu haben. In ähm. 01:26:08.227 --> 01:26:15.293 Im bayrischen Rundfunk äh wird viel darüber berichtet, dass es hier keine äh keine vernünftige, 01:26:15.504 --> 01:26:25.629 Sommers Anbindung gibt, dass zu viele Daten gesammelt werden, also zu viele Daten da rausfallen, also diese Datensammlung als solche keinen Sinn macht, alles Dinge. 01:26:25.918 --> 01:26:34.006 Die wir schon besprochen haben und es gibt eine sogar vom Spiegel jetzt im im Printspiegel eine, 01:26:34.168 --> 01:26:38.218 Story, wo viele Gesundheitsämter gefragt werden und, 01:26:38.242 --> 01:26:51.017 die Mehrheit der Gesundheitsämter, für die das ja sein soll, ja, die Gesundheitsämter, für die das sein soll, halten die für wertlos und nutzen sie nicht, ja? Es ist nicht ersichtlich, was der Einsatz der Luca-App, 01:26:51.251 --> 01:27:00.120 bringen würde oder hier äh ein Arzt im Gesundheitsamt Nordrhein-Westfalen äh in der in in Remscheid, in Nordrhein-Westfalen sagt, bisher, 01:27:00.181 --> 01:27:09.693 kein einziger infizierter gegenüber dem Amt angegeben, die Luca-App benutzt zu haben. Wir fragen alle Personen, die normale Corona-Warn-App ist, immer mal wieder dabei, 01:27:09.778 --> 01:27:14.897 andere Apps so gut wie nie. Aber sagt er, ist nicht schlimm 01:27:14.838 --> 01:27:29.000 Denn das würde die Arbeit ohnehin nicht erleichtern, im Gegenteil. Nimmt man einfach mal an, dass wir nach einem Festival mit zwanzigtausend Besuchern alle eingebuchten Besucher abarbeiten müssten, wäre das ohnehin ein Ding der Ohnmachtbarkeit. Festivals mit zwanzigtausend Personen, 01:27:29.253 --> 01:27:41.307 Nordrhein-Westfalen da veranstaltet. Große Dimensionen, aber ne, das ist halt äh bei einem Festival ist es so, aber das ist auch schon bei einem einfachen Restaurant so, weil du eben nicht alle. 01:27:41.620 --> 01:27:51.228 Ansteckst. Also hier von Patrick Beuth, Max Hoppenstedt und mehreren anderen Autoren auch nochmal ein Spiegelartikel, online ist er nur, 01:27:51.360 --> 01:27:59.977 mit Spiegel plus lesbar. Das heißt so langsam, langsam, langsam, merken jetzt alle, äh welchen. 01:28:01.059 --> 01:28:03.396 Welchem Geschäftsmodell sie hier. 01:28:03.715 --> 01:28:18.599 Aufgesessen sind. Gleichzeitig ähm lesen sich dann so die die Antworten von den Gesundheitsämtern, die irgendwie pro Luca sind. Die lesen sich echt immer so wie eine Werbebroschüre von Nexenio. Und äh ich glaube, als einziges Land ist da so, 01:28:18.828 --> 01:28:33.508 Baden-Württemberg noch immer begeistert. Die werden ja nicht müde. Äh auch eigene Promotion. Promotion-Materialien für Nexinio, Luca zu formulieren und äh aber so wirklich die Erfolgsgeschichten bleiben aus und das haben wir ja auch, 01:28:33.659 --> 01:28:34.271 so 01:28:34.410 --> 01:28:36.476 Vorhergesagt. 01:28:35.491 --> 01:28:44.480 Ähm vorhergesagt. Habe ich heute auch einen äh Journalisten gesagt, der mich danach nochmal gefragt hat. 01:28:44.589 --> 01:28:51.139 Und dann gab es jetzt die erste äh DSGVO Strafe für 01:28:51.127 --> 01:29:05.536 Ich vermute, dass es die erste ist ähm für veraltete Software. Da hat ein Unternehmen, das ist auch wirklich ähm bärenstark. Ähm ein ein äh Unternehmen ähm. 01:29:05.969 --> 01:29:11.816 Webshop betrieben und zwar ähm, 01:29:11.912 --> 01:29:26.598 XT-Commerce drei Punkt null vier SP zwei Punkt eins und diese Version ist seit zwanzig vierzehn veraltet und wird nicht mehr mit Sicherheits-Update mit Sicherheits-Updates versorgt. Also zweitausendvierzehn, ja, veraltet. 01:29:27.722 --> 01:29:39.740 Sie und der äh Hersteller warnt ausdrücklich davor, die noch weiter einzusetzen, weil sie erhebliche Sicherheitslücken hat, darunter unter anderem eine SQL Injection, also ein. 01:29:40.119 --> 01:29:46.572 Angriff, wo man die Datenbanken direkt auslesen kann. Und die niedersächsische, 01:29:46.764 --> 01:29:55.591 Datenschutzbehörde hat äh ähm recherchiert und ergeben äh herausgefunden, dass die Passwörter dort nur MD fünf, 01:29:55.706 --> 01:30:04.720 waren, also ein ähm Verfahren, das äh glaube ich als Funktion ohnehin jetzt langsam mal ausgedient hat und ähm. 01:30:05.567 --> 01:30:10.897 Eben offenbar auch nicht waren. Also für. 01:30:11.258 --> 01:30:16.179 Einfache Angriff von MD fünf, 01:30:16.287 --> 01:30:29.843 einfach so im Internet gibt, sehr anfällig, ja? Und äh genau ohne Salt, das ist also wirklich hier ein Verstoß gegen äh etablierte Richtlinien und äh Herstellerempfehlungen und 01:30:29.778 --> 01:30:32.193 dann haben sie äh, 01:30:32.403 --> 01:30:44.169 dafür eine hat das Unternehmen dafür eine Strafe bekommen und zwar fünfundsechzigtausendfünfhundert Euro und das Unternehmen hat äh Klug beraten, diese Strafe auch, 01:30:44.433 --> 01:30:45.575 akzeptiert. 01:30:46.790 --> 01:30:52.762 Das will man ja wohl mal meinen, dass sie das akzeptiert, weil sie sich dagegen zu wehren, dürfte etwas schwierig sein. 01:30:52.510 --> 01:31:01.931 Zugunsten der Firma wurde dabei berücksichtigt, dass diese schon vor dem Bußgeldverfahren den betroffenen Personen äh einen Passwortwechsel nahegelegt. 01:31:01.782 --> 01:31:05.970 Wie nett. 01:31:06.325 --> 01:31:09.497 Schadensmildernde Umstände. Ja. 01:31:07.695 --> 01:31:14.292 Ja, natürlich hat er ihn ins Bein geschossen, aber er hat auch Entschuldigung gesagt. 01:31:14.606 --> 01:31:18.601 Ich habe ich habe vor Jahren auch mal so einen XT-Commerce äh. 01:31:18.883 --> 01:31:27.489 Und das waren, also seitdem ich das Ding nicht mehr an der Backe habe, schlafe ich auf jeden Fall um einiges ruhiger. Das kann ich dir sagen. Das willst du nicht. 01:31:27.525 --> 01:31:41.693 Bin jetzt mal, ich frage mich ernsthaft wie also wie der Server überhaupt so lange angeblieben ist, ja, dass denn dass der nicht schon längst irgendwie in in äh strenger äh in strenger anderer Hand war, also das war sicherlich irgendwie. 01:31:42.037 --> 01:31:51.855 Also ich kann mir nicht vorstellen, dass da nur ein Angreifer auf so einem Server hängt, vor allem weil diese ähm diese Art Angriffe natürlich, also wenn die so alt sind, 01:31:52.054 --> 01:32:05.802 ähm in jedem automatisierten Scanner sind und einfach von Internet Grundrauschen äh dein dein Hacker äh dein dein Server dann halt gehackt wird. Kann ich gar nicht verstehen, wie der so lange noch an war, ja, dass denn nicht längst irgendjemand 01:32:05.767 --> 01:32:11.595 ja, keine Ahnung. Wobei, na ja, anlassen, den die Angreifer ja auch. 01:32:11.319 --> 01:32:14.876 Ist die Frage, was äh was was da so verkauft wurde, also. 01:32:15.129 --> 01:32:16.552 Also ich kann mir. 01:32:17.123 --> 01:32:30.686 Ehrlich gesagt, kann mir nicht vorstellen, dass du, dass dieser Shop noch im Betrieb war. Ich gehe davon aus, dass dir den einfach dass das eine eine Karteileiche war. Kannst mir nicht anders erklären. 01:32:31.287 --> 01:32:38.365 Aber da hätten sie ja die User äh nicht benachrichtigen müssen, um ihre Passwörter zu ändern, wenn wenn sie gleich abschalten. 01:32:38.744 --> 01:32:43.635 Nur weil das sieben Jahre alte User sind, heißt ja nicht, dass du nicht trotzdem deren Daten nicht gesichert hast. 01:32:43.558 --> 01:32:51.910 Also nee, also wirklich, die die Leute, die die lassen so was einfach ewig, so lange es nicht komplett äh, wenn es nicht von alleine auseinanderfällt. 01:32:52.337 --> 01:33:00.178 Ja, dann, dann, dann lasst es, ja, das läuft doch noch. Gucke mal hier, die Farben sind auch immer noch immer noch die gleichen. Ist nicht schlecht geworden. 01:33:00.738 --> 01:33:07.491 Kein Schimmel, ja. Das Rot ist noch knallig, wird nicht blass. 01:33:08.170 --> 01:33:10.109 Okay. 01:33:11.772 --> 01:33:17.070 Jo, so sieht's aus in der Welt des Internets. 01:33:17.689 --> 01:33:30.915 Ja und das heißt, das war's äh dann von uns diese Woche. Nächste Woche vielleicht gibt's dann schon den nächsten Statuscode. Mhm. 01:33:30.710 --> 01:33:35.740 Der, weiß ich gar nicht genau, wer hier das ist, hier sitze ich gerade nicht auf Anhieb gefunden. 01:33:35.777 --> 01:33:39.964 Kann ich dir sagen. Hast nicht gefunden. 01:33:39.676 --> 01:33:42.301 Habe ich nicht auf das jetzt nicht gefunden. 01:33:42.001 --> 01:33:44.489 Ah, ich schaue nachher nochmal, ob ich den finde. 01:33:44.189 --> 01:33:49.540 Können wir noch mal gucken. Ne, ist ja ein Vierer. Könnte ja sein, dass der sich nach einer Zeit wieder äh. 01:33:49.290 --> 01:33:50.462 Von alleine. 01:33:50.212 --> 01:33:53.016 In Wohlgefallen auflöst. 01:33:52.716 --> 01:33:58.334 Wie alle anderen Probleme, die wir besprochen haben auch. Kann sein, dass sie sich alle einen Wohlgefallen auflösen. 01:33:58.575 --> 01:33:59.668 Unwahrscheinlich. 01:33:59.368 --> 01:34:08.110 Unwahrscheinlich. Aber nur weil Sachen unwahrscheinlich sind, soll man doch seinen Glauben daran nicht verlieren, oder? Sonst kann man's auch gleich sein lassen. 01:34:08.111 --> 01:34:15.556 So denn wir wünschen euch einen einen schönen äh Abend. 01:34:15.652 --> 01:34:17.425 Oder Tag oder morgen. 01:34:19.060 --> 01:34:22.052 Bis dahin, ciao, ciao. 01:34:20.628 --> 01:34:22.052 Tschüss.