Logbuch:Netzpolitik
Einblicke und Ausblicke in das netzpolitische Geschehen
https://logbuch-netzpolitik.de


LNP450 Kompanieintelligenz

Biometrie — Content Moderation — Bundeswehr überwacht ZPS — UN Cybercrime Treaty — Age Verification — ChatGPT — Meta muss zahlen — Jobs — Termine

Herzlich willkommen im neuen Jahr, die goldenen Zwanziger rücken immer näher. Zum Jahresbeginn dieses Mal aber ohne Linus, dafür springt khaleesi heute mit ein und wir rattern durch die Nachrichtenlage. Viel Raum nehmen dabei die Begleiterscheinungen der breiten Einführung, Nutzung und Verbilligung von Biometrie, die Probleme der Content Moderation in sozialen Netzwerken, die Auswirkungen von AI-Technologie und die Umtriebe der Bundeswehr im Netz ein. Dazu noch ein paar Kurzmeldungen, ein Jobangebot und Termine.

https://logbuch-netzpolitik.de/lnp450-kompanieintelligenz
Veröffentlicht am: 14. Januar 2023
Dauer: 1:47:28


Kapitel

  1. Prolog 00:00:28.985
  2. Biometrie: CCC kauft IRIS-Scanner aus Afghanistan 00:06:54.215
  3. Biometrie: Studie zu Transpersonen 00:15:08.524
  4. Biometrie: Regulierung 00:22:26.791
  5. Content Moderation 00:30:55.511
  6. Bundeswehr überwacht ZPS 00:50:04.260
  7. UN Cybercrime Treaty Verhandlung 01:00:23.828
  8. Age Verification 01:10:09.514
  9. ChatGPT macht Google Angst 01:13:02.182
  10. Luca App 1x erfolgreich in Brandenburg angewendet 01:34:04.995
  11. TrustPid ist zurück 01:36:07.682
  12. Chatkontrolle 01:39:12.173
  13. Meta Targeted Advertising Urteil + Bußgeld 01:40:43.713
  14. epicenter.works sucht Frontend Entwickler:innen 01:43:30.408
  15. Termine 01:44:31.529
  16. Epilog 01:46:58.488

Transkript

Khaleesi
0:00:00
Tim Pritlove
0:00:00
Khaleesi
0:00:34
Tim Pritlove
0:00:39
Khaleesi
0:00:49
Tim Pritlove
0:00:57
Khaleesi
0:01:03
Tim Pritlove
0:01:09
Khaleesi
0:01:22
Tim Pritlove
0:01:26
Khaleesi
0:01:48
Tim Pritlove
0:01:49
Khaleesi
0:01:55
Tim Pritlove
0:02:02
Khaleesi
0:02:27
Tim Pritlove
0:02:30
Khaleesi
0:02:47
Tim Pritlove
0:03:02
Khaleesi
0:04:00
Tim Pritlove
0:04:05
Khaleesi
0:04:45
Tim Pritlove
0:04:53
Khaleesi
0:05:25
Tim Pritlove
0:05:29
Khaleesi
0:05:39
Tim Pritlove
0:05:48
Khaleesi
0:06:10
Tim Pritlove
0:06:29
Khaleesi
0:06:29
Tim Pritlove
0:06:42
Khaleesi
0:07:00
Tim Pritlove
0:07:02
Khaleesi
0:07:06
Tim Pritlove
0:08:22
Khaleesi
0:08:36
Tim Pritlove
0:09:02
Khaleesi
0:09:22
Tim Pritlove
0:09:27
Khaleesi
0:09:33

Genau. Und die wurden halt zurückgelassen und das war ein Riesenproblem, weil die Taliban natürlich das genutzt haben, um dann halt Ortskräfte zu identifizieren, was ja auch irgendwie logisch ist als Konsequenz der ganzen Geschichte. Aber es geht noch weiter. Sie haben nicht nur diese Geräte dort zurückgelassen, sondern die sind dann auch auf den gängigen, Onlinehandelsplattformen auf einmal aufgetaucht. Und ein kleines Team aus CCC-Kreisen unter der Leitung von Kantorkl. Zusammen mit Snoopy und Starbuck, hat sich dann mal so ein paar Gräte besorgt. Und das war ziemlich schockierend, was die da vorgefunden haben. Wer das im Detail sich anhören will, es gibt einen Vortrag dazu, den verlinken wir euch auch in den Show Notes. Aber um es ganz kurz zu machen, man konnte mit einem Standardpasswort, was in der Dokumentation zu den Geräten zu finden ist, auf die gesamten Daten des Gerätes zugreifen. Das, was diese Gruppe dort gefunden hat, waren 2632 Personen, und deren hochsensible biometrische Daten. Und das zeigt ganz offensichtlich, dass das US-Militär, aber auch die Bundeswehr, die übrigens in Unterstützungseinsätzen auch diese Geräte benutzt hat, ein sehr lückenhaftes, Risikobewusstsein für die Problematik und die Sensibilität von biometrischen Daten. Hat. Und man muss auch hier nochmal sagen, es ist immer eine Frage der Zeit bei solchen Biometriedatenbanken, bis die für irgendwelche illegitimen Interessen eingesetzt werden. Und das wird wahrscheinlich auch in Zukunft öfter mal passieren, dass wenn irgendwelche Firmen Biometriedaten sammeln für irgendwelche Trainingszwecke, dass die dann auch mal verloren gehen. Und das ist echt gefährlich, um es ganz kurz zu machen.

Tim Pritlove
0:12:02

Genau, und das ist das Problem. Man ist natürlich jetzt auch ein technisch schlecht gelöstes Problem, weil klar. Die Geräte sind natürlich alle lokal mit diesen Datenbanken ausgestattet, weil man kann nicht davon ausgehen, dass man irgendwie auf irgendein Internet zugreifen kann, was ja dann sowieso nochmal ein anderes Problem hat. Das heißt, man lädt quasi immer aktualisierte Personenlisten in die Geräte rein, die dann halt ihre Scan machen, keine Ahnung, ob die noch andere Faktoren sich angeschaut haben, aber ich glaube, es ging hier, primär um ihre Scan. So, die ist ja ausreichend eindeutig. Dann matcht man das halt auf diese, Person und diese Zuordnung mit den biometrischen Merkmalen liegt da halt drauf. So, und dann werden diese Geräte halt so zurückgelassen und niemand denkt darüber nach, dass da auch noch Daten drauf Es wäre ja jetzt nicht so schwierig, da so einen Knopf anzubringen. Wenn man den zehn Sekunden lang drückt, dann wird irgendein interner Schlüssel weggeworfen und alle Daten sind sozusagen gelöscht. Also entweder gibt es diesen Knopf nicht oder keiner hat ihn gedrückt. Das ist also entweder eine Frage, ist die Technik für solche kritischen Situationen geeignet, um eben nicht noch Schaden im Nachgang zu erzeugen oder waren die, Möglichkeiten technisch da, aber sind dann organisatorisch nicht genutzt worden, weil es ihnen einfach zu schnell ging mit dem ganzen Kram. Naja, die Geräte sind halt jetzt auf eBay zu kaufen. Da hat der Club die halt auch gefunden und sich angeschaut und 2632 Personen gefunden. Und das sind ja dann alles Personen, die eben mit dem Militär zusammenge- also, nicht alle vielleicht, vielleicht wollten sie auch noch andere Leute erkennen, aber vor allem, was sie ja gesagt haben, durch die Kontrolle, wer darf denn überhaupt Zugang haben zu einem militärischen Bereich, sondern halt dann im Prinzip sind es sozusagen Kollaborationslisten. Das heißt, wenn jetzt die Taliban mit diesen Geräten durch die Gegend laufen, können sie halt die Leute eindeutig identifizieren. Oder zumindest können sie identifizieren, ja nicht welche Metadaten dann auch angezeigt werden, aber wahrscheinlich wenn da eh alle Daten drauf sind, dann wird ja auch grün oder rot auch noch mitzusehen sein.

Khaleesi
0:14:21

Ja, und vor allen Dingen, weil die auch an Checkpoints eingesetzt wurden, kann man wahrscheinlich auch noch relativ gut nachverfolgen, wo die Personen sich bewegt haben. Also anhand der Location der Geräte und ob sie da drin sind oder nicht. Und von daher ist es auch problematisch, auch vor dem Hintergrund, dass diese ganzen, ich sag mal, Rettungsaktionen von Ortskräften auch nicht besonders gut laufen. Und ja, braucht man eigentlich nichts mehr zu sagen, außer biometrische Daten sammeln ist wirklich, wirklich immer eine sehr heikle Geschichte, die in der Regel dafür sorgt. Dass Leute gefährdet werden. Also das Sammeln von biometrischen Daten ist irgendwie immer ein Riesenthema und total problematisch. In dieser Afghanistan-Geschichte hat sich das ganz besonders gezeigt. Aber das ist auch eine Geschichte von 2022 noch gewesen. Also der Dezember hat auch nicht besonders rühmlich geendet. Da ist ein Projekt bekannt geworden der University of North Carolina. Im Rahmen von diesem Projekt haben Forscherinnen ein Datenset von biometrischen Daten zusammengestellt, was sie aus YouTube-Videos gescraped haben, von Transpersonen in ihrer Transition, das heißt während der Hormontherapie, und die Veränderungen in den biometrischen Daten festzuhalten, um Menschen zuverlässig in ihrer Transition anhand ihrer biometrischen Daten erkennen zu können. Und das ist aus ganz, ganz vielen unterschiedlichen Perspektiven so falsch. Also zum einen ist dieses Sammeln von den Daten passiert, ohne die Zustimmung der Menschen, die diese Videos kreiert haben, einzuholen. Zum anderen ist die Motivation dahinter gewesen, was wirklich völlig absurd ist, also das Forschungsprojekt wurde auch vom FBI finanziert, dass potenzielle Terroristinnen Hormonenpräparate einnehmen könnten, um ihre biometrischen Daten zu verändern.

Tim Pritlove
0:16:47
Khaleesi
0:16:52
Tim Pritlove
0:17:12
Khaleesi
0:17:17
Tim Pritlove
0:18:58

Ich meine, wenn man sich anschaut, was so in den letzten Jahren im Bereich Gesichtserkennung, und damit meine ich gar nicht mehr nur so Gesichtswiedererkennung, sondern überhaupt sagen wir mal das wissenschaftliche Verständnis, was man alles aus einem Gesicht heraus lesen kann. Ich habe mich damit nicht zu intensiv beschäftigt, aber man sieht ja immer wieder interessante Paper und so Videos, wo so, man hat dann so zehn Slider, bei dem man sozusagen alle Merkmale eines Gesichts einfach feintunen kann. Du kannst irgendwie ein Gesicht älter machen, du kannst ein Gesicht männlicher, weiblicher, machen, du kannst ein Gesicht kränker oder gesünder aussehen lassen, symmetrischer, asymmetrischer. Also all diese ganzen Faktoren, die dazu führen, dass eben Gesichter quasi komplett gemorft werden von einem Gemützustand auch in den anderen, also optimistischerer Blick, depressiver Blick, also all diese ganzen Faktoren sind mittlerweile bekannt. Das ist sozusagen nichts Besonderes und man sieht das ja auch bei diesen ganzen Fake-Videos, dass man ja mühelos von einem Videobild auf ein erzeugtes Videobild die Optik des Gesichts ändern kann, aber dabei eben sozusagen alle Elemente, auf die es einen in dem Moment ankommt, erhalten bzw. dann eben auch feintunen kann. Und das muss man uns irgendwie auch klarmachen, dass diese ganze biometrische Erfassung mehr oder weniger ein Abfallprodukt jetzt sein wird unserer ubiquitär vorhandenen Bilderflut von Menschen. Es gibt ja kaum noch Leute, die nicht irgendwie massig Bilder von sich erzeugen, einfach weil jeder Smartphone in der Hand tatsächlich, gemacht werden. Vielleicht nicht jeder postet, uns gibt natürlich auch ein paar Leute, die da ein bisschen zurückhaltender sind, aber wir sehen ja auch, wie viele Leute da überhaupt, nicht zurückhaltend sind. Und da das eben alles in der Öffentlichkeit ist, wird es eben auch alles gescannt werden. Und die eigentliche Frage ist halt jetzt, wenn man sozusagen diese Datenflut jetzt, noch hat und die Erfassung sozusagen so einfach ist, was kann man jetzt noch regulieren, was kann kann man jetzt noch überhaupt verbessern.

Khaleesi
0:21:15
Tim Pritlove
0:22:12
Khaleesi
0:22:20

Ja, natürlich, aber ich glaube trotzdem sollte man trotzdem ab und an mal so die Frage stellen, so wollen wir das überhaupt und dann hat natürlich auch unter welchen Bedingungen. Das ist eigentlich eine schöne Überleitung. Es gibt ja auf EU-Eben zum Beispiel die Bestrebung, ein AI-Act zu schaffen, also eine Regulierung, die regeln soll, wie künstliche Intelligenz gebaut wird, verwendet werden darf und so weiter, Einstufung vornimmt, was auch so Hochrisiko AI-Anwendung angeht und welche besonderen Auflagen dann dafür gelten. Wir hatten große Hoffnung, dass dies auch schaffen, dieses ganze Thema, biometrische Massenüberwachung und Gesichtserkennung auch im Rahmen vom AI, Act zu regeln. Im Koalitionsvertrag hat man uns versprochen, dass. Biometrische Erfassung im öffentlichen Raum bei flächendeckender Videoüberwachung, nicht passieren wird und verhindert werden wird und dass weiterhin ein Recht auf Anonymität im öffentlichen Raum gewahrt werden soll und, dementsprechend hatte man natürlich auch gehofft, dass sich die Bundesregierung entsprechend im Rat einsetzt gegen biometrische Massenüberwachung und die, Bundesregierung ist wieder mal die Bundesregierung und wir treffen mal wieder Volker Wissing, der im Ministerrat dieses Gesetz mit beraten hat. Und die, Bundesregierung ist zwar gegen biometrische Massenüberwachung, aber halt nicht so richtig. Und zwar ist rausgekommen, dass das, was jetzt abgestimmt wurde im Rat sozusagen nachträgliche Analysen mit biometrischen Daten erlaubt. Das heißt, wenn ich ein Überwachungsvideo aufgenommen habe, darf, ich zwar nicht live die Gesichter analysieren und mappen und identifizieren, aber wenn ich ein Überwachungsvideo habe, darf ich eine Software im Nachhinein darüber laufen lassen und mithilfe von biometrischen Daten die Personen, die daran beteiligt waren oder in der Situation waren, identifizieren. Was halt nicht so wirklich...

Tim Pritlove
0:24:42
Khaleesi
0:24:43
Tim Pritlove
0:24:44
Khaleesi
0:24:57
Tim Pritlove
0:25:40
Khaleesi
0:25:45
Tim Pritlove
0:25:49
Khaleesi
0:25:52
Tim Pritlove
0:25:54
Khaleesi
0:25:55
Tim Pritlove
0:26:01
Khaleesi
0:26:47
Tim Pritlove
0:26:56

Man das dann darf und das würde ich halt meinen, das sollte dann eben genauso verboten werden, aber natürlich auch gerade was den öffentlichen Raum betrifft. Das heißt ja, dass man Vorratsdaten anlegt im öffentlichen Raum. So, also eigentlich noch krasser als das jetzt im Telekommunikationsbereich, Bereich ist, weil dem kann man sich ja in gewisser Hinsicht noch entziehen. Das ist auch ziemlich schwierig, aber im öffentlichen Raum will man sich ja eigentlich unbeobachtet, bewegen können. Und wenn halt klar ist, dass jede Kamera, die irgendwo was aufzeichnet, das dann lange vorhält und dann wird im Zweifelsfall halt da nachgeschlagen, dann erlaubt das dann eben wieder genau diese Bilder oder Abbilder zu schaffen, dass man halt Bewegungsanalysen nachträglich machen kann. Ich verstehe natürlich, was hier die Argumentation ist. Die Argumentation ist, ja, jetzt haben wir diesen Platz überwacht und dann Terroranschlag und dann wollen wir halt irgendwie den Terroristen fangen. Und das wäre doch mal schön, wenn man da irgendwie Gesichtserkennung drüber laufen lassen könnte. Das ist sozusagen immer das Ding. Aber die Frage ist, was ist dann eben das Missbrauchspotenzial? Und wie, wir das ja eben so schön gesehen haben bei diesen militärischen Geräten in Afghanistan, wenn die Daten halt erstmal rumliegen und wenn die Anwendung von solcher Auswertungssoftware einfach ist und das wird es in zunehmendem Maße sein wie eben Clearview. Dann muss zumindest auch klar sein, dass es sich hierbei um eine Rechtsverletzung handelt, weil wenn es das nicht ist, dann ist sozusagen der Missbrauch dieser Daten natürlich Tür und Tor geöffnet.

Khaleesi
0:28:38

Man muss auch sagen, auch bei sehr vielen Argumenten, die die Sicherheitsbehörden anbringen, muss man auch häufig sagen, dass viele Sachen, es gibt ungefähr noch so 20 Schritte in der Ermittlungsarbeit, die man tun könnte, bevor man zu solchen Maßnahmen greifen muss. Da gibt es auch sehr interessante Studien zu, wie zum Beispiel, gerade wenn wir über Touristinnen sprechen, wie sich das entwickelt und dass zum Beispiel viele, terroristisch motivierte Taten entstehen. Und bevor sie entstehen, die Täterinnen, und da meisten sind es ja Täter, häufig zum Beispiel gewalttätig ihren PartnerInnen gegenüber sind oder ähnliches. Also da gibt es sehr viele Indikatoren, die auch sozusagen. Bereits schon Auffälligkeiten sind, wo man halt schon frühzeitig intervenieren kann, ohne dass man überhaupt irgendeine Form von Massenüberwachung braucht, um dem nachzugehen. Aber das mal nur so am Rande. Also das ist auch in unserer Chat-Kontrollendebatte immer wieder Thema. Wie erkennt man eigentlich solche Taten und Täter? Und das ist halt ein Thema. Und ich glaube, was auch interessant ist, einfach zu sagen, es gibt keine Erfassung, also es gibt keine Datenbasis von Straferfolgungsbehörden dazu, wann Ermittlungen an fehlenden Daten gescheitert sind. Also die sagen immer, wir brauchen mehr Daten, aber sie können nicht sagen, wir konnten, Ermittlungen X nicht zu Ende führen, weil das Datum gefehlt hat sozusagen. Also das ist nicht belegt, das ist jetzt nicht in der Statistik erfasst.

Tim Pritlove
0:30:29
Khaleesi
0:30:36
Tim Pritlove
0:30:38
Khaleesi
0:30:47
Tim Pritlove
0:30:52
Khaleesi
0:31:35
Tim Pritlove
0:31:52
Khaleesi
0:32:13
Tim Pritlove
0:33:10

Mhm. Wobei es jetzt auch nicht nur Twitter eine Rolle gespielt hat, sondern da geht es um, Telegram, da geht es um Facebook, da geht es im Prinzip um alle Chatlines, also da kam ja alles zum Einsatz. Und Facebook hat zwar gesagt, wir waren da auch irgendwie schon im Vorfeld dabei, aber am Ende war es eigentlich auf allen Plattformen möglich, diese Informationen zu bekommen. Und das hat sich ja irgendwie über Wochen aufgebaut und das war ja im Prinzip so ein 6. Januar recreated vom ganzen Playbook her und haben wir dann alle gesehen, irgendwie Busladungen von irgendwie merkwürdigen Leuten sind dort aufgetaucht und haben dann halt irgendwie erst mal so in Polizeibegleitung, also die Polizei hat die dann da so hinbegleitet und teilweise noch, also sich nicht unbedingt aktiv daran gehindert und dann sind die halt irgendwie so auf die Regierungsgebäude losgegangen, haben dann Oscar Niemeyers preisgeprügte Architektur erst mal entglast. Immerhin wurden sie danach auch noch in großen Mengen festgenommen. Das hat ja irgendwie in den USA nicht so gut funktioniert. Aber das Ganze lässt natürlich jetzt irgendwie drauf blicken, wie ist es denn eigentlich mit dieser ganzen Content Moderation. Wenn man mal bei Facebook schaut, also bei Facebook gibt es jetzt, gerade den Fall, dass die Firma, die für Facebook in Schwarzafrika die Moderation gemacht hat. Das ist sozusagen outgesourced, obwohl es sich dabei auch um ein amerikanisches Unternehmen halt handelt, aber die haben dann irgendwie in Kenia, glaube ich, ein Team gehabt, die sozusagen für das Afrikanische, also alles was sozusagen südlich der Sahara ist, für all diese Länder, die Moderation gemacht haben. Und das Unternehmen stand wohl auch ohnehin schon unter Druck, weil so die Arbeitsbedingungen wohl nicht die besten waren, die Bezahlungen wohl auch nicht. Da ist die Rede von irgendwie so zwei Dollar die Stunde und so was in der Größenordnung. Und Mitarbeiter, die dort gearbeitet haben, haben wohl so diese Tätigkeit wesentlichen als psychische Folter beschrieben. Ich weiß nicht, ob das jetzt sozusagen sich ausschließlich auf die, inhaltliche Arbeit bezieht oder auf die Arbeitsbedingungen in diesem Unternehmen dann auch noch zusätzlich. Aber das kennt man ja, das im Prinzip, ich meine, Kotet Bollereysch, musst du dir mal vorstellen, was du da für einen Scheiß zu sehen bekommst.

Khaleesi
0:35:45
Tim Pritlove
0:36:00
Khaleesi
0:36:12
Tim Pritlove
0:37:34
Khaleesi
0:37:37
Tim Pritlove
0:37:39
Khaleesi
0:37:58
Tim Pritlove
0:38:38
Khaleesi
0:38:39
Tim Pritlove
0:40:02
Khaleesi
0:41:26

Ja, und ich glaube, man muss da dann auch irgendwie ein bisschen darüber reden, warum Menschen denken, dass so was in Ordnung ist. Also im Sinne von Hasskommentare oder Ähnliches. Und das ist dann wieder ein sehr, sehr komplexes Problem, in dem man sich da befindet. Ich glaube, was man auch nicht außer Acht lassen darf bei dieser Content-Moderationsgeschichte, ist natürlich, dass Content-Moderation derzeit von Unternehmen gemacht wird, die natürlich wirtschaftliche Interessen haben. Das heißt, die haben natürlich auch ein Interesse, sich in bestimmten Regionen zu halten. Und deswegen fällt gegebenenfalls Content-Moderation auch unterschiedlich aus. Und das ist dann auch wieder, was man dann so in Frage stellen kann. wie gut ist eigentlich, dass so eine Geschichte in der Hand von wirtschaftlichen Akteurinnen ist? Und wenn sie in der Hand von wirtschaftlichen Akteurinnen ist, müssen wir es dann nicht irgendwie enger regulieren, wie das ausfallen darf oder nicht ausfallen darf. Also zum Beispiel, dieses ganze Thema, das ist ja auch von Plattform zu Plattform sehr unterschiedlich. Was passiert eigentlich, wenn ein Kommentar gelöscht wird oder geblockt wird, gibt es dann eine angemessene, Beschwerdestelle und reagiert diese Beschwerdestelle dann auch und kann man irgendwie dem ganzen widersprechen und führt das dann auch dazu, dass zum Beispiel der Account wieder freigegeben wird oder halt auch nicht. Haben wir ja auch bei Twitter total schön gesehen, als die ganzen Journalistinnen einfach, geblockt wurden, weil sie halt kritische Berichterstattung durchgeführt haben. Und das ist halt so wieder diese ganze Problematik. Es obliegt halt dieser riesengroßen kapitalistischen Plattform, was denn dann okay ist an Spielregeln auf ihrer Plattform und was nicht. Was halt auch...

Tim Pritlove
0:43:28
Khaleesi
0:43:39
Tim Pritlove
0:43:47

Von daher würde ich sagen, das ist schon okay. Gut, man kann sich jetzt fragen, ob so ein Outsourcing okay ist oder nicht. Aber das hat, glaube ich, in diesem Zusammenhang hier auch der Berichterstattung, die wir hier aufgreifen, eher so arbeitsrechtliche Gründe und nicht per se. Weil die benutzen ja am Ende trotzdem die Tools von Facebook oder wem auch immer. Also wie schon erwähnt, also hier kommt mittlerweile, ich kann es fast nicht mehr hören, den Begriff. Also, sagen wir mal Machine Learning. Weil mit Intelligenz hat das jetzt nicht so viel zu tun, sondern das sind halt einfach die Software-Algorithmen, die jetzt in den letzten Jahren so erfolgreich waren, die man jetzt gemeint als künstliche Intelligenz bezeichnet, das ist halt Maschine des Lernens. Das heißt, man hat halt im Prinzip so permanentes Trainingsmuster, das heißt Fotos, Videos, Text, all das, was irgendwie klar gefleckt wird, sagen wir mal, ist hier so ein typischer Jihad-Aufruf oder was auch immer oder so typische Hasskommentare, die halt abgesetzt werden. Fließen die in diesen Lernprozess rein und kriegen so das Tag mit. Das sind Dinge, die wir nicht sehen wollen. Das heißt, die Maschine lernt dadurch immer besser, von welcher Art so eine Nachricht ist. Das ist natürlich kein kontextuelles Lernen. Das ist immer nur das ist ein, das ist ein. Aber das ist sozusagen kein Lernen, was in dem Kontext der Kommunikation richtig funktioniert. Das wäre dann sozusagen die eigentliche Intelligenz-Ebene. Da kommen wir sicherlich auch gleich nochmal drauf, wenn wir über Chat-GPT reden. Das ist im Prinzip genau deren Versprechen, diese Kontextualisierung dort richtig zu machen. Aber das sind sozusagen die Werkzeuge, mit denen die arbeiten. Trotzdem wäre es natürlich sinnvoll, nicht eine staatliche Durchführung, aber so eine staatliche Drübersicht zu haben. Zu haben. Also dass es sozusagen so eine Berichtspflicht gibt, dass man auch Stichproben testen kann. Diesen Content kann man nicht. Das ist so viel und schlimm noch dazu. Du, kannst ja nicht die komplette Arbeit, die diese Teams machen, dann auch noch überprüfen, aber es muss zumindest die Möglichkeit geben zu sagen, wir wollen jetzt hier mal stichpunktmäßig rein gehen und zeigen lassen, was wird aussortiert und was wird durchgelassen, um das sozusagen, überprüfen zu können.

Khaleesi
0:46:16
Tim Pritlove
0:47:16
Khaleesi
0:47:28

Ja, genau. Es gibt ein Prinzipienpapier, das sich damit beschäftigt, wie Content- und. Plattformverwaltung in Krisensituationen aussehen kann. Ich glaube, das ist im letzten Jahr wahrscheinlich auch so sehr deutlich geworden mit dem Angriffskrieg auf die Ukraine und den vielen Falschinformationen, aber auch die Falschinformationen, die im Hinblick auf die, Corona-Krise in Umlauf gebracht wurden. Und das ist halt, wir sehr häufig in Situationen enden, wo es sehr, sehr schwierig ist, das zu differenzieren. Und auch für die Plattformen und die Situation, die sich da auch jeden Tag ergeben, immer sehr anspruchsvoll sind. Und Access Now hat mit diversen weiteren zivilgesellschaftlichen Organisationen einen Guide aufgesetzt, was dann passieren muss, damit man auch in Krisensituationen oder in Krisenzeiten grundrechtskonforme Content Moderation durchführen kann. Und da gibt es halt grundlegende Prinzipien, aber halt auch zum Beispiel, dass es bestimmte Protokolle gibt, um Szenarien zu evaluieren. Und vor allen Dingen, dass es auch eine regelmäßige Evaluierung von allen Maßnahmen gibt, auch eine Beobachtung der Situation. Um zu schauen, ob das immer noch grundrechtskonform ist oder ob jetzt gerade wirklich Overblocking stattfindet, weil das nicht mehr ins Bild passt. Das ist ein sehr aufwendiger Prozess, der sehr viel Know-how und Zeit drumrum bedeutet. Wer das im Detail interessiert, kann sich diesen Guide angucken. Ich glaube, das wird weiterhin ein sehr spannendes Thema werden. Man sieht es jetzt sehr gut an Twitter, was an Fallouts passiert, wenn Content-Moderatorinnen vermehrt rausgeschmissen werden. Und man sieht aber auch natürlich an vielen Gesetzgebungen, die sozusagen mehr Screening für zweifelhaften Content fordern, dass da auch die Personen, die diese Contentmoderation machen, müssen überhaupt nicht mitgedacht werden. Ja, und wenn wir gerade über Überwachung von Content sprechen, unser Innovations-Champion.

Tim Pritlove
0:50:12
Khaleesi
0:50:13

Deutsche Bundeswehr hat er ja auch irgendwie so ein bisschen was mit Überwachung gemacht und auch noch im Inland, was ja eigentlich überhaupt nicht deren Aufgabe war. Ja, das stimmt. Aber rechtlich ist das im Inland noch viel fragwürdiger als im Ausland. Ja, also es gibt natürlich Organisationen, die bestimmte Kritik an ihrer Arbeit nicht so gerne sehen. Unter anderem auch die Bundeswehr. Und es gab, ich glaube es war ja genau, schon 20, muss schon 2020 gewesen sein, ein Projekt, das hieß Propaganda Awareness und es ging hier um IT-gestützte Erfassung von Akteuren und Quellenlisten, die propagandistische Aktivitäten, durchführen, wohl bemerkt gegen die Bundeswehr. Und die Bundeswehr hat Maschinen, also mit Hilfe von KI, Webseiten, also wahrscheinlich einfach Schlagwort-Suche gemacht. Also ich würde tatsächlich wirklich interessieren, ob Geld für diese KI geflossen ist oder ob sie da irgendwas neues entwickelt oder gebaut haben, das wäre schon interessant. Aber genau, sie haben also nach Propaganda-Content gesucht und. Es ist nicht das erste Mal, dass so etwas passiert. Das Zentrum für politische Schönheit ist natürlich sofort aufs Radar gekommen. Die haben eine wunderschöne Aktion gemacht 2020, die hieß, wo sind die Waffen? Im Rahmen dessen haben sie einen Container vom Bundestag aufgestellt, und dazu aufgefordert, die verschwundenen Waffen im Bestand dieser Bundeswehr wieder zurückzugeben, was ich eigentlich total nett finde. Besonders lustig ist, dass sie auch sehr echtsehende Briefe an die entsprechenden Standorte der Bundeswehr geschickt haben und dazu aufgefordert haben.

Tim Pritlove
0:52:31

Khaleesi
0:52:32
Tim Pritlove
0:53:00
Khaleesi
0:53:02
Tim Pritlove
0:53:20
Khaleesi
0:53:35
Tim Pritlove
0:53:44
Khaleesi
0:53:46
Tim Pritlove
0:53:58
Khaleesi
0:55:20
Tim Pritlove
0:55:30

Ist eine reine Kostenfrage gewesen. Und jetzt sind wir halt an einem Punkt angekommen, wir sind schon lange an mehreren Punkten angekommen, wo sich diese Preise immer wieder dramatisch gesenkt haben. Erstmal das Speichern von Daten, also überhaupt so viele Daten irgendwo, abzulegen, war lange lange Zeit ein Problem und ist dann so Ende der 80er Jahre mit dem Aufkommen von großen Festplatten irgendwann auch gar kein Thema mehr gewesen. So, jetzt haben wir eben Kameras, die immer billiger werden. Von Speichermengen brauchen wir jetzt schon mal gar nicht mehr zu reden, da gibt es im Prinzip beliebig viel Speicher. Also wenn du irgendwie heute einen Peterbite speichern willst, dann ist das irgendwie finanzierbar. Das kriegst du irgendwie zusammen, zumindest wenn das Interesse an sich erstmal groß genug ist. Daran scheitert es am Ende nicht wirklich. Abgesehen davon, dass die Speicher ja sowieso weltweit rumliegen und man einfach nur übers Internet irgendwo verschlüsselt hinschreiben könnte und dann hat man diesen Speicher schon. Also die Zugriffsmöglichkeit ist da und jetzt kommen wir halt in diese nächste Problematik rein. Wir haben das jetzt mit der Gesichtserkennung jetzt schon auch diskutiert. Kameras sind billig, Algorithmen sind billig, dieses Machine Learning wird in zunehmendem Maße billig, sowohl was das, Anwenden fertiger Training Sets betrifft, also wo die Daten schon einmal durchgenudelt wurden, als auch das Trainieren selber wird in zunehmendem Maße billig. Wir werden mit Mikrofonen und anderen Sensoriken noch sehr viel mehr sehen. Unstoppable.

Khaleesi
0:57:07
Tim Pritlove
0:58:52
Khaleesi
0:58:58
Tim Pritlove
0:59:05
Khaleesi
0:59:27
Tim Pritlove
0:59:31
Khaleesi
0:59:39
Tim Pritlove
0:59:42
Khaleesi
0:59:47
Tim Pritlove
0:59:56
Khaleesi
0:59:58
Tim Pritlove
1:00:01
Khaleesi
1:00:04
Tim Pritlove
1:00:12
Khaleesi
1:00:21
Tim Pritlove
1:00:28
Khaleesi
1:00:31
Tim Pritlove
1:00:46
Khaleesi
1:00:59
Tim Pritlove
1:01:02
Khaleesi
1:01:03
Tim Pritlove
1:01:47
Khaleesi
1:01:55

Genau. Vielleicht noch mal als Refresher. Das UN Cybercrime Treaty wird derzeit verhandelt. Es wird schon seit einem Jahr verhandelt und wird auch noch ein Jahr weiter verhandelt werden. Die Verhandlungen dazu finden in New York und in Wien statt. Und das ist tatsächlich eines der ersten Male, dass zivilgesellschaftliche Organisationen bei so einer Verhandlung mit am Tisch sitzen, unter anderem auch Epicenter Works und das ist tatsächlich diesmal ein etwas größeres Team. Tanja aus dem Team von Epicenter Works hat da auch bereits jetzt schon vorgetragen. Ich denke mal, Thomas wird auch irgendwie mal in der Zukunft mal darüber berichten, wie das eigentlich so ist, so was in der UN zu verhandeln. Das ist dann noch mal ein bisschen was anderes als in der EU. Was noch nicht so detailliert besprochen wird, es wurde es halt, also außer dass es echt problematisch werden könnte, wenn dieses Treaty so kommt, wie es gerade aussieht, was da uns eigentlich erwartet. Also grundsätzlich ist ist es halt eine Konvention zu Cybercrime. Und es soll halt geklärt werden, was Cybercrime ist, aber auch welche Instrumente genutzt werden sollen, um Cybercrime zu bekämpfen. Und derzeit gibt es so erste Entwürfe, die herumgehen und die sind noch nicht final. Wie gesagt. Die Verhandlungen gehen noch ein Jahr. Das ist mehr so eine Wunschliste der Staaten, was sie eigentlich gerne so in diesem Cybercrime-Treaty drin hätten. Und das ist ziemlich beunruhigend, was da drin steht. Also zum einen wollen sie bestimmte Tatbestände festlegen, darunter zum Beispiel den illegalen Zugriff auf Computersysteme, das illegale Abfangen von Daten, den widerrechtlichen Zugriff auf Computersysteme, Störung von Computersystemen oder Daten und den Missbrauch von Geräten und Programmen.

Tim Pritlove
1:04:16
Khaleesi
1:04:17
Tim Pritlove
1:04:24
Khaleesi
1:04:35
Tim Pritlove
1:05:59
Khaleesi
1:06:08

Ich sage doch, das waren die Praktikanten. Nein, aber halt angedacht werden halt auch solche Sachen wie Vorratsdatenspeicherung als Ermittlungstool, gegen globalen Cybercrime und man will dann natürlich auch, was natürlich total wichtig ist, ist natürlich nicht nur, dass man Tooling hat, was alle gleich benutzen können, sondern dass natürlich auch alle auf alle Daten zugreifen können. Und das ist ein riesen Problem. In Europa gibt es das E-Evidenz-Gesetz und in den USA gibt es den sogenannten Cloud Act. Und das ist halt bisher so, dass man immer bestimmte Abkommen braucht, damit jetzt zum Beispiel die deutsche Polizei auf polnische Server zum Beispiel zugreifen kann. Das heißt, die müssen dann entweder eine bestimmte Abstimmung haben, also das EU-Evidenzgesetz würde das zum Beispiel erlauben, dass es ein EIL-Verfahren gibt und dass man dann halt auf Daten, auf Servern in einem anderen Land zugreifen kann und ähnliches ist auch mit dem Cloud Act. Und das wollen die sozusagen mit diesem EU-Cybercrime-Treaty ausweiten. Das heißt, dass das dann halt auch einfach einen schnelleren Austausch, aber natürlich auch dieses ganze Thema. Dinge sperren und vom Netz nehmen, auch sozusagen beschleunigen. Und das ist natürlich, kann man jetzt wieder so ein bisschen so ein Bogen zur Contentmoderation machen, in vielen Fällen sehr problematisch, wenn so was im Eilverfahren passiert. Und bisher ist da auch überhaupt noch keine rechtsstaatliche Garantie dafür, dass die betroffenen Rechte eingehalten werden, da natürlich sich die nationalen Gesetzgebungen von allen UN-Mitgliedern dann doch sehr unterscheiden und natürlich, auch die Einspruchsmöglichkeiten viel, viel schwieriger sind, wenn Ermittlungsbehörden aus einem anderen Land dafür sorgen, dass irgendwas mit deinem Server passiert.

Tim Pritlove
1:08:14
Khaleesi
1:08:41
Tim Pritlove
1:08:43
Khaleesi
1:08:53
Tim Pritlove
1:09:41
Khaleesi
1:09:50
Tim Pritlove
1:11:14
Khaleesi
1:11:17
Tim Pritlove
1:11:43
Khaleesi
1:11:46
Tim Pritlove
1:12:37
Khaleesi
1:12:45
Tim Pritlove
1:12:57
Khaleesi
1:13:00
Tim Pritlove
1:13:11
Khaleesi
1:13:17
Tim Pritlove
1:13:22
Khaleesi
1:14:05
Tim Pritlove
1:14:18
Khaleesi
1:15:22
Tim Pritlove
1:15:38
Khaleesi
1:16:48
Tim Pritlove
1:17:53
Khaleesi
1:17:57
Tim Pritlove
1:18:04
Khaleesi
1:18:05
Tim Pritlove
1:18:12
Khaleesi
1:18:18
Tim Pritlove
1:19:10
Khaleesi
1:20:06
Tim Pritlove
1:20:09
Khaleesi
1:20:23
Tim Pritlove
1:20:28

Also, wer das schon mal benutzt hat, wenn das gesehen haben, man tippt was ein und man kriegt auch eine Antwort. Aber die Antwort malt sich so in Lesegeschwindigkeit so in etwa auf den Bildschirm. Also man kann wirklich den Buchstaben noch dabei zusehen, wie sie so, also nicht Buchstabe für Buchstabe, ich sag mal so Wort für Wort auf dem Bildschirm erscheint. Teilweise auch ganz interessant, dass das Ding auch so Sätze nachträglich ändert. Also man sieht so richtig, wie es sich grammatikalisch so herausschält und eigentlich erst am Ende, des Satzes weiß, wie der ganze Satz sein soll. Also das ist zumindest der Eindruck, den ich gewinne. Ich habe natürlich keine Ahnung, wie das mit Detail funktioniert und ich finde das auch alles ziemlich beeindruckende Technologie, so oder so. Weil das ist halt, Chat-GPT ist wirklich wieder so ein Ding, womit dieser Spruch einfällt. Ich weiß nicht, von wem war der nochmal. Keine Ahnung, das ist irgendwie, also jede Technologie, die so einigermaßen über deinen Horizont hinausgeht, lässt dich von Zauberrei nicht unterscheiden. So das irgendwie, keine Ahnung, wie ich es gerade, zitiert habe, aber nicht wörtlich. Aber so kommt einem das herüber, weil man auf einmal etwas ganz anderes bekommt aus dem Internet, als man das bisher oder von seinem Computer, als man das bisher, so kannte. Du kannst aber dich hingehen und sagen, ich möchte gerne ein Kurzbühnenstück haben mit, irgendwie einem silbernen Hasen und irgendwie einer Fußgängerampel, die sich irgendwie über die Qualität von Hamburger unterhalten. Und dann kommt da irgendwas bei raus. Das macht. Vielleicht in dem Moment keinen Sinn, aber es ist auf jeden Fall totale Zauberei. Lange, Rede kurzer Sinn. Es macht viel Sinn, dieser Technologie weiter nachzugehen für jemanden, der behauptet, einem den Zugang zu den Informationen der Welt zu liefern. Das ist ja so ein bisschen das, was bei Google drunter steht, nachdem sie dieses Don't Be Evil eingelassen haben. Evil können wir schon sein, aber trotzdem Informationen des Internets machen wir euch zugänglich. Nur halt nicht mehr so gut, nur ein bisschen böse.

Khaleesi
1:22:45
Tim Pritlove
1:22:56
Khaleesi
1:23:00
Tim Pritlove
1:23:15
Khaleesi
1:24:19
Tim Pritlove
1:24:24
Khaleesi
1:24:26
Tim Pritlove
1:24:33
Khaleesi
1:25:35
Tim Pritlove
1:25:37

Ja, aber halt auch so die Kriege, die Frankreich mit den anderen Ländern führten, wirtschaftliche Situationen, Pipapo, dieses und jenes, einfach so Aspekte, die gerade wenn es so darum geht, so was wie im Deutschunterricht, wo es ja auch immer so ein bisschen darum geht, so die. Gesamtsituationen verstehen, interpretieren, Bewegungsgründe formulieren und auch Formulierungen zu finden und Worte auch zu finden. Man macht ja viel daran fest, dass so was wie Chat-GPT jetzt nicht geeignet ist, weil die Fakten stimmen nicht. Na gut, dann lässt du halt, die Fakten raus und kümmere dich nur um die Form. Du kannst das Ding ja auch benutzen mit hier schreibe ich dir die Fakten Stichpunkt für Stichpunkt hin, mach mir einen schönen Text da draus, der irgendwie in blumiger romantischer Sprache mit etwas Humor diesen Sachverhalt wiedergibt. So, und das kannst du ja dann selber auch bewerten, ob dieser Sachverhalt okay zurückgegeben wurde, aber dir ist unter Umständen eine andere Sprache gegeben worden, die dich in dem Moment inspiriert. Und das ist mein Punkt. Ich glaube, dass das Tool vor allem derzeit für so Glücksrecherchen ganz gut ist, dass irgendwas versuchst, rauszufinden, was einfach so mit Google und anderen Quellen... Also entweder musst du viel zu viel lesen oder es ist halt so viel Nebel vor dieser Information, durch die so eine Suchmaschine nicht durchkommt. Aber wenn es darum geht, einen inspirieren zu lassen, ist es halt wirklich teilweise gut. Von einem habe ich gesehen, der hat CheckKPT einfach gefragt so, ja mach mir mal ein paar Vorschläge wie man seine Wohnung einrichten kann.

Khaleesi
1:27:19
Tim Pritlove
1:27:43
Khaleesi
1:27:44
Tim Pritlove
1:28:07
Khaleesi
1:29:03
Tim Pritlove
1:29:43
Khaleesi
1:30:04
Tim Pritlove
1:30:10
Khaleesi
1:30:11
Tim Pritlove
1:30:19
Khaleesi
1:30:36
Tim Pritlove
1:30:38
Khaleesi
1:30:57
Tim Pritlove
1:31:25
Khaleesi
1:32:17
Tim Pritlove
1:32:21
Khaleesi
1:32:22
Tim Pritlove
1:32:39
Khaleesi
1:32:44
Tim Pritlove
1:33:08
Khaleesi
1:33:35
Tim Pritlove
1:33:47
Khaleesi
1:33:51
Tim Pritlove
1:34:06
Khaleesi
1:34:18
Tim Pritlove
1:34:20
Khaleesi
1:34:31
Tim Pritlove
1:35:06
Khaleesi
1:35:13
Tim Pritlove
1:35:24
Khaleesi
1:35:38
Tim Pritlove
1:35:55
Khaleesi
1:36:01
Tim Pritlove
1:36:12
Khaleesi
1:36:23
Tim Pritlove
1:37:08
Khaleesi
1:37:12
Tim Pritlove
1:37:18
Khaleesi
1:37:22
Tim Pritlove
1:38:49
Khaleesi
1:38:50
Tim Pritlove
1:39:16
Khaleesi
1:39:16
Tim Pritlove
1:40:37
Khaleesi
1:40:57
Tim Pritlove
1:40:58
Khaleesi
1:41:16
Tim Pritlove
1:42:00
Khaleesi
1:42:45
Tim Pritlove
1:43:16
Khaleesi
1:43:18
Tim Pritlove
1:43:19
Khaleesi
1:43:34
Tim Pritlove
1:44:26
Khaleesi
1:44:48
Tim Pritlove
1:45:06
Khaleesi
1:45:53
Tim Pritlove
1:45:59
Khaleesi
1:46:00
Tim Pritlove
1:46:12
Khaleesi
1:46:14
Tim Pritlove
1:46:19
Khaleesi
1:46:52
Tim Pritlove
1:46:54
Khaleesi
1:47:17
Tim Pritlove
1:47:18