WEBVTT

NOTE
Podcast: Logbuch:Netzpolitik
Episode: LNP432 AlgorithmWatch 
Publishing Date: 2022-06-17T23:19:14+02:00
Podcast URL: https://logbuch-netzpolitik.de
Episode URL: https://logbuch-netzpolitik.de/lnp432-algorithmwatch

00:00:00.005 --> 00:00:01.562
<v Tim Pritlove>Guten Morgen Matthias.

00:00:00.006 --> 00:00:02.385
<v Matthias Spielkamp>Guten.

00:00:23.207 --> 00:00:37.039
<v Tim Pritlove>Logbuch-Netzpolitik Nummer 432 vom 17. Juni 222 und die Advanced Hörer und wir haben ja eigentlich nur äh Advanced Hörerinnen und Hörer, die wissen schon, Linus ist heute nicht da

00:00:36.961 --> 00:00:43.469
<v Tim Pritlove>denn der hat was Besseres zu tun. Für mich eine gute Gelegenheit ein äh

00:00:43.337 --> 00:00:54.231
<v Tim Pritlove>Spezial einzuwerfen, was Sie schon ganz lange auf meiner Liste habe und äh von dem ich erst vor ein paar Tagen, als wir das dann ausgemacht haben, äh erst so richtig begriffen habe, wie gut das auch

00:00:54.033 --> 00:01:00.432
<v Tim Pritlove>gerade passt. Also sage ich erstmal hallo, Matthias. Herzlich willkommen bei Netzpolitik.

00:01:01.430 --> 00:01:06.874
<v Tim Pritlove>Genau, Matthias Spielkamp und du bist ähm den äh Netzbewegten,

00:01:06.905 --> 00:01:15.581
<v Tim Pritlove>sicherlich schon seit längerem auf die ein oder andere Art und Weise ein Begriff, denn du turnzt ja nun in dieser Landschaft auch schon ganz schön lange rum, ne?

00:01:16.369 --> 00:01:18.081
<v Matthias Spielkamp>Bin auch so ein alter Sack, genau.

00:01:17.817 --> 00:01:23.658
<v Tim Pritlove>Ich weiß gar nicht, wann hast du denn so angefangen, aktiv zu werden.

00:01:24.271 --> 00:01:26.428
<v Matthias Spielkamp>Ich würd sagen zweitausenddrei.

00:01:26.494 --> 00:01:33.783
<v Tim Pritlove>Aha und das war dann schon zum Thema Urheberrecht oder war das noch was anderes?

00:01:33.795 --> 00:01:40.561
<v Matthias Spielkamp>Genau, so würde ich das sagen. Also jetzt aus dieser Perspektive der Hörerinnen und Hörer von dem Logbuch. Ich habe schon,

00:01:40.838 --> 00:01:54.328
<v Matthias Spielkamp>Internet länger zu tun, da habe ich im Studium schon von erfahren, weil ich das Vergnügen hatte in den USA zu studieren und das sah auch schon 1995 eine Rolle spielte oder 94 sogar schon in meinem Studium und ich habe dann auch äh schon,

00:01:54.563 --> 00:02:05.342
<v Matthias Spielkamp>zum Beispiel Workshops zu dem Thema gegeben, aber dass ich jetzt so netzpolitisch auf eine Art aktiv wurde, das war dann so um 203 rum zu diesem Thema äh Urheberrecht.

00:02:05.691 --> 00:02:06.995
<v Matthias Spielkamp>Copyright Wars.

00:02:06.887 --> 00:02:21.771
<v Tim Pritlove>Und es ist übrigens ich habe grad mal nachgeschaut, schon fast 12 Jahre her, dass wir uns zu diesem Thema mal im Rahmen eines CRE unterhalten haben. CRE einhundertvierundsechzig, wo wir äh in zwei Stunden diese diese ganze Problematik der Urheberrechts

00:02:22.276 --> 00:02:36.842
<v Tim Pritlove>Regulierung und Definition und so weiter durchgenudelt haben und ich hatte damals schon so den Eindruck, Alter, das ist äh ein Thema, da kann man sich echt die Zähne dran ausbeißen. Wie kann man da überhaupt so lange dranbleiben? Und du bist ja dann noch sehr lange dran geblieben, oder?

00:02:37.227 --> 00:02:39.660
<v Matthias Spielkamp>Ja, also jetzt, wann war das? Wann haben wir uns.

00:02:39.360 --> 00:02:41.595
<v Tim Pritlove>Oktober 20 10.

00:02:42.166 --> 00:02:48.433
<v Matthias Spielkamp>Ja okay, da war ich dann schon noch eine Weile dabei. Ja, ja, ja, doch. Fühlt sich an, als sei es gestern gewesen.

00:02:48.133 --> 00:02:54.935
<v Tim Pritlove>Auf jeden Fall hast du hast du das mehr als eine Dekade lang äh begleitet das Thema.

00:02:55.152 --> 00:02:57.904
<v Matthias Spielkamp>Bis ich dann völlig entnervt aufgegeben habe.

00:02:57.754 --> 00:03:08.828
<v Tim Pritlove>Aber darum soll's heute nicht gehen, sondern du hast ja jetzt ähm jetzt hätte ich fast gesagt, die Seiten gewechselt. Das ist äh natürlich nicht der Fall, sondern äh du hast dich eines anderen Themenraums äh

00:03:08.733 --> 00:03:17.049
<v Tim Pritlove>angenommen und jetzt erzähl mir doch mal wie es dazu kam, dass äh du dich mit Algorithmen auseinandersetzen wolltest.

00:03:17.548 --> 00:03:29.325
<v Matthias Spielkamp>Ja, tatsächlich hat's ziemlich viel mit dem zu tun, was ich vorher gemacht habe. Ich habe einmal ein großes ähm große Lust gehabt, dieses ganze Internet da zu erkunden und und zu verstehen,

00:03:29.566 --> 00:03:35.190
<v Matthias Spielkamp>habe das aber am Anfang überhaupt nicht als so ein wichtiges Politikfeld begriffen. Also es war mir.

00:03:35.563 --> 00:03:40.556
<v Matthias Spielkamp>Natürlich theoretisch irgendwie klar, ne, dass das, was Weltveränderndes sein würde, aber,

00:03:40.689 --> 00:03:51.943
<v Matthias Spielkamp>Äh ich hatte nicht selber den Anspruch das mitzugestalten, sondern eher zu nutzen. Ich habe dann so zum Beispiel fürn und Journalisten Seminare dazu gemacht, wie sie am besten,

00:03:52.202 --> 00:04:03.667
<v Matthias Spielkamp>suchen online und recherchieren und wie sie auch ihre Webseiten konzipieren, damit die Informationen gut rüberkommen und erst als ich aber angefangen habe mit diesem Urheberrecht rumzumachen, da habe ich verstanden,

00:04:03.782 --> 00:04:09.183
<v Matthias Spielkamp>wahnsinnig politisch das Ganze ist und was die Regulierung für einen Einfluss da drauf hat,

00:04:09.370 --> 00:04:15.986
<v Matthias Spielkamp>und natürlich welcher welchen Einfluss auch die Digitalisierung selber auf die Regulierung hat, ne? Und ähm.

00:04:16.491 --> 00:04:26.976
<v Matthias Spielkamp>In dem ganzen Zusammenhang habe ich mich dann viel mit der Zukunft des Journalismus beschäftigt welche Geschäftsmodelle können überhaupt noch funktionieren unter solchen Bedingungen und dergleichen mehr und dann,

00:04:27.181 --> 00:04:29.356
<v Matthias Spielkamp>kam eben auch irgendwann dieses Thema,

00:04:29.591 --> 00:04:39.343
<v Matthias Spielkamp>Roboterjournalismus auf, ja? Also das wird jetzt dann alles automatisch gemacht und wir verlieren alle unsere Jobs, weil irgendwelche Maschinen die Texte schreiben und,

00:04:39.590 --> 00:04:50.496
<v Matthias Spielkamp>Das fand ich durchaus so interessant im Sinne von okay, was steckt dahinter und habe eine Veranstaltungsreihe dazu äh kuratiert, wie man heutzutage so schön sagt und,

00:04:50.737 --> 00:05:02.568
<v Matthias Spielkamp>Ähm habe dann aber doch auch ziemlich schnell festgestellt, boah, das Thema ist eigentlich ziemlich uninteressant, weil ähm so viel wird da nicht passieren. Also da wird eine Menge passieren, aber es ist nicht wirklich relevant, weil ähm.

00:05:03.079 --> 00:05:14.610
<v Matthias Spielkamp>Also komme ich gleich nochmal drauf, warum das auch zum Teil jedenfalls ein Irrtum war, aber jedenfalls ist es nicht relevant in dem Sinne. Die Journalisten werden alle ihre Jobs verlieren, sondern was halt automatisiert wird, sind so Standard.

00:05:15.019 --> 00:05:22.326
<v Matthias Spielkamp>Texte wie Wetterbericht, Sport Reportage, also Reportage noch nicht mal, sondern äh Spielbericht und.

00:05:22.993 --> 00:05:25.517
<v Matthias Spielkamp>Jetzt Börsennachrichten oder so was in der Art,

00:05:25.793 --> 00:05:34.771
<v Matthias Spielkamp>Und in dem Zusammenhang habe ich aber eben auch auf dieses Feld sozusagen Automatisierung und Algorithmen mehr geschaut und dann bin ich übern Text gestolpert, der,

00:05:34.861 --> 00:05:40.984
<v Matthias Spielkamp>eben sehr viel verändert hat für mich und er heißt

00:05:40.864 --> 00:05:45.971
<v Matthias Spielkamp>Boxes von Nikolas Diakopolus, einem Amerikaner, also ähm,

00:05:46.224 --> 00:05:54.528
<v Matthias Spielkamp>wie wie man durch Journalismus, Algorithmen zur Rechenschaft ziehen kann ähm und wie man eben solche,

00:05:54.715 --> 00:05:58.428
<v Matthias Spielkamp>untersucht. Das war der Titel und das waren,

00:05:58.513 --> 00:06:12.279
<v Matthias Spielkamp>keinen jetzt irgendwie äh sechzigseitiges Ding, sondern ungefähr so zwanzig, 25 Seiten, aber der hat's halt geschafft, sehr gut auf den Punkt zu bringen, warum er der Ansicht ist, dass es zu den Aufgaben von Journalistinnen und Journalisten gehören sollte,

00:06:12.316 --> 00:06:18.577
<v Matthias Spielkamp>sich diese Automatisierungsprozesse anzuschauen, weil die eben gesellschaftlich eine hohe Relevanz haben und weil,

00:06:18.745 --> 00:06:26.965
<v Matthias Spielkamp>genauso wie der Journalismus die Aufgabe hat die Regierenden zu überprüfen, die ähm Unternehmen, also,

00:06:26.984 --> 00:06:39.032
<v Matthias Spielkamp>sozusagen die Mächtigen, the powers at be dazu gehören dann eben auch zunehmend solche automatisierten Verfahren und das hat mich total überzeugt und dann habe ich gedacht, gut, also jetzt habe ich gefunden, was mein,

00:06:39.140 --> 00:06:42.102
<v Matthias Spielkamp>Was meine Perspektive da drauf ist und mein Ansatz.

00:06:41.850 --> 00:06:48.153
<v Tim Pritlove>Ich erinnere mich jetzt, wo du das erwähnst, dass dass es mal so eine Zeit gab, wo wir so dieses ganze oh,

00:06:48.244 --> 00:06:55.701
<v Tim Pritlove>Computer äh erfassen jetzt sozusagen verfassen die Artikel, ja, dass das so eine.

00:06:56.002 --> 00:07:02.052
<v Tim Pritlove>Weiß ich nicht, so eine so eine ja so ein so ein Szenario war, was so äh herumgekickt wurde, aber

00:07:02.023 --> 00:07:09.582
<v Tim Pritlove>das gibt's ja in dem Sinne auch, aber es hat eigentlich nie wirklich äh große Relevanz gehabt und letztlich hast du ja den Spieß umgedreht und gesagt, das ist eigentlich mehr

00:07:09.402 --> 00:07:27.825
<v Tim Pritlove>mir eine Aufgabe für den Journalismus sich mit dem Thema als solchen zu beschäftigen und jetzt nicht so sehr, dass jetzt der Journalismus unmittelbar von diesem Algorithmus selbst bedroht wird, sondern es ist einfach eine Gesamtaufgabe für die Gesellschaft und damit natürlich auch für den Journalismus einfach wacher äh auf die Probleme zu schauen, die Algorithmen und,

00:07:27.982 --> 00:07:34.543
<v Tim Pritlove>quasi also Systeme, Computersysteme ähm ja was die für einen Schatten werfen auf auf unsere Welt.

00:07:34.982 --> 00:07:43.479
<v Matthias Spielkamp>Ja genau, also ähm ich habe ja gesagt, ein bisschen habe ich mich geirrt, weil ich schon finde, dass man diese Automatisierung eben auch für richtig gute

00:07:43.467 --> 00:07:55.563
<v Matthias Spielkamp>nutzen kann. Äh zum Beispiel habe ich mal ein Projekt auch mitgegründet, das es immer noch gibt, das heißt mobilsicher Punkt DE. Da geht's um Berichterstattung äh über Sicherheit bei Mobil

00:07:55.558 --> 00:08:05.448
<v Matthias Spielkamp>ähm devices, ne? Also anfangs auch Tablets noch am Ende waren's dann schon nur noch Smartphones und da äh haben die Kollegen, da war ich dann schon nicht mehr so

00:08:05.376 --> 00:08:12.100
<v Matthias Spielkamp>stark dabei. Ähm Kolleginnen und Kollegen haben ein System entwickelt, mit dem automatisiert überprüft wird, welche Daten,

00:08:12.269 --> 00:08:21.751
<v Matthias Spielkamp>die ähm Apps an Server senden. Äh also richtig dynamisch. Das heißt wirklich, wenn die im Betrieb sind, das ist schon sehr besonders, ne und,

00:08:21.847 --> 00:08:29.598
<v Matthias Spielkamp>Was Sie dann auch gemacht haben, das war dann schon meine Idee. Ich habe die nicht umgesetzt, aber was ich dadran dann eben auch so einen richtig geilen Aspekt fand war,

00:08:29.683 --> 00:08:38.360
<v Matthias Spielkamp>dass man, wenn man dann wirklich das skalieren kann, wenn man viele hundert solcher Apps überprüfen kann, dass man natürlich mitm Schreiben der Artikel nicht mehr hinterherkommt.

00:08:38.715 --> 00:08:44.669
<v Matthias Spielkamp>Ne, dieser Berichte darüber, dass diese Berichte dann aber schon ähnlich standardisiert werden können wie halt ein Wetterbericht,

00:08:44.898 --> 00:08:52.325
<v Matthias Spielkamp>und tatsächlich ist dann ein Teil von diesem Angebot eben auch, dass diese Testberichte automatisiert verfasst werden.

00:08:52.752 --> 00:09:03.411
<v Matthias Spielkamp>Und da kann man auch auf eine Art den Spieß umdrehen und sagen, da kann man dann mit Automatisierung auch mal was erreichen, was man eben sonst mit vertretbarem Aufwand nicht erreichen können.

00:09:03.484 --> 00:09:06.801
<v Matthias Spielkamp>Könnte und dann auch mal eben diesen,

00:09:07.005 --> 00:09:14.288
<v Matthias Spielkamp>äh Risiken ähm Zahlen auf der einen Seite, ne, wir werden da also über Häuf mit tausenden von Apps,

00:09:14.403 --> 00:09:18.206
<v Matthias Spielkamp>Kann man dann auch mit solchen Mitteln zumindest versuchen, beizukommen.

00:09:18.855 --> 00:09:31.606
<v Matthias Spielkamp>Aber ja, du hast schon recht, also insgesamt diese ganze Frage nach der Automatisierung das war wird massiv eingesetzt heute. Katalogtexte, Reiseberichte und so weiter. Das ist also inzwischen total normal geworden.

00:09:31.781 --> 00:09:35.386
<v Tim Pritlove>Läuft aber eher unter Database Publishing, so habe ich das äh.

00:09:35.086 --> 00:09:46.653
<v Matthias Spielkamp>Ja genau und und da würde ich schon auch in Anspruch nehmen, dass ich mich da dass ich mein Urteil da nicht so revidieren muss, also für den Journalismus den wir als Journalismus verstehen, hat das nicht so wahnsinnige Auswirkungen gehabt.

00:09:46.713 --> 00:09:47.302
<v Tim Pritlove>Ja

00:09:47.747 --> 00:10:02.306
<v Tim Pritlove>Ich glaube, die eigentliche Gefahr, die so ein bisschen im Raum war damals, als wir noch alles für möglich hielten, äh nur nicht das, was wirklich passiert. Ähm war so dieses so, ah, jetzt jetzt kommt so die Intelligenz und versucht irgendwie hier die Welt zu interpretieren.

00:10:02.325 --> 00:10:10.238
<v Tim Pritlove>Ja und äh dem dem menschlichen Hirn wird jetzt hier die Entscheidung entzogen. Ich glaube, das war so ein bisschen die Kimera im Raum, ne.

00:10:10.209 --> 00:10:11.398
<v Matthias Spielkamp>Mhm, genau.

00:10:11.110 --> 00:10:23.110
<v Tim Pritlove>Ja gut, aber letzten Endes ähm ja, hast du dich dann einem spezifischen äh Thema eben diese Algorithmen äh dann zugewandt.

00:10:24.625 --> 00:10:34.539
<v Tim Pritlove>Und dann kam's zur Gründung von wie das hat ja dann auch nicht so lange gedauert glaube ich von der ersten Idee bis bis du dann da gelandet bist.

00:10:34.678 --> 00:10:45.638
<v Matthias Spielkamp>Nee, das ging also also ja das war folgendermaßen. Ich habe dann ähm mit Lorenz Mazart, einem jemanden, der ja sicherlich in der Szene auch sehr gut bekannt ist.

00:10:45.626 --> 00:10:46.948
<v Tim Pritlove>Journalist, genau.

00:10:46.059 --> 00:10:58.575
<v Matthias Spielkamp>Journalist gearbeitet hat, genau, ne ähm habe ich dann rumgehirnt und es gab damals eine Ausschreibung von Erfolgswagenstiftung zu Datenjournalismus und wir haben uns die angeguckt und wir fanden halt beide.

00:10:59.201 --> 00:11:05.378
<v Matthias Spielkamp>Ey, nee. Da da äh das ist eigentlich.

00:11:05.865 --> 00:11:15.196
<v Matthias Spielkamp>Äh auserforscht, wenn man so will. Ja also man kann da ganz tolle Ideen entwickeln und konkrete Anwendungen,

00:11:15.227 --> 00:11:17.864
<v Matthias Spielkamp>auch sich einfallen lassen

00:11:17.721 --> 00:11:31.860
<v Matthias Spielkamp>dass man da jetzt so eine große Ausschreibung macht und sagt, wir müssen uns jetzt da einen Journalismus angucken, in so einer Kombination aus Wissenschaft und Journalismus. Da haben wir beide gedacht, das kommt eigentlich sechs Jahre zu spät, wie so vieles in Deutschland.

00:11:31.944 --> 00:11:37.472
<v Matthias Spielkamp>Muss so zweitausend äh vierzehn, 2015 gewesen sein, ne? Und ähm.

00:11:37.899 --> 00:11:44.467
<v Matthias Spielkamp>Dann haben wir aber gedacht, okay, wir probieren einfach was anderes. Wir schreiben einen Antrag.

00:11:45.032 --> 00:11:54.340
<v Matthias Spielkamp>Indem wir eigentlich Augustic Countability Reporting machen und dann aber sagen, auch mit Daten journalistischen Mitteln und in der Daten journalistischen Aufbereitung.

00:11:55.115 --> 00:12:02.362
<v Matthias Spielkamp>Und das haben wir auch gemacht. Also wir haben den Antrag geschrieben zusammen mit ein paar Kollegen und Kolleginnen und,

00:12:02.560 --> 00:12:05.829
<v Matthias Spielkamp>ist abgelehnt worden, ja und meiner Ansicht nach.

00:12:06.142 --> 00:12:20.497
<v Matthias Spielkamp>Haben die einfach nicht kapiert was wir wollten. Kann man natürlich immer sagen ja äh ihr wart einfach zu blöd, dass gut genug aufzuschreiben, dass sie das verstehen konnten. Da könnte ich jetzt viel drüber reden ähm aber jedenfalls haben wir das Geld nicht bekommen,

00:12:20.696 --> 00:12:23.796
<v Matthias Spielkamp>Wir haben beim Schreiben dieses Antrags und beim,

00:12:24.085 --> 00:12:32.467
<v Matthias Spielkamp>davon, was wir eigentlich machen wollten, haben wir schon gemerkt, wow, da steckt echt was drin. Und dann war es Lorenz, der damals.

00:12:32.816 --> 00:12:45.867
<v Matthias Spielkamp>Dieser Idee kam, ich behaupte ja immer, es gibt eine E-Mail, die wir aber beide nicht finden können. Er meinte, er hat mir das nur am Telefon erzählt. Jedenfalls hat er ähm den Twitter handle Elvis im Watch gesichert und die Domain Elgarison Watch Punkt ORG.

00:12:46.667 --> 00:12:54.112
<v Matthias Spielkamp>Als ich das gehört habe, habe ich gedacht, ja, genau, jetzt weiß ich, weiß ich, womit ich die nächsten Jahre meine meine Zeit verbringen will.

00:12:53.812 --> 00:13:02.849
<v Tim Pritlove>Bevor wir darauf kommen, äh kurz noch zu diesem Datenjournalismus, weil ich finde es ja an sich war das dann doch eine sehr äh produktive Zeit. Also das äh

00:13:02.717 --> 00:13:13.785
<v Tim Pritlove>musste vielleicht nicht weiter erforscht werden, aber wenn ich mir jetzt so anschaue was in den letzten zwei Jahren gerade in Bezug auf die Coronaberichterstattung ähm mittlerweile Standard geworden ist, ne

00:13:13.708 --> 00:13:23.646
<v Tim Pritlove>wie sehr Daten auch tatsächlich die journalistische Arbeit jetzt äh prägen, indem halt genau drauf geschaut wird, die Medienhäuser entsprechende.

00:13:23.983 --> 00:13:35.664
<v Tim Pritlove>Ähm Tools äh haben, ne, also da Auswertungsketten äh zu bauen in der Lage sind, brauchbare Visualisierung, interaktive Visualisierung, Teil der Berichterstattung sind. Das ist schon ein Schritt nach vorne.

00:13:36.007 --> 00:13:42.238
<v Matthias Spielkamp>Auf jeden Fall. Ich das wäre jetzt, ich will da nicht missverstanden werden. Vielleicht habe ich mich nicht gut genug ausgedrückt. Ich äh,

00:13:42.299 --> 00:13:48.175
<v Matthias Spielkamp>sage nicht das mit dem Datenjournalismus ist alles Quatsch. Im Gegenteil, ich habe mich ja selber damit beschäftigt, habe selber versucht auch in,

00:13:48.260 --> 00:13:59.526
<v Matthias Spielkamp>Seminaren und Workshops dafür zu werben, dass Journalistinnen und Journalisten da aktiver werden. Ich finde das eine tolle Entwicklung. Ich bin eben der Ansicht, dass zu dem Zeitpunkt, als die Volkswagenstiftung diese Ausschreibung gemacht hat,

00:13:59.563 --> 00:14:07.416
<v Matthias Spielkamp>da äh die einfach ihr Geld auf was anderes hätten verwenden sollen, weil da ähm die der.

00:14:07.158 --> 00:14:09.417
<v Tim Pritlove>Da war der Zug schön aus dem Bahnhof, ne?

00:14:09.117 --> 00:14:20.750
<v Matthias Spielkamp>Ja der war so, der war schon so erwachsen der Datenjournalismus, dass es das eigentlich nicht mehr brauchte. Die hätten das fünf Jahre früher machen müssen, ja und deswegen haben wir gesagt, wir reichen da was anderes ein.

00:14:21.935 --> 00:14:35.755
<v Tim Pritlove>Okay und dann war quasi der Name Algorishm Watch geboren. Damals gab's ja eine Menge äh Watch Blogs. Das war so glaube ich so ein bisschen die Zeit, so CDU-Watch hier und weiß nicht, gab noch so diverse alles musste auf einmal beobachtet werden.

00:14:36.158 --> 00:14:42.221
<v Tim Pritlove>Jetzt wird sozusagen zurücküberwacht. Ja und Ivorism Watch schaut auf Algorithmen.

00:14:42.017 --> 00:14:47.689
<v Matthias Spielkamp>Genau. Ja, also wir haben ja natürlich da geborgt, ähm ich ich weiß auch gar nicht,

00:14:47.894 --> 00:14:58.722
<v Matthias Spielkamp>Vielleicht finden andere das auch irgendwie ein bisschen banal, weil wie du richtig sagst, es gab ja Human Rights Watch schon und Abgeordneten Watch gab es schon und Foodwatch gab es schon, hätte er sagen können, oh Alter, das ist doch abgeschmackt,

00:14:58.812 --> 00:15:03.908
<v Matthias Spielkamp>aber irgendwie hat's für mich funktioniert, ja. Ich habe da drauf geguckt und habe gedacht.

00:15:04.401 --> 00:15:10.680
<v Matthias Spielkamp>Werden Leute verstehen und da werden Leute also in einer bestimmten Community natürlich erstmal nicht in einer großen Öffentlichkeit, ne, aber in.

00:15:10.380 --> 00:15:11.816
<v Tim Pritlove>Hab's gleich verstanden.

00:15:11.762 --> 00:15:17.086
<v Matthias Spielkamp>Ja, ne und es geht vielen so und das war natürlich eine Chance, weil,

00:15:17.356 --> 00:15:26.892
<v Matthias Spielkamp>Schon jetzt lange genug da zu dem Zeitpunkt auch in dieser Zivilgesellschaft und Gemeinnützigkeit unterwegs war, dass ich wusste, man braucht halt eine coole Story,

00:15:26.965 --> 00:15:32.901
<v Matthias Spielkamp>um auch Geldgeber zu überzeugen, dass da Musik drin ist, denn die braucht man. Ich wollte das nicht,

00:15:33.022 --> 00:15:41.122
<v Matthias Spielkamp>sage immer, ich, ich, ne, aber ich ist schon völlig klar. Wir haben das in dem Team gemacht, aber was für mich wichtig ist und war.

00:15:41.489 --> 00:15:45.070
<v Matthias Spielkamp>Ich war einfach fest davon überzeugt, dass wir das nicht als so eine Art.

00:15:45.479 --> 00:15:58.680
<v Matthias Spielkamp>Grasrudes ähm äh hier ehrenamtliche Initiative machen sollten. Das war nötig am Anfang, weil dir natürlich am Anfang niemand Geld dafür gibt. Aber es war von Anfang an das Ziel, dass wir da draußen eine,

00:15:58.861 --> 00:16:12.291
<v Matthias Spielkamp>professionell agierende, finanzierte Organisationen machen, die den Leuten, die da arbeiten, Geld dafür bezahlen kann, dass die da arbeiten, weil es nämlich sonst einfach versackt, ja. Es gibt viele,

00:16:12.568 --> 00:16:18.288
<v Matthias Spielkamp>gut gemeinte äh Initiativen, die von richtig guten Leuten gemacht werden.

00:16:18.853 --> 00:16:28.107
<v Matthias Spielkamp>Ich finde das dann wirklich auch oft schade zu sehen, wie die so vor sich hin mickern und zeigt da nicht irgendwie mit dem Finger drauf und sage, die sind doof, sondern es hat einfach was damit zu tun,

00:16:28.281 --> 00:16:37.823
<v Matthias Spielkamp>dass dann da die Leute fehlen, die sagen, ja aber ich setze mich halt auf den Hintern und schreibe irgendwelche Förderanträge, denn das macht den meisten Leuten keinen Spaß, aber wenn man's nicht macht,

00:16:38.076 --> 00:16:42.907
<v Matthias Spielkamp>dann ähm ja bleibt's eben häufig so ein vor sich hin kreblen.

00:16:42.835 --> 00:16:48.501
<v Tim Pritlove>Mhm. Das heißt, das ist dann auch eure primäre Finanzierungsmethode, Förderung.

00:16:48.814 --> 00:16:56.127
<v Matthias Spielkamp>Bisher ja, genau. Also wir haben dann angefangen Anträge zu schreiben und da will ich auch durchaus mal loben. Äh damals war,

00:16:56.320 --> 00:17:05.255
<v Matthias Spielkamp>Konrad Lischka, den glaube ich auch in der Szene noch viele kennen, der ja ein ziemlich äh prominenter Journalist war, der über Netzpolitik geschrieben hat. Ähm.

00:17:05.580 --> 00:17:14.238
<v Matthias Spielkamp>Der war gerade zur Bertelsmann Stiftung gewechselt und hat da so ein Feld zur Digitalpolitik ausgearbeitet und der hat denen dort,

00:17:14.479 --> 00:17:21.852
<v Matthias Spielkamp>Flow ins Ohr gesetzt, dass das mit den Algorithmen auch ein Thema ist und das eine Organisation ist, die man unterstützen sollte.

00:17:22.183 --> 00:17:24.778
<v Matthias Spielkamp>Und solche Leute sind da halt wahnsinnig wichtig.

00:17:25.350 --> 00:17:33.305
<v Matthias Spielkamp>Man da so jemanden hat, der das kapiert und äh eine Art Mentoring übernimmt in diese Organisationen auch hinein.

00:17:33.648 --> 00:17:39.434
<v Matthias Spielkamp>Denn wenn man da keine Verbündeten hat, dann ähm ja, ist es extrem schwierig. Und.

00:17:39.771 --> 00:17:50.389
<v Matthias Spielkamp>War halt äh von der Bertelsmann Stiftung und von der Hans-Böckler-Stiftung, die eine ähm grade so eine Forschungsausschreibung gemacht hatten zu Digitalisierung, Arbeit. Das waren halt die ersten.

00:17:51.050 --> 00:18:03.140
<v Matthias Spielkamp>Ähm Gelder, die wir bekommen haben und die haben's uns ermöglicht eben, ja, uns selber zu bezahlen und auch Angestellte zu bezahlen und da mal so anzufangen, so eine richtige Organisation aufzubauen.

00:18:03.050 --> 00:18:16.619
<v Tim Pritlove>Mhm. Und die ist auch gar nicht so klein. Also ihr habt äh ein relativ großes Team, wenn man eurer Webseite glauben darf. Da sind auf jeden Fall viele Köpfe äh genannt. Wissen, dass sie alles jetzt hauptamtliche Mitarbeiter oder wie setzt sich das zusammen?

00:18:16.895 --> 00:18:25.860
<v Matthias Spielkamp>Ja, tatsächlich, also wir wir schwindeln da nicht, ne und schreiben da quasi noch den den irgendwie äh äh keine Ahnung irgendwelche freiberuflichen,

00:18:25.981 --> 00:18:39.032
<v Matthias Spielkamp>Leute da drauf mit zwei Ausnahmen ähm und zwar der Andreas Eisenhower, der ist äh bei uns, der macht so Buchhaltungssachen und so. Das ist freiberuflich und Fabio, ein ganz toller Italiener, der auch in Italien richtig prominent ist, ist so ein.

00:18:39.712 --> 00:18:53.670
<v Matthias Spielkamp>So mit 60.000 Twitter-Followern, äh der war lange angestellt bei uns und äh er ist aber nach Italien zurückgegangen und im Moment ist er bearbeitet ja für uns auch freiberuflicher Basis. Aber die anderen, die da drauf stehen, sind wirklich alles Angestellte von.

00:18:53.479 --> 00:19:01.266
<v Tim Pritlove>Mhm. Ah, ich zähle siebenundzwanzig Leute. Das ist ja schon äh ist ja schon fast ein mittelständisches Unternehmen.

00:19:01.723 --> 00:19:06.422
<v Matthias Spielkamp>Ja mit dem mit dem entsprechenden äh Verwaltungsaufwand, der da dran hängt und.

00:19:06.122 --> 00:19:12.930
<v Tim Pritlove>Der aktivistische Mittelstand. Nee, ich finde das, ich finde das ja super. Ich meine äh wir kennen ja auch

00:19:12.744 --> 00:19:25.386
<v Tim Pritlove>die Erfolgsgeschichte von Netzpolitik org, die sich ja quasi so genau aus dieser äh freiwilligen Arbeit heraus äh gestartet äh haben, aber dann halt auch in zunehmenden Maße äh diese Finanzierungsproblematik reingekommen sind.

00:19:25.261 --> 00:19:29.701
<v Tim Pritlove>Kraft seiner Popularität und Professionalität ist es ihr auch gelungen, aber

00:19:29.611 --> 00:19:36.100
<v Tim Pritlove>halt auch viele Beispiele, wo das eben dann nicht funktioniert hat und der ganze Aktivismus so ein bisschen äh wieder dahinsiegt.

00:19:37.579 --> 00:19:51.117
<v Tim Pritlove>Das ist also eine gemeinnützige GmbH, damit wir's mal gesagt haben, ne, dass es äh so ist es aufgestellt und ja und ihr äh widmet euch der Beobachtung, ja ich weiß nicht, ich will jetzt nicht immer nur das Wort Algorithmen

00:19:50.937 --> 00:20:00.497
<v Tim Pritlove>bemühen, weil ich finde, dass allein drückt wahrscheinlich ja auch gar nicht aus, worauf ihr den Blick habt. Was was sind denn eure,

00:20:00.504 --> 00:20:08.838
<v Tim Pritlove>Themen, also wie geht ihr jetzt sozusagen an die Arbeit äh heran? Wie wie wie blickt ihr auf dieses Feld und wie organisiert ihr euch da?

00:20:09.199 --> 00:20:17.184
<v Matthias Spielkamp>Das ist natürlich völlig richtig und äh ich kann mir schon vorstellen, dass auch manche, die da grad zuhören, so innerlich ein bisschen die Augen verdrehen,

00:20:17.485 --> 00:20:30.050
<v Matthias Spielkamp>ne, so oh Algorithmen, ne und dann vielleicht auch KI und wat ein Unsinn, äh die äh weil ja doch das auch häufig sehr unspezifisch verwendet wird. Das ist natürlich eine Metapher, ne? Das ist ja klar.

00:20:30.201 --> 00:20:36.606
<v Matthias Spielkamp>Also äh klar gibt es Algorithmen und wir beschäftigen uns auch mit denen aber ähm was.

00:20:37.105 --> 00:20:41.131
<v Matthias Spielkamp>Für uns der Gegenstand ist unserer Beobachtung, ist das, was wir.

00:20:41.582 --> 00:20:49.411
<v Matthias Spielkamp>Beschreiben oder benennen mit automatisierte Entscheidungssysteme, automatisien making Systems, ne? Und das ist natürlich auch ziemlich abstrakt.

00:20:49.718 --> 00:20:57.866
<v Matthias Spielkamp>Aber was wir versuchen damit zum Ausdruck zu bringen, das ist halt ein Begriff, der in einer gewissen äh Wissenschaftscommunity auch schon ziemlich lange etabliert ist,

00:20:57.992 --> 00:21:06.994
<v Matthias Spielkamp>dass es Systeme gibt, an die halt menschliche Entscheidungen im Grunde genommen ausgelagert werden. Da können wir ja vielleicht gleich nochmal ein bisschen genauer drüber reden und,

00:21:07.012 --> 00:21:15.929
<v Matthias Spielkamp>Damit wird auch ein Teil von menschlicher Autonomie an die abgetreten und das ist etwas, was eben weitreichende Auswirkungen haben kann in der Gesellschaft und da,

00:21:16.170 --> 00:21:26.084
<v Matthias Spielkamp>wo wollen wir eben diese Watchdock Organisation sein? Und wir haben das in vier Felder aufgeteilt, thematisch. Das eine ist ähm ADM, nenne ich's jetzt mal einfach, Abkürzung,

00:21:26.283 --> 00:21:33.338
<v Matthias Spielkamp>in der öffentlichen Hand, ja, also wenn die Verwaltung das verwendet, Verwaltung heißt durchaus auch in dem Fall Sicherheitsbehörden.

00:21:33.939 --> 00:21:40.290
<v Matthias Spielkamp>Aber schon auch die ganz normale Verwaltung in Anführungszeichen, es muss also nicht nur um Geheimdienste und Polizei gehen.

00:21:40.663 --> 00:21:42.343
<v Tim Pritlove>Der Staat an sich, ne.

00:21:42.111 --> 00:21:43.379
<v Matthias Spielkamp>Der Staat, genau.

00:21:44.317 --> 00:21:56.562
<v Matthias Spielkamp>Ne ähm und dann äh ADM ähm äh in der äh in the publix vier das ist sehr schwer auf Deutsch zu übersetzen. Wir haben uns mal dann geeinigt auf öffentliche Meinungsbildung.

00:21:57.068 --> 00:22:07.848
<v Matthias Spielkamp>Da geht es dann um die großen Plattformen. Da geht's dann eben um äh Facebook und YouTube und TikTok und Twitter und so weiter und wie die Algorithmen und solche Systeme verwenden,

00:22:08.058 --> 00:22:14.728
<v Matthias Spielkamp>was das für eine Bedeutung hat für uns und dann ADM am Arbeitsplatz. Ähm das ist,

00:22:14.939 --> 00:22:24.132
<v Matthias Spielkamp>für uns im Moment nicht so, das möchten wir schon auch noch ändern, aber im Moment nicht so diese dieses ähm Gigwork und Plattformwork, so Uber und ähm.

00:22:24.439 --> 00:22:33.909
<v Matthias Spielkamp>Gorillas und so, sondern eher ähm was dann unter dem Begriff äh People Analytics häufig läuft, Systeme, mit denen man.

00:22:34.252 --> 00:22:40.068
<v Matthias Spielkamp>Die Performance von Menschen überwachen kann, versuchen kann, auch sie zu steuern und so weiter und so fort.

00:22:40.567 --> 00:22:50.644
<v Matthias Spielkamp>Das vierte und letzte ist dann Nachhaltigkeit und das ist natürlich auch ein sehr schwammiger Begriff, weil einerseits unter Nachhaltigkeit alles fällt, ja, also wenn man den.

00:22:51.089 --> 00:22:59.153
<v Matthias Spielkamp>UN-Begriff äh vereinte Nationen, ne und Nachhaltigkeitsziele anguckt, dann hat man da 17 verschiedene und da ist im Grunde genommen alles drunter.

00:22:59.556 --> 00:23:13.316
<v Matthias Spielkamp>Und gleichzeitig denken viele Leute über Nachhaltigkeit nur an Energieverbrauch und für uns ist diese Nachhaltigkeit von den Systemen eben fokussiert auf tatsächlich Energieverbrauch aber auch Arbeitsbedingungen die dazu,

00:23:13.485 --> 00:23:17.565
<v Matthias Spielkamp>die die im Zusammenhang stehen damit, dass solche Systeme erzeugt werden,

00:23:17.716 --> 00:23:31.139
<v Matthias Spielkamp>Und ähm auch also soziale und und ähm ökonomische Kriterien. Ja und das sind die vier Arbeitsfelder, bei denen wir gesagt haben, da müssen wir uns mal drauf fokussieren. Ich will vielleicht noch einen Satz sagen, das hört sich ja so an, so das ist ja irgendwie alles,

00:23:31.164 --> 00:23:32.798
<v Matthias Spielkamp>das stimmt längst nicht,

00:23:32.900 --> 00:23:47.201
<v Matthias Spielkamp>Äh ich wenn man zum Beispiel sagt äh hier ähm Gesundheit äh Mobilität ne, automatisiertes Fahren ähm autonome Waffen und so weiter. Da gibt's also schon zahlreiche Felder, bei denen wir sagen,

00:23:47.376 --> 00:23:52.976
<v Matthias Spielkamp>Kümmern wir uns nicht drum, nicht weil wir das uninteressant fänden, sondern weil wir einfach uns fokussieren müssen.

00:23:53.313 --> 00:24:03.041
<v Matthias Spielkamp>Nur um dem vielleicht manchmal entsteht der Eindruck, das ist doch quasi alles, aber das ist längst nicht alles, wo drum wir uns kümmern könnten, hm? Sondern äh schon auch eine Beschränkung.

00:24:03.571 --> 00:24:10.961
<v Tim Pritlove>Ja, ist ein weites Feld und ich denke mal, es gibt auch eine ganze Menge äh Überschneidungen zwischen diesen Bereichen und äh letzten Endes.

00:24:11.292 --> 00:24:20.191
<v Tim Pritlove>Dreht sich die Uhr ja auch weiter, also die die Themen erweitern sich ja in gewisser Hinsicht von äh alleine mit Military fahren wir jetzt hier gar nicht erst äh.

00:24:19.891 --> 00:24:21.543
<v Matthias Spielkamp>Nee.

00:24:21.622 --> 00:24:33.405
<v Tim Pritlove>Äh vielleicht ist das auch mal eine ganz gute Idee, das vielleicht auch mal nach diesen äh vier groben Kategorien weiter zu befassen. Vielleicht kannst du ja mal so ein paar Beispiele äh nennen

00:24:33.286 --> 00:24:39.042
<v Tim Pritlove>Womit ihr euch dann dann jeweils konkret beschäftigt. Also ja Automats sind

00:24:38.952 --> 00:24:46.860
<v Tim Pritlove>äh ADM mal als Begriff und äh los geht's halt mit der öffentlichen Hand, also Public äh Sektor.

00:24:46.878 --> 00:24:50.471
<v Tim Pritlove>Sagen wir mal so ein bisschen auch der Klassiker, ne? So äh,

00:24:50.622 --> 00:24:59.274
<v Tim Pritlove>wie sagte wow so schön so private Daten äh schützen öffentliche Daten nützen so und beim Nutzen dieser öffentlichen Daten ähm ja

00:24:59.070 --> 00:25:05.854
<v Tim Pritlove>wird ja auch alles zusammen äh gerührt, aber jetzt kommen wir ja quasi, also wenn du sagst ADM dann ist das ja,

00:25:05.951 --> 00:25:18.065
<v Tim Pritlove>ja okay, Algorithmen spielen dann eine Rolle, ne, aber ist natürlich auch schon mal generell die Frage, welche Daten werden überhaupt herangezogen und wie werden sie dann ausgewertet und vor allem sehe ich halt den Punkt so, welche,

00:25:18.167 --> 00:25:32.180
<v Tim Pritlove>Wirkmächtigkeit und Rechtskraft hat letzten Endes das, was äh eben die automatisierten Systeme schon mal äh vorauswerten und was wird dann einfach nur noch mit einem Stempel abgesegnet und und wer ist dann schuld, ne?

00:25:32.739 --> 00:25:42.473
<v Matthias Spielkamp>Ja, also da hast du schon einen ganz guten Abriss gegeben, auf jeden Fall. Es ist eben so, dass ähm in der öffentlichen Hand ja,

00:25:42.594 --> 00:25:50.940
<v Matthias Spielkamp>Bei uns jetzt in Deutschland die Digitalisierung nicht sehr weit vorangeschritten ist und viele aus dieser Szene bemängeln das ja auch. Wir wollen ja eigentlich,

00:25:50.953 --> 00:25:56.024
<v Matthias Spielkamp>alle eine viel bessere, besser aufgestellte öffentliche Hand, was Digitalisierung angeht,

00:25:56.097 --> 00:26:04.887
<v Matthias Spielkamp>ja nur jetzt auf die Coronapandemie zurückblicken und ne ähm man kann ja gar nicht mehr drüber lachen über die Faxgeräte in den Gesundheitsämtern.

00:26:05.200 --> 00:26:15.475
<v Matthias Spielkamp>Das ist ja ein Trauerspiel, ne? So und auf der anderen Seite ist es aber so, dass dort, wo die Verwaltung sich stärker schon digitalisiert hat und automatisiert hat, dass eben.

00:26:15.969 --> 00:26:24.339
<v Matthias Spielkamp>Massiv Probleme entstehen. Hm Beispiele etwa äh sind die Niederlande, wo die einfach.

00:26:24.778 --> 00:26:27.530
<v Matthias Spielkamp>Echt einen anderen Umgang haben. Das kann man schon so sagen.

00:26:28.167 --> 00:26:40.791
<v Matthias Spielkamp>Ähm da gibt es nicht so viel kritische Beobachtung und dann werden eben so Systeme entwickelt wie ja SYRI, das ist auch so ein risk äh so ein Risikomanagementsystem.

00:26:41.976 --> 00:26:51.920
<v Matthias Spielkamp>Das ist nicht äh lang eingesetzt worden, aber es ist ausprobiert worden, bis es dann auch durch ein Gerichtsverfahren gestoppt wurde und da wurde zum Beispiel versucht, einfach ganz viele Daten zusammenzuwerfen,

00:26:52.137 --> 00:26:58.236
<v Matthias Spielkamp>um dann mit Hilfe von einem so einem Automatisierungssystem, Analysesystem kann man's natürlich auch nennen,

00:26:58.387 --> 00:27:05.609
<v Matthias Spielkamp>herauszufinden, ob zum Beispiel jemand Sozialleistungsbetrug begeht. Ja, so als Beispiel, da hat jemand eine,

00:27:05.838 --> 00:27:17.976
<v Matthias Spielkamp>Wohnung äh also er hat eine er hat eine Meldeadresse und ähm bekommt jetzt also zum Beispiel eine Wohnsubvention dafür und dann stellen die fest über die Daten vom.

00:27:18.367 --> 00:27:29.243
<v Matthias Spielkamp>Wasserwerk, das sauber gar kein Wasser verbraucht wird. Ja und offenbar wohnt der Typ oder die Frau dann woanders und kassiert aber dafür Subventionen und dann wird da eingegriffen,

00:27:29.471 --> 00:27:33.353
<v Matthias Spielkamp>Das ist halt schon so ein natürlich ein Beispiel dafür.

00:27:33.894 --> 00:27:43.646
<v Matthias Spielkamp>Wie äh zum einen versucht wird, ja so eine Art äh Überwachungssystem einzurichten, das dann auch noch automatisiert Ergebnisse ausspuckt,

00:27:43.917 --> 00:27:55.496
<v Matthias Spielkamp>und auf der also was was wir problematisch finden und auf der anderen Seite ist es auch ein typischer Fall davon, dass solche Systeme häufig verwendet werden, also erstmal ausprobiert werden, wenn man so will, an den Schwächsten der Bevölkerung.

00:27:56.164 --> 00:28:07.887
<v Matthias Spielkamp>Und äh in in Holland. Also das System hat schon einige Schlagzeilen gemacht. Da hat's dann auch ein Gerichtsverfahren gegeben. Das ist auch erstmal ausgesetzt worden. Ähm wird aber weiterverfolgt von den Behörden,

00:28:08.140 --> 00:28:15.681
<v Matthias Spielkamp>Gab's aber noch in vielen drastischeren Fall, da ist nämlich auch mit so einem automatisierten System ähm sind.

00:28:16.000 --> 00:28:28.005
<v Matthias Spielkamp>Ähm Kindergeldzahlungen zurückgefordert worden und das war in ganz vielen Fällen vollständig ungerechtfertigt und es waren auch Summen, die waren sehr hoch und da sind Leute wirklich in extreme Existenzängste gekommen. Es soll sogar.

00:28:28.631 --> 00:28:40.234
<v Matthias Spielkamp>Selbstmorde gegeben haben aus dem Grund, weil die Leute halt irgendwelche hochrenten Nachforderungen, also Rückforderungen bekommen haben und gedacht haben, das werde ich nie leisten können, ja und ich sehe da keinen Ausweg,

00:28:40.421 --> 00:28:47.084
<v Matthias Spielkamp>Solche Beispiele sieht, dann muss man natürlich sagen, das gibt's alles in Deutschland nicht, das ist gut, dass das so ist, ja, aber es hat.

00:28:47.734 --> 00:28:58.363
<v Matthias Spielkamp>Wahrscheinlich noch nicht so wahnsinnig viel damit zu tun, dass die deutsche Verwaltung so super ethisch ist, sondern dass einfach noch nicht so viel digitalisiert ist und dass noch nicht so viele Ideen entwickelt wurden. Also ich will damit jetzt nicht sagen.

00:28:59.025 --> 00:29:04.913
<v Matthias Spielkamp>Ich habe die alle in Verdacht, dass die solche schlimmen Systeme entwickeln wollen. Es ist ja auch häufig,

00:29:05.082 --> 00:29:15.813
<v Matthias Spielkamp>bei diesem Kindergeld ähm Ding ist es ja meistens auch ein Fehler. Das ist ja da steckt ja keine Absicht dahinter, dass jetzt jemand dafür sorgen will, dass das passiert,

00:29:16.042 --> 00:29:18.932
<v Matthias Spielkamp>aber ähm es fehlt eben an.

00:29:19.353 --> 00:29:27.020
<v Matthias Spielkamp>Aufmerksamkeit und Sensibilität dafür und es fehlt an Mechanismen, um dafür zu sorgen, dass das nicht schief geht,

00:29:27.273 --> 00:29:36.106
<v Matthias Spielkamp>Und das ist halt unser Anliegen. Wir wollen Digitalisierung, ja, aber sie muss halt so gemacht werden, dass das nicht passieren darf äh kann.

00:29:35.806 --> 00:29:41.412
<v Tim Pritlove>Du möchtest Digitalisierung mit menschlichem Anschätzen?

00:29:38.582 --> 00:29:48.389
<v Matthias Spielkamp>Genau, ja. Nein, wir möchten nicht nur menschliches Antlitz, ne, sondern wir möchten, dass die Rechte der Menschen äh geachtet werden.

00:29:48.449 --> 00:29:58.917
<v Tim Pritlove>Schon klar. Ja ich sehe gerade, die Jury ist dann auch vom äh europäischen Menschen äh äh Rechte Gerichtshof äh gestoppt worden.

00:29:59.320 --> 00:30:08.645
<v Matthias Spielkamp>Nee, das war schon ein Gericht in den in den Niederlanden, aber der äh europäische Menschenrechtsgerichtshof äh also die die haben da drauf verwiesen, dass

00:30:08.538 --> 00:30:17.947
<v Matthias Spielkamp>dass äh also jetzt oh es kann das ist eine Weile her nicht, dass ich jetzt was Falsches sage, aber ich meine der äh Menschenrechtsgerichtshof hätte sich nicht damit befasst,

00:30:18.086 --> 00:30:24.623
<v Matthias Spielkamp>haben nur die Argumentation äh aufgegriffen, von dort zu sagen ähm das ist eben,

00:30:24.792 --> 00:30:30.128
<v Matthias Spielkamp>eine ähm Privatsphäre ähm äh ein Privatsphäre eingriff, was in dem Fall,

00:30:30.236 --> 00:30:35.632
<v Matthias Spielkamp>der damit mit der Menschenrechtskonvention nicht in Übereinstimmung ist. So habe ich das in Erin.

00:30:35.332 --> 00:30:41.154
<v Tim Pritlove>Ja, ich sehe jetzt hier grad einen Bericht, dass es da durchaus ein äh Urteil in Den Haag äh vom.

00:30:41.365 --> 00:30:46.358
<v Matthias Spielkamp>Das meine ich. Das ist ein holländisches richtig. Das ist ein holländisches äh ähm Gericht gewesen.

00:30:46.058 --> 00:30:54.332
<v Tim Pritlove>Genau das ist das ist das ist nicht mit den Menschenrechten äh quasi konform läuft so äh das genauso rum.

00:30:54.447 --> 00:31:02.499
<v Tim Pritlove>Ja, ne? Es ist äh ja, das ist äh interessant, ne, weil das natürlich auch alles so ein potentieller Zauber-Lehrlings- äh Moment sein kann, ne. Also wir wünschen

00:31:02.295 --> 00:31:15.574
<v Tim Pritlove>immer irgendwie, dass der Besen schön automatisch tanzt und warum läuft denn das nicht, aber äh wenn er dann halt anfängt äh durchzudrehen und man weiß nicht mehr, wie man die Maschine stoppen kann, dann ist es uns natürlich dann auch nicht recht und äh insofern

00:31:15.419 --> 00:31:19.522
<v Tim Pritlove>ist vielleicht manchmal die schleichende Digitalisierung gar nicht so schlecht

00:31:19.312 --> 00:31:30.086
<v Tim Pritlove>weil äh es nicht unbedingt äh besser wird. Und das ist natürlich immer diese klassische Abwägung, ne zwischen Chancen und Risiken, die wir immer äh haben bei der äh Anwendung von Technologie.

00:31:30.549 --> 00:31:40.241
<v Tim Pritlove>Äh die sich natürlich hier dann auch äh niederschlägt. Okay, das war jetzt ein Beispiel aus Holland. Gab's denn auch schon äh ein entsprechendes Thema in Deutschland? Vermutlich ja, ne?

00:31:39.996 --> 00:31:47.567
<v Matthias Spielkamp>Ja also äh so was eben nicht, ne, dass da wirklich schon so sozusagen äh hier die,

00:31:47.783 --> 00:31:55.499
<v Matthias Spielkamp>die die durchschnittlichen deutschen oder in Deutschland lebenden Menschen davon betroffen gewesen wären, was in,

00:31:55.691 --> 00:32:05.432
<v Matthias Spielkamp>aber eben passiert ist, das werden einige ja auch kennen durch vor allen Dingen Berichterstattung bei Netzpolitik ist, äh dass das BAMF, also das ähm ähm.

00:32:06.111 --> 00:32:20.160
<v Matthias Spielkamp>Bundesamt für äh äh Migration und und Flüchtlinge äh so eine automatische Dialekterkennung verwendet, die hochumstritten ist, ne? Weil da ist auch eben äh so ist, dass das wissenschaftlich gesehen auf echt,

00:32:20.299 --> 00:32:26.019
<v Matthias Spielkamp>tönernen Füßen steht, ja, dann gibt es predictive Policing in Deutschland, in vielen Bundesländern,

00:32:26.278 --> 00:32:30.309
<v Matthias Spielkamp>wird das eingesetzt. Das ist diese Idee, dass man jetzt nicht,

00:32:30.508 --> 00:32:45.320
<v Matthias Spielkamp>individuelle Straftäter innen identifizieren kann, sondern dass man versucht durch statistische Methoden und eben auch und so weiter auf Grundlage von vorliegenden Kriminalitätsdaten rauszufinden, wo werden jetzt in Zukunft mehr,

00:32:45.609 --> 00:32:52.753
<v Matthias Spielkamp>Verbrechen begangen, zum Beispiel Autodiebstahl, Einbruch und dergleichen und dann wird dort eben verstärkt patrouilliert.

00:32:53.060 --> 00:33:01.761
<v Matthias Spielkamp>Könnte man ja auch erst mal sagen. Ist doch eine wahnsinnig gute Idee, ne, aber ich glaube, mit ein bisschen fantasiefallen einem auch sofort mögliche Probleme ein,

00:33:01.923 --> 00:33:14.662
<v Matthias Spielkamp>dann eben zum sogenannten Overpolicing kommt und so einen selbstverstärkenden Effekt hat, da wo Kriminalität schon ein bisschen höher ist, wird halt stärker patrouilliert, dann wird mehr Kriminalität entdeckt als woanders, wo nicht patrouilliert wird, ne und dann,

00:33:14.759 --> 00:33:20.984
<v Matthias Spielkamp>man so eine Ghettobildung, also um es jetzt mal wirklich ein bisschen zuzuspitzen, aber um den Mechanismus zu beschreiben.

00:33:22.066 --> 00:33:28.519
<v Matthias Spielkamp>Das passiert in Deutschland schon und es werden auch in Deutschland automatisiert äh Steuerbescheide erlassen und.

00:33:29.264 --> 00:33:34.131
<v Matthias Spielkamp>Das ist zum Beispiel eine ganz interessante Geschichte, weil man da auch sagen muss.

00:33:34.775 --> 00:33:44.852
<v Matthias Spielkamp>Wir haben ja viele Forderungen eben in erster Linie nach Transparenz, ne, dass es ganz wichtig ist, dass man weiß, wo das verwendet wird und auch auf welche Art und Weise und dass da natürlich ein typisches Argument ist,

00:33:44.954 --> 00:33:50.560
<v Matthias Spielkamp>also bei den Sicherheitsbehörden, die sagen natürlich auch immer, wir können da keine Auskunft drüber geben und das ist hochumstritten,

00:33:50.795 --> 00:33:57.315
<v Matthias Spielkamp>da würden glaube ich viele in der Szene sagen ja ja das ist immer so vorgeschützt ne? Die wollen nur einfach nicht gestört werden,

00:33:57.501 --> 00:34:09.741
<v Matthias Spielkamp>jetzt zum Beispiel bei den ähm bei den Steuerbescheiden ist es ja auch so, dass die keine Transparenz wirklich darüber herstellen wollen, weil das ja auch genau zu diesem Gaming-the-System Effekt führen könnte.

00:34:09.621 --> 00:34:13.359
<v Tim Pritlove>Wenn man weiß, wie der Algorithmus funktioniert, dann kann man ihn auch leichter umgehen.

00:34:13.539 --> 00:34:24.884
<v Matthias Spielkamp>Richtig, so ist es, ne, so Stichwort äh oder oder Methode Serge Engine Optimization, ne? Je besser du weißt, wie der Googlesuchalgorithmus funktioniert, desto besser kannst du deine eigene Website platzieren und so wäre das natürlich dort auch.

00:34:24.884 --> 00:34:33.892
<v Tim Pritlove>Mhm. Ja dann äh dann kriegt SEO eine ganz neue Bedeutung, weil das ja so so Steuer äh Optimierung äh ist sozusagen, ne.

00:34:32.901 --> 00:34:36.950
<v Matthias Spielkamp>Genau. Ja, SBO, Steuerbescheid, ob.

00:34:36.939 --> 00:34:43.536
<v Tim Pritlove>Ja ja und ich meine in gewisser Hinsicht wird das ja auch.

00:34:43.843 --> 00:34:48.788
<v Tim Pritlove>Schon so gemacht. Ich meine, Leute, die sich gut im Steuerrecht auskennen, ne, äh.

00:34:48.518 --> 00:34:50.380
<v Matthias Spielkamp>Genau so ist es. Ja ja, genau.

00:34:49.215 --> 00:34:59.965
<v Tim Pritlove>Rechtsanwälte et cetera, Steuerberater, die kennen natürlich diese ganzen Lücken und wir hatten das ja hier so mit Cum-Ex und solchen äh Vorfällen ja auch. Also es gibt ja schon immer Leute, die.

00:35:00.542 --> 00:35:06.851
<v Tim Pritlove>Ihr Geld damit äh wie soll ich sagen, ganz gut beisammenhalten, um's mal zurückhaltend auszudrücken

00:35:06.683 --> 00:35:20.714
<v Tim Pritlove>äh weil sie eben das System gut kennen. Das ist ja in dem Sinne auch nicht verboten, das System gut äh zu kennen. Bloß in dem Moment, wo es ja large, Scale und automatisiert ist, äh hat das natürlich gleich ganz andere Auswirkungen.

00:35:21.118 --> 00:35:27.679
<v Matthias Spielkamp>Ja äh und das ist aber ein guter Punkt, weil man hier ja zum Beispiel sogar argumentieren könnte,

00:35:27.926 --> 00:35:41.356
<v Matthias Spielkamp>dass die dass es da eine eine von diesen Möglichkeiten gibt. Es gibt ja viele, die sagen, ja aber man kann doch die Gerechtigkeit äh und die Diskriminierungsfreiheit und so weiter kann man ja verbessern durch automatisierte Systeme.

00:35:41.813 --> 00:35:49.942
<v Matthias Spielkamp>Das würden wir eben auch prinzipiell immer sagen, ja, ja, das stimmt, ja, nur leider finden wir so wenig Beispiele dafür, wo das tatsächlich gemacht wird und gelingt,

00:35:50.159 --> 00:36:02.988
<v Matthias Spielkamp>und bei den bei der Steuergeschichte ist es ja so, da gibt es ja ein Potenzial. Ich meine, wir beklagen uns dadrüber, dass solche Systeme häufig angewendet werden, wie ich eben beschrieben habe, äh auf vor allen Dingen eben,

00:36:03.199 --> 00:36:12.951
<v Matthias Spielkamp>ähm benachteiligte Gruppen und Menschen. Und bei dieser ähm Steuerüberprüfung da wäre ja die Chance da.

00:36:13.300 --> 00:36:21.760
<v Matthias Spielkamp>Leuten auf die Schliche zu kommen, ne, die versuchen also mit unerlaubten Methoden, die äh das zu optimieren.

00:36:22.151 --> 00:36:28.641
<v Matthias Spielkamp>Gleichzeitig ist aber auch dann wieder ein sehr gutes Beispiel dafür. Da mache ich noch mal ein großes Fass auf, aber das ist notwendig.

00:36:29.152 --> 00:36:38.123
<v Matthias Spielkamp>Dass man jetzt auch nicht den Fehler machen darf, immer nur dann zum Beispiel auf diese Systeme und auf diese Technik draufzugucken denn du hast es selber angesprochen.

00:36:38.640 --> 00:36:50.333
<v Matthias Spielkamp>Vieles von dem, was zur Steuervermeidung gemacht wird, ist legal, aber du kannst es nur dann ausnutzen, wenn du erstens schon sowieso viel Geld hast, wenn du Möglichkeiten hast, zum Beispiel, was weiß ich, deine Gewinne inne,

00:36:50.490 --> 00:36:54.168
<v Matthias Spielkamp>GmbH auszulagern oder weiß der Kuckuck, was es alles für Tricks gibt.

00:36:54.600 --> 00:37:04.257
<v Matthias Spielkamp>Dem wird man natürlich nicht Herr werden, wenn man dann eine eine tolle Automatisierte ähm äh Software hat.

00:37:04.642 --> 00:37:09.304
<v Matthias Spielkamp>Die sozusagen Betrug erkennt, weil der nach dem Motto was ist,

00:37:09.545 --> 00:37:21.563
<v Matthias Spielkamp>was ist es, eine Bank auszurauben, dagegen eine Bank zu gründen, ne? Wenn man natürlich gleichzeitig sagen kann, ich habe hier ganz andere Methoden, ähm das System auszunutzen und die sind alle völlig legal.

00:37:22.651 --> 00:37:31.796
<v Tim Pritlove>Solche Algorithmen, also ich habe natürlich da auch keinen Einblick. Äh ist alles so ein bisschen äh hören sagen, aber es gibt ja so ein paar Klassiker, ne, also dass man,

00:37:31.887 --> 00:37:34.524
<v Tim Pritlove>Steuererklärung, Buchhaltung,

00:37:34.573 --> 00:37:44.481
<v Tim Pritlove>Zum Beispiel äh also wenn man jetzt so eine Bilanz hat oder so oder halt auch wirklich mal alle Buchungen äh durchgeht und einzeln überprüft, dann kann man ja also äh statistische Häufungen von Endziffern

00:37:44.320 --> 00:37:50.322
<v Tim Pritlove>machen und solche äh Sachen, ne, die schon mal so erste Hinweise äh liefern für hier könnte ein Anfangsverdacht,

00:37:50.461 --> 00:38:01.379
<v Tim Pritlove>vorliegen. Das ist ja sicherlich an der Stelle auch eine ganz sinnvolle Sache, um überhaupt erst mal professionelle äh Untersucher solcher äh Dokumente dann äh

00:38:01.253 --> 00:38:07.148
<v Tim Pritlove>auf eine Fährte zu schicken, aber ist natürlich ganz was anderes, wenn das vollständig so läuft. Du hast jetzt gesagt, es gibt

00:38:07.034 --> 00:38:12.772
<v Tim Pritlove>das schon voll automatisierte Steuerbescheide. Was was gibt es da schon?

00:38:13.511 --> 00:38:19.971
<v Matthias Spielkamp>Es werden in Deutschland äh Steuerbescheide automatisiert erstellt. Also du gibst deine Steuererklärung ab und da guckt kein Mensch mehr drauf,

00:38:20.236 --> 00:38:25.187
<v Matthias Spielkamp>sondern du bekommst irgendwann Bescheid und der ist im Grunde genommen von von einer Maschine erstellt worden.

00:38:25.752 --> 00:38:38.707
<v Matthias Spielkamp>Und äh da da sagen wir eben auch, das ist prinzipiell erstmal gar nicht problematisch, weil äh jetzt in dem konkreten Fall etwas garantiert ist, wofür wir uns woanders immer einsetzen, nämlich dass es.

00:38:39.471 --> 00:38:47.438
<v Matthias Spielkamp>Ausreichende Widerspruchsmöglichkeiten gibt, ne? Also ich meine guck dir das aus der Nutzerperspektive an. Du bekommst deinen Steuerbescheid und,

00:38:47.697 --> 00:38:57.660
<v Matthias Spielkamp>kennst ja normalerweise den Sachbearbeiter oder die Sachbearbeiterin auch nicht, die den erstellt hat und dann ist es halt deine Aufgabe, dir den anzugucken und zu überlegen, ob der jetzt in Ordnung ist oder ob da Fehler gemacht wurden,

00:38:57.889 --> 00:39:07.521
<v Matthias Spielkamp>Wenn du aber der Ansicht bist, dass das der Fall ist, dann kannst du, hast du eben auch ein Verfahren, ja? Das heißt, du legst da einen Widerspruch ein und dann muss das geprüft werden und so weiter.

00:39:07.629 --> 00:39:20.386
<v Matthias Spielkamp>Und wir sehen halt das Problem, dass es in vielen Fällen, wo so eine Automatisierung stattfindet, diese vernünftigen Verfahren nicht gibt. Es gibt keine Transparenz darüber, dass das gemacht wird und du weißt auch gar nicht, wie du Widerspruch einlegen sollst.

00:39:20.609 --> 00:39:22.591
<v Matthias Spielkamp>Das ist bei dem Steuersystem.

00:39:23.199 --> 00:39:31.641
<v Matthias Spielkamp>Ja, ich will das jetzt nicht in zu rosigen äh Tönen malen, aber äh das ist schon in Ordnung, weil ähm,

00:39:31.846 --> 00:39:38.984
<v Matthias Spielkamp>du guckst ja dann da drauf und stellst fest, da ist irgendwas nicht in Ordnung und dann legst du einen Widerspruch an, dann guckt sich das auch ein Mensch an.

00:39:39.796 --> 00:39:42.343
<v Matthias Spielkamp>Da sagen wir, ist in Ordnung, kann man machen.

00:39:43.251 --> 00:39:51.507
<v Tim Pritlove>Wir hatten auch bei Lobby äh schon ja auch ab und zu mal nach Österreich. Da gab's ja diesen äh Fall mit diesem ähm hieß das äh.

00:39:51.207 --> 00:39:52.457
<v Matthias Spielkamp>AMS, Algori.

00:39:52.157 --> 00:40:03.075
<v Tim Pritlove>Genau, HMS in diesem Jobcenter genau, wo so Leute quasi für bestimmte Qualifikationen vorausgewählt wurden durch so einen,

00:40:03.153 --> 00:40:10.069
<v Tim Pritlove>äh System Machine und KI müssen wir sicherlich auch nochmal,

00:40:10.111 --> 00:40:22.832
<v Tim Pritlove>sprechen, aber hier konkret, das ist ja dann auch unter die Räder gekommen das System, weil das irgendwie einfach im Prinzip ja auch immer so diesen diesen inneliegenden den diese Datenwelten dann äh haben, nur noch verstärkt hat.

00:40:23.530 --> 00:40:31.005
<v Matthias Spielkamp>Ja, es war sehr umstritten, es war ganz interessant, weil das auch in Österreich wirklich mal Schlagzeilen gemacht hat. Ja, so normalerweise.

00:40:31.967 --> 00:40:40.102
<v Matthias Spielkamp>Sowas ja nicht auf die Titelseiten, aber dieses AMS-Ding, das war schon ganz schön umstritten. Und ähm und das liegt da dran, dass.

00:40:40.884 --> 00:40:53.893
<v Matthias Spielkamp>Halt die Leute, die sich das angeschaut haben mit einem kritischen Blick gesagt haben, da läuft was falsch und zwar ähm gibt es da so ein Punktesystem und das Ziel erstmal zu nennen. Es ging dadrum, rauszufinden.

00:40:54.284 --> 00:41:06.903
<v Matthias Spielkamp>Ob Menschen zur Wiedereingliederung in den Arbeitsmarkt, wie es so schön heißt, bestimmte Förderungen bekommen sollten, also etwa Fortbildung und keine Ahnung äh Bewerbungstrainings und so was, ne, so wie es das ja hier auch gibt.

00:41:07.600 --> 00:41:16.782
<v Matthias Spielkamp>Dann haben die versucht, das insofern zu automatisieren, dass sie ähm auf so einer Datenanalyse eben versucht haben rauszufinden.

00:41:17.113 --> 00:41:26.751
<v Matthias Spielkamp>Wer hat denn jetzt sehr, sehr gute Chancen wieder sich zu integrieren, also wieder einen Job zu finden? Die bekommen keine Leistung. Wer hat ganz lausige Chancen? Die bekommen auch keine Leistung, weil,

00:41:26.866 --> 00:41:30.615
<v Matthias Spielkamp>man hat nicht genug Geld, um allen was zu geben, ne? Ist die Argumentation,

00:41:30.705 --> 00:41:43.330
<v Matthias Spielkamp>Also sucht man sich die raus, bei denen das Potenzial am größten ist und beziehungsweise dann eben auch die das Verhältnis, ne, weil das Potenzial äh ist natürlich bei den bei der ersten Gruppe am größten, aber die muss man dann eben auch nicht unterstützen,

00:41:43.577 --> 00:41:44.195
<v Matthias Spielkamp>und.

00:41:44.568 --> 00:41:53.605
<v Matthias Spielkamp>Dann kam halt raus, dass zum Beispiel Frauen ähm so eine Art Negativpunkt bekommen haben oder einen Punktabzug dafür, dass sie,

00:41:53.900 --> 00:42:02.841
<v Matthias Spielkamp>Leistungen erbringen müssen, also dass sie halt zum Beispiel auf Kinder aufpassen und dergleichen, ja? Und das wurde aber bei Männern nicht äh gemacht und.

00:42:03.485 --> 00:42:13.658
<v Matthias Spielkamp>Da hat man natürlich sofort den Eindruck, hey, da wird also genau die Diskriminierung, die in der Gesellschaft sowieso schon da ist, wird da nicht wird da zum einen widergespiegelt und zum anderen dadurch auch noch verstärkt.

00:42:14.067 --> 00:42:27.569
<v Matthias Spielkamp>Macher dieses Systems, die haben das mit Zähnen und Clown verteidigt und ich finde den Fall deshalb interessant, weil ich es auch gar nicht so eindeutig finde, weil einerseits war sozusagen klar, dass da diskriminiert wurde und dass das auch nicht geht.

00:42:28.447 --> 00:42:38.427
<v Matthias Spielkamp>Auf der anderen Seite haben die aber immer argumentiert, ja, aber wir haben begrenzte Ressourcen und was wir versuchen, ist eben diese Optimierung und am Ende.

00:42:39.040 --> 00:42:45.259
<v Matthias Spielkamp>Ist kein, also sozusagen, es ist dieser Unterschied zwischen Disprit Treatment und Disprit Impact, wie die Amerikaner das.

00:42:45.596 --> 00:42:49.658
<v Matthias Spielkamp>Also du du hast ähm einerseits eine Ungleichbehandlung,

00:42:49.760 --> 00:42:56.250
<v Matthias Spielkamp>aber du hast nicht ein ungleiches Ergebnis. Also du hast kein diskriminierendes Ergebnis. War, wie gesagt, die Behauptung der Macher.

00:42:56.545 --> 00:43:07.427
<v Matthias Spielkamp>Das Ding ist nie eingesetzt worden, weil es erst diesen ganzen Streit gab und Gerichtsverfahren da drum und dann Corona kam und man dann die Grenze sozusagen Datenbasis auf den Müll werfen konnte.

00:43:07.758 --> 00:43:17.654
<v Matthias Spielkamp>Weil das auf einmal alles nicht mehr stimmte. Und ähm deswegen ja ist der Streit für mich tatsächlich so ein bisschen offen, muss ich sagen. Also auch wenn.

00:43:17.979 --> 00:43:23.898
<v Matthias Spielkamp>Viele in der Szene so ganz, dass so ganz eindeutig finden, ich finde es weiterhin nicht so ganz eindeutig.

00:43:24.457 --> 00:43:29.300
<v Matthias Spielkamp>Aber ähm ja, es war ein gutes Beispiel, ne, für so einen Streit, der da entstehen kann.

00:43:29.757 --> 00:43:34.696
<v Tim Pritlove>Sicherlich auch ein gutes Beispiel für Streit, der auch noch äh kommen wird. Also ich meine, das ist so

00:43:34.582 --> 00:43:48.372
<v Tim Pritlove>jetzt nicht der letzte Ansatz gewesen sein und du hast schon Recht. Ich meine, dieser Wunsch nach Optimierung bei manchen Themen versuche ich auch oft mich immer so in diese Situation äh zu versetzen, so was würde ich denn eigentlich gerne haben,

00:43:48.463 --> 00:43:50.950
<v Tim Pritlove>Wenn ich jetzt morgen Bundeskanzler bin.

00:43:50.801 --> 00:43:53.300
<v Matthias Spielkamp>Mhm, das ist eine super Übung, finde ich auch.

00:43:53.000 --> 00:43:55.253
<v Tim Pritlove>Und äh

00:43:55.139 --> 00:44:04.681
<v Tim Pritlove>das Erste, was mir sozusagen in den Sinn käme, wäre, ich möchte jetzt gerne mal solide Daten haben dadrüber, was unser Staat eigentlich genau tut.

00:44:05.150 --> 00:44:13.028
<v Tim Pritlove>Und selbstverständlich aus dieser Perspektive möchte man natürlich möglichst viele, möglichst detaillierte Daten, die

00:44:12.938 --> 00:44:26.410
<v Tim Pritlove>möglichst alles umfassen haben. Nicht, dass man das alles sofort anfassen kann und so weiter, aber äh es ist ja äh auch eine Erfahrung, wenn man jetzt so wie wie wir ja so aus dieser Computer äh Netzprägung herauskommen,

00:44:26.705 --> 00:44:39.618
<v Tim Pritlove>Aber erstmal sagt so, ja, dass dass man die Daten anschauen und äh dann analysieren wir das so ein bisschen, ja, Stichwort auch äh Datenjournalismus, so das Relevante äh äh aus den aus den Basisdaten herausfinden, um dann,

00:44:39.649 --> 00:44:44.593
<v Tim Pritlove>eine Entscheidung zu fällen, die halt auch in ist.

00:44:45.093 --> 00:45:00.746
<v Tim Pritlove>Davon ausgehen, dass die Daten dann auch korrekt erhoben sind et cetera, das ist natürlich nochmal andere Problematik und warum dann eben auch nicht den nächsten Schritt gehen und sagen, ja gut, so das das sind alles sehr viele Daten, die ändern sich am laufenden Meter, äh da kommt die ganze Zeit was dazu

00:45:00.560 --> 00:45:15.594
<v Tim Pritlove>können uns nicht immer wieder äh viel Zeit nehmen, um sie sich in Gänze anzuschauen, dann sind sie schon wieder veraltet in dem Moment, wo wir die ersten Schlüsse gezogen haben. Das schreit ja in gewisser Hinsicht nach Automatisierung. Also es ist ja ein valides Ziel.

00:45:15.450 --> 00:45:21.477
<v Tim Pritlove>Solche Systeme auch zu haben, aber die eigentliche Frage ist, in welchem Rahmen,

00:45:21.760 --> 00:45:28.069
<v Tim Pritlove>Sollen sie halt, also auch in welchem Rechtsrahmen sollen sie eigentlich auch laufen und gibt's da irgendwo,

00:45:28.088 --> 00:45:36.932
<v Tim Pritlove>moralisch ethische äh Grenzen, die man nicht überschreiten darf, ne. Das ist ja eigentlich der sofort aufkommende Fragenkatalog.

00:45:37.540 --> 00:45:44.756
<v Matthias Spielkamp>Exakt und der ist natürlich auch nicht einfach zu beantworten oder er ist abschließend sowieso nicht zu beantworten.

00:45:45.382 --> 00:45:55.657
<v Matthias Spielkamp>Ähm aber ich will's mal aufgreifen. Also das eine ist eben, du hast es selber gesagt, nur man möchte eigentlich viele Daten haben. Ich fand das so ganz interessant, die Piratenpartei hat bei der letzten Bundestagswahl.

00:45:55.970 --> 00:46:02.994
<v Matthias Spielkamp>Ich kann das jetzt nicht exakt hersagen, aber ungefähr so meine ähm mein Geschlecht geht den Staat nichts an.

00:46:03.487 --> 00:46:05.137
<v Tim Pritlove>Ja.

00:46:04.010 --> 00:46:05.944
<v Matthias Spielkamp>Dran erinnern, an solche Plakate, ne.

00:46:06.359 --> 00:46:15.781
<v Matthias Spielkamp>Und äh die also meine Vermutung ist Wald, ne, dass das so gedacht war, wie äh hört mal, das ist meine Privatsphäre. Ihr haltet euch da bitte raus und.

00:46:16.130 --> 00:46:25.582
<v Matthias Spielkamp>Ähm ja ich möchte jetzt nicht dann zum Beispiel diskriminiert werden, weil ich eine Lesbe bin oder weil ich ein Schwuler bin oder weil ich irgendwie Trans bin oder sowas.

00:46:26.153 --> 00:46:29.950
<v Matthias Spielkamp>Aber meiner Ansicht nach ist das total verkorkst, weil ähm.

00:46:30.816 --> 00:46:42.329
<v Matthias Spielkamp>Wie soll man denn antidiskriminierung sozusagen äh also zum Beispiel aktivistisch betreiben oder auch äh von staatlicher Seite, wie soll man für eine größere Gerechtigkeit sorgen, wenn man die Informationen nicht hat.

00:46:42.714 --> 00:46:49.552
<v Matthias Spielkamp>Also, wie kann ich denn rausfinden, wie zum Beispiel ähm also ob etwa Frauen am in Führungspositionen,

00:46:49.811 --> 00:46:59.269
<v Matthias Spielkamp>benachteiligt werden, wenn ich weder die also wenn ich sozusagen einerseits nicht nicht erheben darf ähm welchen Geschlecht jetzt die Führungsperson ist.

00:46:59.906 --> 00:47:04.232
<v Matthias Spielkamp>Und dann dadrauf keine Entscheidung treffen kann. Das ist ein Dilemma.

00:47:04.539 --> 00:47:18.840
<v Matthias Spielkamp>Ich sage jetzt auch nicht, das ist einfach alles total leicht aufzulösen. Das ist es nämlich nicht, ne? Wenn wir das so bei diesem ganzen racial Profiling zum Beispiel sehen, bei der Polizei, ja in anderen Ländern werden halt ganz klare Daten erhoben ähm.

00:47:19.454 --> 00:47:32.781
<v Matthias Spielkamp>Nach zum Beispiel ähm Fmisity, ne, also die Polizei kontrolliert und die muss dann auch dokumentieren, war das jetzt eine schwarze Person oder war das war sie Spanic oder so was in der Art,

00:47:32.908 --> 00:47:36.339
<v Matthias Spielkamp>Wird in Deutschland nicht gemacht und ähm man.

00:47:36.730 --> 00:47:50.442
<v Matthias Spielkamp>Neigt glaube ich dazu, sofort zu sagen, ja aber das ist doch auch irgendwie eine diskriminierende äh Policy, die da betrieben wird, aber auf der anderen Seite kriegt man auf die Art und Weise natürlich auch raus, wie die Polizei gehandelt hat und dann konnte man rausfinden, dass in New York etwa,

00:47:50.569 --> 00:47:58.722
<v Matthias Spielkamp>ein totales Oberpolicing stattgefunden hat, also nicht, dass das jetzt eine Überraschung war, aber man konnte es eben auch empirisch belegen, ja, dass ein totales Oberpolicing von,

00:47:58.873 --> 00:48:06.120
<v Matthias Spielkamp>Blacks und Hispinics ähm passiert ist, ne? Die also dauernd äh auf der Straße angehalten und durchsucht wurden.

00:48:06.342 --> 00:48:16.978
<v Matthias Spielkamp>Ähm und das den tatsächlichen ähm also den tatsächlichen Gefahren, wenn ich das jetzt mal so nennen will, überhaupt nie entsprochen hat, ne? Weil bei den Leuten wurde halt überwiegend nix gefunden, ne.

00:48:17.760 --> 00:48:25.871
<v Matthias Spielkamp>So und das das ist schon verdammt schwierig und und dann kommt natürlich noch mal einer oben drauf, wie du sagst, so wo wollen wir denn aber auch.

00:48:26.250 --> 00:48:32.560
<v Matthias Spielkamp>Sagen, wo ist denn eine Grenze zum Beispiel dafür, ähm solche Entscheidungen.

00:48:33.275 --> 00:48:39.404
<v Matthias Spielkamp>Solchen computational äh oder systems zu unterstützen.

00:48:40.143 --> 00:48:50.070
<v Matthias Spielkamp>Ich glaube zum Beispiel, dass viele von uns sagen würden, wir möchten nicht, sogar wenn man jetzt einen guten Case dafür machen könnte, dass die.

00:48:50.503 --> 00:48:51.596
<v Matthias Spielkamp>Urteile.

00:48:52.030 --> 00:49:01.283
<v Matthias Spielkamp>Er ist ein bisschen schwierig, will mich da nicht verplappern sozusagen, aber das Urteile zum Beispiel gerechter würden, wollten wir trotzdem.

00:49:02.107 --> 00:49:10.555
<v Matthias Spielkamp>Gesellschaft nicht, dass ähm Computer, Entscheidungen ähm also zum Beispiel hier äh in in Strafsachen entscheiden.

00:49:11.553 --> 00:49:13.133
<v Matthias Spielkamp>Würden wir sagen, das muss,

00:49:13.223 --> 00:49:27.212
<v Matthias Spielkamp>einfach Menschen überlassen bleiben, ne? So äh da kann man jetzt lange drüber streiten. Also wenn du jetzt zum Beispiel anderer Ansicht wärst, dann könnten wir uns die nächsten drei Stunden da äh drüber unterhalten, ne, wie gerechtfertigt das ist oder nicht und so weiter. Ich will nur mal sagen,

00:49:27.303 --> 00:49:34.213
<v Matthias Spielkamp>Das sind natürlich Fragen, mit denen wir uns beschäftigen müssen und wenn die dann so ein nicht ganz so eindeutig sind.

00:49:35.192 --> 00:49:38.527
<v Matthias Spielkamp>Dann wird es natürlich schwierig. Also soll jetzt.

00:49:39.267 --> 00:49:48.130
<v Matthias Spielkamp>Score, darüber mitentscheiden, ob äh ich einen Kredit bekomme oder nicht oder soll, dass der.

00:49:48.557 --> 00:49:59.114
<v Matthias Spielkamp>Arbeiter oder Berater oder die Beraterin in der Bank nur auf der Grundlage eines persönlichen Gesprächs und der Information, die ich gebe und so weiter dann entscheidend. Ne, also dies.

00:49:59.890 --> 00:50:09.612
<v Matthias Spielkamp>Schufa äh Prinzip oder die Frage danach, ne. Das äh sind keine Fragen, die einfach zu beantworten sind in den meisten Fällen.

00:50:09.787 --> 00:50:14.041
<v Tim Pritlove>Also Schufa nehme ich mal an, habt ihr auch äh als Dauerthema wahrscheinlich.

00:50:14.870 --> 00:50:24.773
<v Matthias Spielkamp>Viel zu wenig, ehrlich gesagt. Also wir haben viel zu wenig Zeit äh dadrauf, die wir dadrauf verwenden können. Wir denken immer wieder,

00:50:24.870 --> 00:50:30.055
<v Matthias Spielkamp>Güte, ja, muss man sich doch nochmal wieder angucken. Jetzt wird sie vielleicht verkauft und,

00:50:30.080 --> 00:50:40.925
<v Matthias Spielkamp>wo gehen dann die Daten hin und was hat sich denn eigentlich geändert seit unserer Open SCHUFA Kampagne und nix, ne? Justizministerin hat gesagt, das muss viel besser überwacht werden, was wurde getan? Gar nichts,

00:50:41.160 --> 00:50:49.759
<v Matthias Spielkamp>war aber auch unsere eigene Schuld, weil wir eben nicht hinterher waren, ne ähm und das ja, aber tatsächlich, das ist schon echt so ein Dauerthema.

00:50:49.843 --> 00:51:04.108
<v Tim Pritlove>Saß du jetzt so nebenbei, ich glaube, wir hatten das auch bei Lokbruch irgendwann mal hier zum Thema open Schuhfahrer, habt ihr Daten gesammelt ne und äh das war ja ein Projekt von euch und der äh UKF der Open Knowledge äh Foundation.

00:51:04.511 --> 00:51:07.828
<v Tim Pritlove>Sogar in Grimma online äh Wort fast bekommen.

00:51:07.582 --> 00:51:08.741
<v Matthias Spielkamp>Fast bekommen, genau.

00:51:08.441 --> 00:51:10.995
<v Tim Pritlove>Das bedeuten mag, aber.

00:51:10.695 --> 00:51:11.860
<v Matthias Spielkamp>Waren nominiert.

00:51:11.860 --> 00:51:17.292
<v Tim Pritlove>Genau. Da habt ihr Daten äh Spenden gesucht. Das ist ja sozusagen auch eine Methode, mit der ihr arbeitet.

00:51:17.509 --> 00:51:26.528
<v Matthias Spielkamp>Mhm genau. Ja also das ist schon so eine Methode, die wir, glaube ich, da können wir durchaus für uns in Anspruch nehmen, dass wir die geprägt haben. Also wir haben die nicht erfunden, aber.

00:51:26.949 --> 00:51:38.624
<v Matthias Spielkamp>Wir sagen eben ähm wir wollen uns natürlich dann zur Wehr setzen, indem wir Daten einsammeln, von denen dann zum Beispiel Unternehmen auch gar nicht wollen, dass die eingesammelt werden von irgendjemand anderem.

00:51:38.980 --> 00:51:47.343
<v Matthias Spielkamp>Um dann mal zu gucken, ob denn alles mit rechten Dingen zugeht. Und oben Schufa fand ich, war ein gutes Beispiel, weil die Datenanalyse selber.

00:51:47.915 --> 00:51:58.562
<v Matthias Spielkamp>War ähm jetzt nicht so, die ist nicht so gelungen, wie wir uns das gewünscht haben. Da waren technische Probleme dabei, da waren Probleme in der Kampagne dabei, also die ist insgesamt gut gelaufen, aber,

00:51:58.707 --> 00:52:04.644
<v Matthias Spielkamp>Es ist eben auch jetzt nicht wirklich überraschend gewesen für uns, aber wir mussten's natürlich trotzdem ausprobieren,

00:52:04.674 --> 00:52:16.866
<v Matthias Spielkamp>meisten Leute, die da mitgemacht haben, die ihre Daten gespendet haben, sind natürlich auch aus einer bestimmten Blase und sind jetzt eher Leute, die zum Beispiel keine finanziellen Schwierigkeiten haben und keine schlechten Scores bei der Schufa und so und dann kann man,

00:52:17.095 --> 00:52:18.921
<v Matthias Spielkamp>auch weniger rausfinden.

00:52:19.499 --> 00:52:32.940
<v Matthias Spielkamp>Was war zum Beispiel rausgefunden haben ist, dass äh die unterschiedliche Softwaresysteme verwenden und die Datenhaltung ist nicht gut und äh vor allen Dingen haben wir aber auch rausgefunden, dass die Aufsicht nicht funktioniert über die Schufa, ne? Also,

00:52:33.199 --> 00:52:44.700
<v Matthias Spielkamp>hessische Datenschutzbehörde ist dafür zuständig und die war also zu dem Zeitpunkt so was von verschnarcht und nachlässig. Also das war schon mit so eigentlich die ähm.

00:52:45.361 --> 00:52:50.793
<v Matthias Spielkamp>Ja, die die größte Kritik, die wir da am Ende hatten, ne und ja,

00:52:51.292 --> 00:52:59.705
<v Matthias Spielkamp>aber eben leider so, dass äh unserer Ansicht nach sich da nicht genug getan hat, aber wir waren noch sehr sehr neu zu dem Zeitpunkt und.

00:53:00.120 --> 00:53:08.220
<v Matthias Spielkamp>Hatten wirklich einfach auch nicht die Ressourcen dann hinterher, ne, die Kampagne war gut gelaufen. Wir hatten eine Menge Aufmerksamkeit bekommen.

00:53:08.581 --> 00:53:11.909
<v Matthias Spielkamp>Und dann hat sich eben damals die ähm.

00:53:12.306 --> 00:53:27.004
<v Matthias Spielkamp>Äh Barley, die Justizministerin war, auch dazu geäußert und hat gesagt, da muss sich was ändern, aber dann hätten wir natürlich aktiv werden müssen und denen ständig auf den Füßen stehen und sagen, dann lass uns hier Gespräche führen und konkret werden und dazu hatten wir einfach nicht die Power.

00:53:28.315 --> 00:53:43.229
<v Tim Pritlove>Lassen wir mal kurz bei der Schuhfarbe bleiben, weil ich finde das äh erstmal ist es ja sozusagen auch schon sehr alt, also Schufa gibt's ja schon seit ewig äh Kiten und ähm ich glaube viele Leute äh wissen auch gar nicht, dass es so privat äh rechtlich organisiert ist, aber im,

00:53:43.253 --> 00:53:49.922
<v Tim Pritlove>quasi so für das gesamte wirtschaftliche Leben, also damit sozusagen für jeden in der Gesellschaft

00:53:49.713 --> 00:54:02.343
<v Tim Pritlove>potenziell äh eine Chance und ein Problem darstellen kann, ne? Also da gibt's ja auf der einen Seite natürlich die persönliche Bewertung, aber auf der anderen Seite eben auch so dieses, was so nebenbei abfällt so wohnst du in einem Gebiet, wo

00:54:02.308 --> 00:54:14.957
<v Tim Pritlove>viele Leute ein Problem haben und so, ne, dann kannst du ja dann auch schon äh mit in die Bredouille äh kommen, bis hin dann eben zu diesem klassischen Kafka äh Problem ja Schufa sales no

00:54:14.782 --> 00:54:22.155
<v Tim Pritlove>aber jetzt würdest du halt gerne wissen warum eigentlich und dann sagen sie es dir halt eigentlich auch nicht wirklich.

00:54:21.970 --> 00:54:31.680
<v Tim Pritlove>Weil sie ja dadurch dann quasi ihren Algorithmus veröffentlichen müssten. Wenn sie das aber tun, dann wiederum

00:54:31.656 --> 00:54:33.837
<v Tim Pritlove>Das Problem, dass dann

00:54:33.741 --> 00:54:42.478
<v Tim Pritlove>dieses Gaming natürlich äh losgeht und die Leute wissen, aha okay, so berechnet sich der Score, hier ist der Bug, äh jetzt kann ich das auch aktiv umgehen.

00:54:43.410 --> 00:54:50.662
<v Matthias Spielkamp>Da sind wir bei diesem schwierigen oder vielschichtigen Thema Transparenz, ne? Also zum einen würde ich schon sagen, ähm.

00:54:51.360 --> 00:54:58.216
<v Matthias Spielkamp>Ein ganz großes Problem bei diesen, wie du's ja eben gut beschrieben hast. Kafka Esken äh Erfahrung mit der Schufa,

00:54:58.222 --> 00:55:12.601
<v Matthias Spielkamp>nicht so sehr im Algorithmus, sondern einfach in deren Datenhaltung. Also da kann man jetzt sagen, das macht auch einen Algorithmus, ne? Also das stimmt schon, aber es geht nicht so sehr um den Score selber, sondern es geht dadrum, dass die einfach echt lausig äh äh lausige Informationen zum Teil haben.

00:55:12.674 --> 00:55:18.695
<v Matthias Spielkamp>Dadurch Namen verwechselt werden und dann ne solche Geschichten und dann rennste eben tatsächlich von,

00:55:18.936 --> 00:55:25.900
<v Matthias Spielkamp>Pontius zu Pilatus und versuchst das in Ordnung zu bringen und die Bank sagt, das muss die Schufa machen und die Schufa sagt, das muss die Bank machen und so weiter.

00:55:26.615 --> 00:55:30.647
<v Matthias Spielkamp>Und du bist also völlig hilflos dem Gegenüber. Und ähm

00:55:30.581 --> 00:55:44.870
<v Matthias Spielkamp>die die Frage danach, wieviel man aber über solche Systeme äh veröffentlichen kann, ohne dann dieser Manipulation Tür und Tor zu öffnen, die ist auch wiederum nicht so leicht zu beantworten. Wir finden eben schon, dass sehr viel mehr darüber,

00:55:45.033 --> 00:55:53.150
<v Matthias Spielkamp>ausgesagt werden kann, ja ähm als das bisher der Fall ist und dann gibt es auch die Argumentation.

00:55:53.584 --> 00:56:00.806
<v Matthias Spielkamp>Dass das sehr wichtig ist, weil man ja zum Beispiel auch eine Möglichkeit haben möchte.

00:56:02.177 --> 00:56:10.667
<v Matthias Spielkamp>Anders zu handeln, ja, also Handlungsfähigkeit herzustellen. Wenn ich nicht weiß, warum ich einen schlechten Score habe, kann ich auch nix unternehmen.

00:56:11.539 --> 00:56:16.333
<v Matthias Spielkamp>Und jetzt kommt's aber. Es ist so ein bisschen man schraubt sich so ein bisschen hoch.

00:56:16.845 --> 00:56:24.782
<v Matthias Spielkamp>Ich finde aber auch die Kritik dann wiederum völlig berechtigt daran, an diesem an dieser Herangehensweise,

00:56:24.849 --> 00:56:36.452
<v Matthias Spielkamp>Weil das ja am Ende bedeuten würde, okay, wir werden alle gescored die ganze Zeit und wir müssen uns halt so verhalten, wie diese scoring Algorithmus Algorithmen das von uns erwarten, damit wir,

00:56:36.537 --> 00:56:41.031
<v Matthias Spielkamp>teilhaben können an an gesellschaftlichen Leben.

00:56:41.500 --> 00:56:55.585
<v Matthias Spielkamp>Also mir wird dann diese Möglichkeit eröffnet. Ich weiß, ich habe mich jetzt irgendwie schlecht verhalten. Ich habe eine dritte Kreditkarte bestellt und keine Ahnung, das denke ich mir jetzt grade aus, ne. Ich weiß nicht, welche Auswirkungen das auf den Score hat, aber ich habe eine dritte Kreditkarte bestellt und deswegen singt mein Score,

00:56:55.706 --> 00:57:05.338
<v Matthias Spielkamp>dann darf ich das halt nicht machen, dann muss ich das lassen mit der Kreditkarte. Da denke ich dann auch wieder, Entschuldigung, weil die weil der weil der Schufa Algorithmus das findet, ja, was ist denn das für ein Scheiß?

00:57:05.524 --> 00:57:07.128
<v Matthias Spielkamp>Und,

00:57:07.315 --> 00:57:17.085
<v Matthias Spielkamp>das wird natürlich dann auch noch dramatisch, wenn es noch viel mehr solcher Profilingsysteme gibt, ne? Wenn also überall gemacht wird, wenn's auch noch um Ein- und Ausreise geht und solche Geschichten.

00:57:17.609 --> 00:57:26.147
<v Matthias Spielkamp>Ne? Dann haben wir eben tatsächlich irgendwann diese Situation, die von vielen als eine wirkliche Dystopie beschrieben wird.

00:57:26.448 --> 00:57:35.377
<v Matthias Spielkamp>Wir uns nur noch danach ausrichten müssen, was irgendein automatisiertes System findet, wie wir uns eigentlich verhalten sollten. Und das darf selbstverständlich nicht passieren.

00:57:36.477 --> 00:57:50.340
<v Tim Pritlove>Wie wirkt sich das eigentlich jetzt auf eure konkrete politische Arbeit aus? Das ist jetzt auch noch mal so ein bisschen auf die Frage so auch äh eures Modusoran, die so ihr setzt euch jetzt mit der Schufa auseinander, ihr äh gewinnt äh über Daten

00:57:50.136 --> 00:57:55.099
<v Tim Pritlove>Spenden und andere Maßnahmen, Forschung äh

00:57:54.901 --> 00:58:03.560
<v Tim Pritlove>vielleicht auch Diskurs, weiß ja gar nicht, wie viel die Schufa mit euch äh redet, äh gewinnt ihr also gewisse Informationen. Letztlich gewinnt ihr ein Bild und ihr habt ja auch ein Bild von den,

00:58:03.794 --> 00:58:10.855
<v Tim Pritlove>Probleme so, wie wir sie eben skizziert haben, ne? Moralische Grenzen, rechtliche Grenzen et cetera, das kommt ja alles mit rein. Was ist jetzt quasi das

00:58:10.729 --> 00:58:25.228
<v Tim Pritlove>konkrete Ergebnis eurer Arbeit geht es jetzt nur da drum zu sagen, ja hier, wir haben das jetzt mal alles recherchiert, hier ist für die öffentliche Meinungsbildung äh die Information lest euch das mal durch und wir äh legen uns jetzt wieder schlafen oder führt es dann auch zum konkreten

00:58:25.204 --> 00:58:34.987
<v Tim Pritlove>politischen Aktivismus geht ihr in Richtung Gesetzesvorschläge redet ihr mit Verbänden? Also was für ein konkreter

00:58:34.819 --> 00:58:41.633
<v Tim Pritlove>politischer Aktionsrahmen existiert für euch, indem ihr euch äh bewegt und wo wollt ihr den auch nicht verlassen.

00:58:41.820 --> 00:58:47.083
<v Matthias Spielkamp>Ja, also wir sind ganz klar Aktivisten. Ja, das ist so ein das ist ja auch so ein,

00:58:47.210 --> 00:58:58.020
<v Matthias Spielkamp>irgendwie so komischer Begriff, ne? So, das man stellt sich so vor, so wir stehen halt irgendwie mitm Plakat in der Hand irgendwo rum, aber äh ich find's schon wichtig, das auf den Punkt zu bringen, weil ähm,

00:58:58.200 --> 00:59:12.285
<v Matthias Spielkamp>wir sagen auch wieder so ein äh Denglisch-Begriff, ne. Wir machen Evidence spaced at vocusy. Also wir machen ähm wir versuchen Politik zu beeinflussen auf der Grundlage von guter Erkenntnis, von Evidenz.

00:59:12.844 --> 00:59:19.844
<v Matthias Spielkamp>Kannst du sagen, ja also welche Organisation behauptet denn, dass die Politik beeinflussen will ohne jegliche Evidenz, ne? Natürlich niemand,

00:59:19.893 --> 00:59:28.714
<v Matthias Spielkamp>Wir haben schon einen anderen Ansatz. Wir wir machen schon sehr viel aufwendigere Forschung als viele andere. Wir forschen ja zum Beispiel auch oft in Konsortien gemeinsam mit.

00:59:29.051 --> 00:59:40.378
<v Matthias Spielkamp>Ähm Unis und Forschungseinrichtungen, ne, also im Moment zum Beispiel arbeiten wir in unterschiedlichen Projekten zusammen mit der Viadrina, mit der Uni Paderborn, mit der FH Potsdam, mit der ähm.

00:59:40.787 --> 00:59:48.736
<v Matthias Spielkamp>Institut für ökologische Wirtschaftsforschung mit der TU Berlin und so weiter und so fort, ne? Also da nehmen wir schon für uns in Anspruch, dass wir also schon richtig,

00:59:49.007 --> 00:59:52.654
<v Matthias Spielkamp>angewandte Forschung und zum Teil auch Grundlagenforschung machen,

00:59:52.727 --> 01:00:05.159
<v Matthias Spielkamp>Manchmal entsteht dann so der Eindruck, wir seien so ein Thinktank, ne? So ja, also wir finden was raus und dann veröffentlichen wir ein Papier und dann war's das. Aber wir sagen ganz klar nein, wir sind Aktivisten, wir wollen Politik und Gesetzgebung beeinflussen.

01:00:05.784 --> 01:00:12.802
<v Matthias Spielkamp>Wie machen wir das? In dem Fall, ich gehe noch mal kurz zur SCHUFA zurück, weil wir da gerade waren. Wir haben dann gesagt,

01:00:12.947 --> 01:00:18.037
<v Matthias Spielkamp>sehen da eine Gesetzeslücke, ne, die nämlich darin besteht, dass zum Beispiel die Banken sagen,

01:00:18.181 --> 01:00:28.727
<v Matthias Spielkamp>Also es gibt ja diese Vorgabe außer Datenschutzgrundverordnung, dass eigentlich automatisierte Entscheidungen nur unter ganz bestimmten Voraussetzungen getroffen werden können, eingesetzt werden können und sonst nicht erlaubt sind.

01:00:28.925 --> 01:00:34.826
<v Matthias Spielkamp>Und da sehen wir, dass da eine Lücke ist, nämlich die Schufa sagt, wir machen nur den Score.

01:00:35.277 --> 01:00:47.878
<v Matthias Spielkamp>Wir fallen deswegen nicht unter diese Regelung und die Banken sagen, wir treffen zwar die Entscheidung, aber wir automatisieren das ja nicht, weil der Score kommt ja von der SCHUFA und deswegen sind wir auch nicht äh da fallen wir auch nicht dadrunter.

01:00:48.028 --> 01:00:53.892
<v Matthias Spielkamp>Da sagen wir dann zum Beispiel ganz konkret, das muss geändert werden. Jetzt habe ich bei dem Thema Schufa schon gesagt,

01:00:54.200 --> 01:01:07.077
<v Matthias Spielkamp>Haben das nicht geschafft, ne? Wir haben das nicht hinbekommen, da den Druck aufzubauen. Aber ich möchte natürlich auch ein Beispiel geben, wo wir erfolgreich gewesen sind. Wir haben in den letzten zweieinhalb Jahren ähm.

01:01:07.720 --> 01:01:14.708
<v Matthias Spielkamp>Viel Lobbying gemacht zum Digital Service ist Eck. Das ist ein wichtiges neues Gesetzesvorhaben auf europäischer Ebene, das.

01:01:15.069 --> 01:01:19.731
<v Matthias Spielkamp>Ganz kurz vor der Verabschiedung steht. Anfang Juli soll das verabschiedet werden im Parlament.

01:01:19.822 --> 01:01:22.550
<v Tim Pritlove>Logbuchnetzpolitik berichtete.

01:01:22.250 --> 01:01:36.827
<v Matthias Spielkamp>Ja genau, ich wusste es zwar nicht, aber ich war äh ich bin kein bisschen überrascht, ja? Es ist ein wirklich wichtiges Vorhaben und ähm da äh haben wir dafür mit anderen Organisationen natürlich dafür sorgen können,

01:01:36.876 --> 01:01:38.131
<v Matthias Spielkamp>dass eine,

01:01:38.288 --> 01:01:48.491
<v Matthias Spielkamp>Verpflichtung der Plattform eingeführt wird WissenschaftlerInnen und zivilgesellschaftlichen Organisationen Zugang zu Plattformdaten zu gewähren.

01:01:49.014 --> 01:01:55.906
<v Matthias Spielkamp>Das heißt, wir werden die das Recht bekommen, unter bestimmten Voraussetzungen, ähm,

01:01:56.129 --> 01:02:06.080
<v Matthias Spielkamp>direkt an die Daten von Plattformen zu kommen, um zum Beispiel nicht immer diesen Umweg über Datenspenden gehen zu müssen, die dann häufig kleine ähm kleine ähm,

01:02:06.164 --> 01:02:20.501
<v Matthias Spielkamp>Zahlen haben, also nicht repräsentativ sind, äh unter Umständen verfälscht, dann versuchen die Plattformen einem Stein in den Weg zu legen, wie Facebook das bei uns gemacht hat und da haben wir uns eben dafür eingesetzt, dass das geändert wird und das wird jetzt im DSA stehen.

01:02:21.415 --> 01:02:25.110
<v Matthias Spielkamp>Ist eine ganz große Frage, was machen wir damit in der Praxis.

01:02:24.816 --> 01:02:30.158
<v Tim Pritlove>Ja sag erstmal, wer ist denn wir, also wer kriegt das Recht konkret?

01:02:30.513 --> 01:02:42.200
<v Matthias Spielkamp>Die Regelung ist, es sind ähm Wissenschaftlerinnen und Wissenschaftler und es sind zivilgesellschaftliche Organisationen und dann ist das immer noch mal wird das nochmal spezifiziert. Es müssen,

01:02:42.399 --> 01:02:51.406
<v Matthias Spielkamp>anerkannte ähm Wissenschaftler innen und zivilgesellschaftliche Organisationen sein. Was soll das heißen? Na ja, dann guckste wieder, dann wird auf bestimmte andere,

01:02:51.701 --> 01:03:04.530
<v Matthias Spielkamp>Gesetzgebung Bezug genommen und wie man das definieren kann, wer ist das denn? Ja also ähm muss das eine akkreditierte Universität sein oder kann das auch jetzt sagen wir mal das deutsche Institut für Wirtschaftsforschung sein,

01:03:04.759 --> 01:03:07.727
<v Matthias Spielkamp>Wird dann alles so nach und nach wird das so detailliert,

01:03:07.913 --> 01:03:21.037
<v Matthias Spielkamp>wer das dann ist. Aber grundsätzlich eben Wissenschaftlerinnen und Wissenschaftler und und eben solche Organisationen wie wir. Man will mit dieser möglichst klaren Kategorisierung erreichen, dass jetzt nicht dann irgendwelche,

01:03:21.320 --> 01:03:28.734
<v Matthias Spielkamp>natürlich auch Leute das machen, weißt du, ich gründe mal einen Verein, ne, brauche ich sieben Leute in Deutschland, ne, gründe ich einen Verein,

01:03:28.807 --> 01:03:37.201
<v Matthias Spielkamp>gehe ich dahin, sage wir sind eine zivilgesellschaftliche Organisation und dann sauge ich da die ganzen Daten ab und dann verwende ich die quasi für irgendwelche kommerziellen Zwecke.

01:03:37.304 --> 01:03:43.120
<v Matthias Spielkamp>Sowas soll natürlich auch in unserem Sinne nicht passieren. Also jetzt von dir und mir darf das natürlich auch nicht passieren,

01:03:43.217 --> 01:03:50.992
<v Matthias Spielkamp>Das heißt, da müssen also schon gewisse Voraussetzungen dafür geschaffen werden, dass das dass da nicht jeder kommen kann, ja? Aber.

01:03:51.377 --> 01:04:00.973
<v Matthias Spielkamp>Es sind eben Dritte, ne? Es ist nicht mehr einfach nur so. Nur Facebook weiß, was Facebook weiß und nur Google weiß, was Google weiß, sondern wir werden einen Zugang bekommen.

01:04:01.166 --> 01:04:08.166
<v Matthias Spielkamp>Das wird noch Jahre dauern, rauszukriegen, wie genau und was wir dann eigentlich auch wissen wollen und so weiter, aber das ist schon ein ziemlicher Erfolg.

01:04:08.016 --> 01:04:17.720
<v Tim Pritlove>Das wäre jetzt auch noch mal eine Frage, um also inwiefern spezifiziert es, welche Daten also auf welche Daten darf man dann zugreifen oder die Anfragen?

01:04:17.913 --> 01:04:24.420
<v Matthias Spielkamp>Ja da kannst du ich schicke dir dann nachher Links, die kannst du dann da in dein ne.

01:04:20.719 --> 01:04:25.809
<v Tim Pritlove>Gerne.

01:04:25.509 --> 01:04:34.263
<v Matthias Spielkamp>Ja genau in die Show Notes zum Beispiel hat gerade also es ist diese Woche ist zum einen ähm äh die ähm.

01:04:35.526 --> 01:04:41.462
<v Matthias Spielkamp>Der Code of Practice und disinformation ist veröffentlicht worden. Das ist ein Dokument, das.

01:04:41.949 --> 01:04:50.746
<v Matthias Spielkamp>Plattformen und aber auch zivilgesellschaftliche Organisationen äh auch sehr bekannte wie Reporter ohne Grenzen mit unterschrieben haben ähm und da steht.

01:04:51.065 --> 01:04:55.638
<v Matthias Spielkamp>Ausgearbeitet welche also besser ähm,

01:04:55.920 --> 01:05:07.427
<v Matthias Spielkamp>beschrieben, welche Informationen wer da rankommen darf, auf welche Art und Weise, welche Schutzkonzepte bestehen müssen, damit eben zum Beispiel keine Privatsphäre Verletzungen passieren,

01:05:07.650 --> 01:05:12.481
<v Matthias Spielkamp>und das wird wiederum alles nochmal detaillierter dargelegt in einem.

01:05:12.902 --> 01:05:23.856
<v Matthias Spielkamp>Report, der Ende Mai rauskam vom sogenannten European Digital Media Observice, das ist so eine Arbeitsgruppe, die von einer EU finanziert wird, wo auch Plattformen, Wissenschaft, Zivilgesellschaft,

01:05:24.151 --> 01:05:32.233
<v Matthias Spielkamp>drin sind und dieser Report, der eben zum Teil auch nochmal klar macht, wie's im Detail aussehen kann, der hat da eine hundert1achtzig Seiten, ja? Also,

01:05:32.371 --> 01:05:36.686
<v Matthias Spielkamp>Da können da können die Hörerinnen und Hörer dann erstmal zweihundert,

01:05:36.776 --> 01:05:50.218
<v Matthias Spielkamp>30 Seiten Material lesen, um sich da ein Bild davon zu machen. Tun sie natürlich nicht, sondern das ist dann unsere Aufgabe. Ich will da nicht ausweichen. Ich will dir nur deutlich machen. Also ich könnte dir das im Moment nicht einfach beschreiben, ne, sondern das ist total komplex.

01:05:48.626 --> 01:05:59.382
<v Tim Pritlove>Ja ja okay, keine Zweifel, das ist total komplex ist. Das ist ja auch schon mal wertvoll, das rauszuarbeiten, aber ansonsten mache ich mir da gar keine Probleme, äh unsere Hörerinnen und Hörer machen das natürlich alles automatisiert, ja?

01:05:59.412 --> 01:06:06.202
<v Matthias Spielkamp>Ja richtig, genau, genau. Die dies die lassen die schmeißen das in Word und sagen mach mal bitte die äh den Appstrack.

01:06:06.401 --> 01:06:12.446
<v Tim Pritlove>Das ist ja höhere Rennbeleidigung. Nein, es kommt die Datenbank und wird irgendwie total modern ausgewertet.

01:06:12.500 --> 01:06:13.581
<v Matthias Spielkamp>Ja, genau.

01:06:13.473 --> 01:06:27.300
<v Tim Pritlove>Äh vielleicht noch eine kurze Nachfrage äh dazu, weil meine Frau war ja auch so ein bisschen okay. Wie versteht ihr euch? Hast du gesagt, okay, wir sind Aktivisten. Wir wir bringen Sachen konkret voran und im Beispiel von diesem Digital Service Act sieht man ja auch schon, dass halt auch Wirkung, ne? Also es

01:06:27.204 --> 01:06:35.544
<v Tim Pritlove>letzten Endes dazu, dass äh auf nationaler oder eben auch auf europäischer Ebene Einfluss genommen wird.

01:06:35.382 --> 01:06:47.244
<v Tim Pritlove>Wie läuft es bei euch intern, weil ich meine, ihr müsst ja dann sozusagen auch eine Meinungsbildung in irgendeiner Form betreiben. Wie organisiert ihr euch in im Team, um da auch zu einer,

01:06:47.503 --> 01:06:52.466
<v Tim Pritlove>ja Entscheidungsgrundlage zu kommen wohin man gehen will.

01:06:53.464 --> 01:07:03.757
<v Matthias Spielkamp>Also wenn man jetzt sie du hattest ja schon mal drauf angesprochen, wie viel Leute das sind, ne und wenn man jetzt mal so sich auf der auf der Website das anguckt und fliegen natürlich schon mal erstmal alle raus, die

01:07:03.715 --> 01:07:11.310
<v Matthias Spielkamp>Beispiel so was wie Verwaltung und Backoffice und sowas machen, ne? Weil die dann da äh jetzt keinen Anteil dran haben, ne.

01:07:11.653 --> 01:07:19.711
<v Matthias Spielkamp>Und ähm dann äh ist es so, dass wir eben weiterhin sehr stark projektfinanziert sind. Ähm und das zum Beispiel.

01:07:20.096 --> 01:07:34.788
<v Matthias Spielkamp>Auch Leute einfach in Anführungszeichen einfach dadran arbeiten, dass Projekte gemanagt und abgewickelt werden, ne? So und ähm dann bleibt am Ende so ein quasi ein Kern von Leuten, die die.

01:07:35.227 --> 01:07:47.617
<v Matthias Spielkamp>Policy Positions, also diese Politikforderung ausarbeiten, äh mit denen wir dann am Ende versuchen eben solche Veränderungen zu bewirken. Und das ist in erster Linie das äh,

01:07:47.900 --> 01:07:49.810
<v Matthias Spielkamp>Policy und Ephoesy Team.

01:07:50.153 --> 01:08:04.455
<v Matthias Spielkamp>Sind im Moment ähm vier Leute, wenn man mich nicht mitrechnen, aber natürlich bin ich da auch dabei. Ähm und aber ich bin sozusagen als äh als Geschäftsführer jetzt nicht Teil dieses, also offiziell Teil dieses Teams.

01:08:04.773 --> 01:08:17.152
<v Matthias Spielkamp>Und äh dann sind es eben noch Leute, die zum Beispiel äh Informationen beisteuern, weil sie ein Projekt machen. Also ich gebe dir mal ein Beispiel. Meine Kollegin Jessica Wulff, die hat eine.

01:08:17.477 --> 01:08:23.131
<v Matthias Spielkamp>Ähm die hat eine ähm eine Publikation geschrieben, die.

01:08:23.744 --> 01:08:37.691
<v Matthias Spielkamp>Sich beschäftigt mit der Frage, wie wie tritt eigentlich ähm automatisierte Diskriminierung auf in Deutschland und was könnten Beratungsstellen tun, um die besser zu erkennen und dann auch dagegen vorzugehen. Und bei sowas entsteht natürlich.

01:08:37.998 --> 01:08:46.380
<v Matthias Spielkamp>Wissen und äh ähm dieses Wissen, das diskutieren wir dann in unseren Meetings, in unseren Treffen.

01:08:47.137 --> 01:08:56.781
<v Matthias Spielkamp>Stellen uns dann selber die Frage, was entsteht daraus für uns für eine Forderung? Ja und ich gebe dir ein Beispiel, ähm wir wollen etwa, dass.

01:08:57.142 --> 01:09:07.970
<v Matthias Spielkamp>Antidiskriminierungsstellen äh und die Beratungsstellen und auch andere ähm stärker in die Lage versetzt werden, gegen sowas vorzugehen, zum Beispiel durch einen Verbandsklagerecht.

01:09:08.746 --> 01:09:15.969
<v Matthias Spielkamp>Und ähm ja, das versuchen wir dann auszuformulieren und zu begründen, warum wir der Ansicht sind, dass das so sein müsste.

01:09:16.540 --> 01:09:31.346
<v Matthias Spielkamp>Und dann, wenn wir die Power haben, also wenn wir die Leute haben, die sich drum kümmern können, dann versuchen wir eben auch direkt Einfluss zu nehmen, indem man mit Bundestagsabgeordneten sprechen oder auch den Leuten in den Ministerien, die dafür zuständig sind und indem wir auch Bündnisse schmieden mit anderen Organisationen, die sich um sowas kümmern, was

01:09:31.262 --> 01:09:34.380
<v Matthias Spielkamp>weiß ich, ne? Lesben und Schwulenverband oder,

01:09:34.429 --> 01:09:41.297
<v Matthias Spielkamp>Bundeskonferenz der Migrantenorganisationen und solche ähm Organisationen, bei denen wir uns halt erhoffen

01:09:41.177 --> 01:09:45.563
<v Matthias Spielkamp>wenn wir mit denen zusammenarbeiten, das Ganze ein bisschen mehr Wumms bekommt.

01:09:47.450 --> 01:09:58.327
<v Tim Pritlove>Auch nochmal auf die anderen Meterthemen eingehen, die du anfangs genannt hast, aber da wir jetzt gerade noch bei äh der äh europäischen Union jetzt sind, ist es vielleicht noch

01:09:58.242 --> 01:10:08.290
<v Tim Pritlove>mal ganz gut drauf hinzuweisen, dass ja da grade in dem Zusammenhang mit der ganzen Diskussion um künstlicher Intelligenz auch eine neue Verordnung äh an The Porters ist.

01:10:08.116 --> 01:10:09.630
<v Tim Pritlove>Da seid ihr ja auch dran, ne.

01:10:09.895 --> 01:10:18.210
<v Matthias Spielkamp>Das ist auch die also verkürzt KI-Verordnung den den genauen Titel weiß ich noch nicht mal, weil das sind immer dann so so fünfundzwanzig Wörter, ne.

01:10:18.578 --> 01:10:25.896
<v Matthias Spielkamp>Diese Gesetze heißen, ja? Deswegen heißt das also entweder KI-Verordnung oder oder AI-Act, ne, so wird das dann genannt.

01:10:24.719 --> 01:10:26.262
<v Tim Pritlove>Mhm.

01:10:26.052 --> 01:10:37.175
<v Matthias Spielkamp>Und diese KI-Verordnung, die versucht jetzt sehr horizontal. Das ist so der Sprecher ähm äh zu sein. Das bedeutet, die guckt nicht auf ein konkretes ähm.

01:10:37.842 --> 01:10:45.378
<v Matthias Spielkamp>Ähm auf einen konkreten Sektor wie etwa Verkehr oder Finanzen oder so, ne, sondern sagt also wir wollen.

01:10:45.907 --> 01:10:50.509
<v Matthias Spielkamp>Künstliche Intelligenz, horizontal regulieren und wollen dafür sorgen, dass.

01:10:50.840 --> 01:11:00.508
<v Matthias Spielkamp>Die äh Innovationsfähigkeit erhalten bleibt, über die Risiken, die dadurch entstehen eben eingegrenzt werden und ähm da das ist jetzt dieses,

01:11:00.761 --> 01:11:04.577
<v Matthias Spielkamp>nochmal also so ein riesiges Regelwerk, total komplex,

01:11:04.799 --> 01:11:16.582
<v Matthias Spielkamp>ähm wo sich alle die Zähne dran ausbeißen und nach einem Jahr nach Veröffentlichung immer noch drüber gestritten wird, was ist denn jetzt eigentlich bedeutet, also in Teilen, ne und ob es die richtige Ansatz ist,

01:11:16.860 --> 01:11:25.464
<v Matthias Spielkamp>Da mischen wir halt auch mit. Und damit's aber nicht ganz so abstrakt bleibt, also zum Beispiel ähm haben die eine relativ breite,

01:11:25.662 --> 01:11:35.445
<v Matthias Spielkamp>Definition von Kaida eingeführt und gerade viele, die sich so mit ja KI und überhaupt Informatik und so auskennen.

01:11:35.776 --> 01:11:42.734
<v Matthias Spielkamp>Haben das auch kritisiert und haben gesagt, ja hör mal, aber diese Definition von KI, die da drin steht, die umfasst doch am Ende fast jede Software.

01:11:43.401 --> 01:11:53.028
<v Matthias Spielkamp>Ähm das finde ich nicht ganz richtig. Ich verstehe aber aus welcher Ecke das kommt, ne und dass die Leute sich dann wünschen so, das ist doch sowieso so ein so ein sehr fassi Begriff.

01:11:53.208 --> 01:12:02.882
<v Matthias Spielkamp>Der oft einfach auch nur äh Schlangenöl ist, ne und dem stimmen wir hundertprozentig zu. Das ist aber genau das Problem, wenn man jetzt hinginge,

01:12:03.033 --> 01:12:11.860
<v Matthias Spielkamp>und sagen würde, man definiert den ganz eng, ja, also das sind nur Systeme, maschinellen Lernens und äh so weiter,

01:12:11.920 --> 01:12:22.839
<v Matthias Spielkamp>Dann läuft man halt Gefahr, dass das, was ich eben ja schon recht ausführlich beschrieben habe, diese Automatisierungssysteme, die weitreichende Auswirkungen auf Menschen haben können, dass die da nicht mehr drunter fallen.

01:12:23.662 --> 01:12:36.780
<v Matthias Spielkamp>Die dann einfach nicht reguliert werden. Und dann hast du eben so eine Situation, bei der ähm zwar ein regelbasierter Algorithmus am Werk ist, der auch entstanden ist, weil zum Beispiel jemand durchaus,

01:12:37.062 --> 01:12:46.911
<v Matthias Spielkamp>komplexe äh statistische Auswertungen gemacht hat, aber dann am Ende eben dadraus abgeleitet hat, so hier sind jetzt die Regeln für diesen Algorithmus, für diesen Entscheidungsalgorithmus,

01:12:47.020 --> 01:12:57.541
<v Matthias Spielkamp>Und dann kommt es zu sowas wie dieser Situation in Holland, wo die ähm diese ähm ungerechtfertigten Nachforderungen da kommen, dann fällt das halt nicht unter diese Regulierung, ne,

01:12:57.566 --> 01:13:04.223
<v Matthias Spielkamp>und da setzen wir uns zum Beispiel dafür ein, dass das breit bleibt, ne und versuchen eben auch zu erläutern, also auch den.

01:13:04.548 --> 01:13:14.727
<v Matthias Spielkamp>Tekkies, die sich besser auskennen, warum das gerechtfertigt ist, dass wir das tun und dass wir nicht einfach blöde sind und wollen, dass jetzt also alle Software äh KI ist.

01:13:15.178 --> 01:13:24.714
<v Tim Pritlove>Seid ihr da äh habt ihr einen eigenen europäischen äh Vertreter, also macht ihr konkret in Brüssel, jetzt Lobbyismus oder arbeitet ihr so mit anderen Gruppen zusammen, wie Edri oder so?

01:13:25.111 --> 01:13:30.230
<v Matthias Spielkamp>Ja, wir arbeiten eng zusammen. Wir haben äh weiterhin keine kein eigenes Büro in.

01:13:30.711 --> 01:13:37.688
<v Matthias Spielkamp>Denken da immer wieder drüber nach, aber das ist jetzt auch nicht einfach eine Entscheidung, die wir treffen können, weil es sehr teuer ist, ne? Also äh.

01:13:38.397 --> 01:13:47.302
<v Matthias Spielkamp>Da müsste man also Brüssel ist eine teure Stadt. Wenn wir da jemanden beschäftigen wollten, die Person müsste viel Erfahrung haben. Das heißt also, da kann man auch keine Anfänger in nehmen, ne?

01:13:48.000 --> 01:14:00.366
<v Matthias Spielkamp>Das kostet eine Menge Geld und ähm das haben wir natürlich nicht einfach so. Und dann kommt noch dazu, dass es eben auch du hast Edri genannt, durchaus etablierte Organisationen und Netzwerke gibt auf europäischer Ebene und dieser.

01:14:00.787 --> 01:14:10.803
<v Matthias Spielkamp>Diese KI-Verordnung ist das beste Beispiel, wir sind in einer sogenannten AI Corgroup, ja, also in der KI-Kerngruppe, das ist eine Gruppe von Organisationen, die,

01:14:11.057 --> 01:14:21.049
<v Matthias Spielkamp>ähm sich zusammengeschlossen hat, um konkrete Änderungsvorschläge für diese KI-Verordnung zu erarbeiten und da sind eben solche Organisationen wie Edri, access now,

01:14:21.218 --> 01:14:25.099
<v Matthias Spielkamp>ECNL ähm und so weiter sind da drin,

01:14:25.148 --> 01:14:34.209
<v Matthias Spielkamp>ähm und wir versuchen uns gemeinsam die Arbeit aufzuteilen und zu sagen, also zu diesem Thema kennt sich jetzt Access Now am besten aus und zu dem Thema Averisen Watch und dann.

01:14:34.528 --> 01:14:48.979
<v Matthias Spielkamp>Kümmern die sich da drum und die anderen unterstützen das und und dann veröffentlichen wir die aber ähm in den meisten Fällen gemeinsam. Das heißt, wir sagen dann, also das ist eine gemeinsame Position von uns, damit das eben mehr Kraft entfaltet,

01:14:49.214 --> 01:15:01.538
<v Matthias Spielkamp>So versuchen wir in in Brüssel Einfluss zu nehmen und dazu kommt aber auch, dass wir ähm als gerade natürlichen Organisationen, die in Deutschland beheimatet ist, also wir sagen schon immer.

01:15:01.845 --> 01:15:07.235
<v Matthias Spielkamp>Sind keine deutsche Organisation, wir sind eine internationale Organisation, aber klar sind wir sehr deutsch geprägt,

01:15:07.476 --> 01:15:17.306
<v Matthias Spielkamp>und das versuchen wir zu unserem Vorteil zu nutzen, denn natürlich hat Deutschland als größtes Mitgliedsland der Europäischen Union einen sehr großen Einfluss und,

01:15:17.589 --> 01:15:27.978
<v Matthias Spielkamp>der wird ja auch ausgeübt dann über den Rat der Europäischen Union, also die Vertretung der Mitgliedsstaaten, die ja in dem Gesetzgebungsprozessen mächtiges Wort mitzureden haben, ne,

01:15:28.267 --> 01:15:39.047
<v Matthias Spielkamp>und da laufen wir natürlich dann zu den Ministerien, die äh für den AI Act zuständig sind und versuchen die dann auch davon zu überzeugen, dass unsere Forderungen.

01:15:39.396 --> 01:15:45.164
<v Matthias Spielkamp>Gut durchdacht sind und richtig sind und da eingebracht werden müssen. Ne, also wir machen das dann auch über Bande.

01:15:47.340 --> 01:15:58.006
<v Tim Pritlove>Ja, da ist halt auf jeden Fall noch auch eine ganze Menge ähm ja, da es eine ganze Menge äh zu heben. Ich meine, es ist im Frühjahr ähm Begriffsmarkt auch, nicht, das hast du ja,

01:15:58.036 --> 01:16:08.720
<v Tim Pritlove>äh angesprochen, also es ist sehr schwierig da irgendwas zu bringen und auf der anderen Seite äh kann ich gut nachvollziehen, ne? Das wollen sich Dinge auch offen lassen müssen, weil ich meine, ist ja auch gar nicht so lange her, da war auch Machine Learning.

01:16:09.050 --> 01:16:11.700
<v Tim Pritlove>In gewisser Hinsicht so ein ewiger Fels,

01:16:11.712 --> 01:16:19.326
<v Tim Pritlove>ne? Also es war so ein Versuch und es war so ein Forschungsteil der Informatik und es war immer so, hm ja lass die mal machen und so weiter, die

01:16:19.163 --> 01:16:27.113
<v Tim Pritlove>95 Prozent kippen die Systeme dann immer um, ne, so ein bisschen so dieses äh Valley so der Informatik und.

01:16:27.492 --> 01:16:33.940
<v Tim Pritlove>Irgendwann gab's dann halt den Durchbruch und auf einmal waren die Anwendungen da und dann ging's auch so schnell, ne, mit Bildererkennung und

01:16:33.790 --> 01:16:42.028
<v Tim Pritlove>Texterkennung und automatische Sprachübersetzer und so weiter, dass die Implikation natürlich jetzt irgendwie mega sind und genauso kann man sich natürlich auch vorstellen, auch wenn ich das jetzt

01:16:42.022 --> 01:16:52.700
<v Tim Pritlove>benennen könnte, was es wohl vermutlich sein wird, aber irgendein neuer äh formatischer Durchbruch, ja, der jederzeit stattfinden kann, der eben,

01:16:52.887 --> 01:17:02.825
<v Tim Pritlove>doch auch wieder nochmal ganz andere äh Algorithmen, Wesen äh schafft, die wir derzeit noch gar nicht so richtig absehen können. Mhm

01:17:03.907 --> 01:17:14.410
<v Tim Pritlove>vielleicht so zum äh Schluss würde ich gerne nochmal kurz auf die anderen äh Punkte oder Bereiche, die du äh genannt hast, weil jetzt haben wir sind wir vom Public Sektor quasi so auf äh ziemlich breites

01:17:14.381 --> 01:17:30.364
<v Tim Pritlove>fällt nahezu auf alles äh gekommen, aber vielleicht kannst du ja nochmal so ein bisschen konkretisieren, inwiefern die anderen äh Bereiche jetzt auch thematisch abtrennungswürdig sind und wo da so euer Fokus liegt. Also du hattest ja äh gesagt so Automaticion making

01:17:30.185 --> 01:17:37.438
<v Tim Pritlove>Public Sektor und dann Publix vier, also öffentliche Meinungsbildung, also du hast es schon konkret auf Meinungsbildung gelegt, also,

01:17:37.624 --> 01:17:42.743
<v Tim Pritlove>klingt jetzt sozusagen medien, Social Media, et cetera. So klingt das für mich.

01:17:42.918 --> 01:17:52.538
<v Matthias Spielkamp>Genau, ich ich würde sagen, ich mache mal so einen Volumenschlag über die drei und du suchst dir raus, worüber wir noch reden wollen. Ähm also die ähm.

01:17:53.236 --> 01:18:01.383
<v Matthias Spielkamp>Auch im Englischen ist Public vier ein umstrittener Begriff ähm im Sinne von bezeichnet der wirklich das. Es geht um die Konstituierung von Öffentlichkeit,

01:18:01.438 --> 01:18:13.720
<v Matthias Spielkamp>und die passiert natürlich an ganz vielen unterschiedlichen Stellen, aber ähm der Medienmarkt und äh die Art, wie wir diskutieren und die Plattform, über die wir diskutieren, spielen natürlich eine sehr, sehr große Rolle und,

01:18:13.840 --> 01:18:23.359
<v Matthias Spielkamp>Ähm deswegen ähm beschäftigen wir uns eben damit. Es wird dann auch genannt Platform Governance, also ne, die Regulierung von Plattformen,

01:18:23.425 --> 01:18:31.951
<v Matthias Spielkamp>aber da, dass es auch wiederum nicht perfekt, weil unter die Plattforms natürlich auch Amazon und Uber und Airbnb und so fallen, ne,

01:18:32.157 --> 01:18:36.404
<v Matthias Spielkamp>So, also jedenfalls wir fokussieren uns schon auf die ähm,

01:18:36.651 --> 01:18:46.290
<v Matthias Spielkamp>auf die Plattformen, äh bei denen's äh um Informationsvermittlung geht, die jetzt auch zu einer ebenpolitischen Meinungsbildung beitragen sollen.

01:18:46.470 --> 01:18:57.256
<v Matthias Spielkamp>Also Facebook, Instagram, Twitter, YouTube, durchaus auch Google Search, ne? Und ähm und und und äh solche Plattformen. Und da,

01:18:57.382 --> 01:19:05.567
<v Matthias Spielkamp>glaube ich müssen wir können wir vielleicht sagen, da haben wir schon drüber gesprochen, weil das eben in erster Linie dieses DSA-Thema ist, ne?

01:19:06.000 --> 01:19:13.384
<v Matthias Spielkamp>Sind der Ansicht. Wir müssen sehr viel mehr darüber wissen, wie die Plattform wirken und da brauchen wir erstmal diesen Datenzugang.

01:19:13.853 --> 01:19:19.460
<v Matthias Spielkamp>Und dann äh gibt es ähm ADM im äh am Arbeitsplatz.

01:19:19.827 --> 01:19:26.556
<v Matthias Spielkamp>Und da geht es uns in erster Linie um das, was dann oft so People Analytics genannt wird. Das heißt, da versucht man rauszufinden.

01:19:26.905 --> 01:19:35.960
<v Matthias Spielkamp>Wie welche äh Arbeit leisten die Leute am Arbeitsplatz? Ähm kann man dadraus was ableiten darüber, ob jemand gefördert werden sollte.

01:19:36.111 --> 01:19:45.046
<v Matthias Spielkamp>Kann man Entscheidungen darüber treffen, wer entlassen werden sollte ähm und so weiter und so fort. Ist also auch durchaus weitreichend und,

01:19:45.215 --> 01:19:52.119
<v Matthias Spielkamp>Gerade am in diesem System Arbeit haben wir ja auch wieder eine Situation, in der,

01:19:52.293 --> 01:20:00.976
<v Matthias Spielkamp>Leute keine Wahl haben, also eine sehr geringe Wahl, ne, bei jetzt ähm der Frage nach Informationsvermittlung, gibt's immer noch das Argument.

01:20:01.638 --> 01:20:07.009
<v Matthias Spielkamp>Ja, also wenn's dir bei Facebook nicht gefällt, geh halt zu einer anderen Social-Media-Plattform.

01:20:08.079 --> 01:20:11.180
<v Matthias Spielkamp>Ich glaube, wir wissen, wie blöd dieses Argument.

01:20:11.535 --> 01:20:23.173
<v Matthias Spielkamp>Ja genau, aber es ist steckt schon auch noch eine eine gewisse äh also es steckt schon eine gute Begründung drin, denn natürlich müssen wir auch Verantwortung übernehmen. Wir selber, ne? Und wenn wir Facebook halt stinkt.

01:20:23.582 --> 01:20:31.436
<v Matthias Spielkamp>Dann muss ich auch sagen können, ich gehe da nicht mehr hin, aber wie gesagt, da will ich jetzt nicht wieder einsteigen, das das füttern zu weit,

01:20:31.520 --> 01:20:42.072
<v Matthias Spielkamp>wogegen eben bei der öffentlichen Hand wir uns ja nicht aussuchen können, welche Arbeitsagentur ähm für mich zuständig ist oder welche Polizei patrouilliert oder so. Da habe ich keine Entscheidungsfähigkeit drüber.

01:20:42.235 --> 01:20:49.055
<v Matthias Spielkamp>Und am bei dem System Arbeit ist es ja ähm so ein bisschen dazwischen. Natürlich kann ich meinen Job kündigen,

01:20:49.206 --> 01:20:52.942
<v Matthias Spielkamp>Ja, aber wenn das der Preis ist, den ich dafür bezahlen muss, zum Beispiel nicht,

01:20:53.201 --> 01:21:01.728
<v Matthias Spielkamp>mit solchen People Analytic System durchleuchtet zu werden, dann würden wir alle sagen, der ist zu hoch und deswegen ist das Arbeitsrecht ja auch der Versuch,

01:21:01.897 --> 01:21:15.693
<v Matthias Spielkamp>ähm an so einer Stelle einen Schutz zu bieten, ne? Und das ist also schon nochmal was ganz anderes. Und dann ganz schnell noch ähm Nachhaltigkeit, da haben wir da versuchen wir eben ein bisschen die Diskussion darüber anzustoßen, nicht so sehr.

01:21:16.234 --> 01:21:21.516
<v Matthias Spielkamp>Es gibt dieses Narrativ AI for Good, ne, so hey, wir können AI dafür verwenden

01:21:21.450 --> 01:21:31.785
<v Matthias Spielkamp>Klimawandel zu beenden und die Gerechtigkeit äh auf der Welt zu schaffen und den Hunger zu bekämpfen und so weiter, ne. Alles geht ja mit KI, ne, ist also alles am Ende ist alles gut.

01:21:32.218 --> 01:21:40.108
<v Matthias Spielkamp>Wissen wir ja und ähm und wir sagen ja, wir sollten aber auch drauf gucken, was sind eigentlich die Nachhaltigkeits ähm,

01:21:40.295 --> 01:21:51.117
<v Matthias Spielkamp>und auch äh Probleme bei bei der Produktion von solchen Systemen selber. Einmal riesige Datenmodelle, die auch Ressourcen verbrauchen, zum zweiten aber auch,

01:21:51.249 --> 01:21:59.943
<v Matthias Spielkamp>Labeling von Daten über Clickwork-Plattformen ne unter schlimmen Bedingungen ähm oder auch Content-Moderation und sowas, ne?

01:22:00.112 --> 01:22:07.978
<v Matthias Spielkamp>Also dadrauf zu gucken, was ist denn eigentlich die und nicht die AI Forcetainability?

01:22:08.801 --> 01:22:10.892
<v Matthias Spielkamp>Sind so die anderen drei Bereiche.

01:22:11.115 --> 01:22:14.642
<v Tim Pritlove>Mhm. Ähm,

01:22:14.672 --> 01:22:25.800
<v Tim Pritlove>Ja, es gibt viele äh Sachen, auf die man jetzt hier noch äh äh eingehen könnte, aber äh die Zeit läuft uns auch gerade noch ein bisschen davon, aber vielleicht so zum Schluss würde mich nochmal so ein bisschen interessieren, wie so dein,

01:22:25.970 --> 01:22:37.266
<v Tim Pritlove>generell ist auf das Phänomen äh künstliche Intelligenz und wie damit umgegangen wird. Also klar, wir haben natürlich jetzt so einen Hype, ne und da haben wir ja auch schon mehrfach angesprochen.

01:22:37.080 --> 01:22:46.484
<v Tim Pritlove>Ist so ein totales Buzzword und ne, damit verkauft sich Zeug und es wird von der Bundesregierung gefördert und so weiter und es äh eigentlich ja auch so ein so ein

01:22:46.286 --> 01:22:55.966
<v Tim Pritlove>alles oder oder gar nichts Begriff. Also jeder kann irgendwie alles irgendwie AI nennen, wenn irgendein Stück Software äh am Ende irgendeine Ausgabe macht, ne, sagt man ja, ist alles total

01:22:55.889 --> 01:22:59.788
<v Tim Pritlove>künstliche Intelligenz. Aber,

01:22:59.867 --> 01:23:09.769
<v Tim Pritlove>Wir kommen ja nun auch immer mehr in diesen Bereich. Man sieht es jetzt eben konkret bei diesem erfolgreichen Modell Machine Learning, wo auch

01:23:09.577 --> 01:23:18.927
<v Tim Pritlove>die Entscheidungsfindung als solche der Systeme ja gar nicht mehr nachvollziehbar ist. In dem Moment, wo wir von Algorithmen sprechen, ja, was ihr ja so ein bisschen im Titel habt

01:23:18.789 --> 01:23:21.559
<v Tim Pritlove>ist es ja so, okay, dass das äh

01:23:21.445 --> 01:23:30.987
<v Tim Pritlove>Lege dir eine gewisse Nachvollziehbarkeit nahe, ne? Da werden die Daten von da und da genommen, dann läuft das durch den Algorithmus, das kann man sich anschauen und eins und 1 ist gleich zwei und fertig,

01:23:31.258 --> 01:23:38.360
<v Tim Pritlove>Während wir ja jetzt mit diesem Machine Learning an so einen Punkt gekommen sind, wo ja eigentlich niemand mehr sagen kann.

01:23:38.721 --> 01:23:49.489
<v Tim Pritlove>Basis von was jetzt hier eigentlich eine Entscheidung gefällt wird, weil es ja alles nur noch so ein relativistisches Gesamtgeschehen ist. Nur so. Es gibt eine bestimmte Wahrscheinlichkeit, dass irgendwas

01:23:49.267 --> 01:23:58.238
<v Tim Pritlove>damit bewertet wird oder damit bewertet wird und das dann Trioden an Datenpunkten mit eingeflossen und das System macht es schon irgendwie alles richtig, nur

01:23:58.022 --> 01:24:01.603
<v Tim Pritlove>ob es das wirklich richtig tut oder nicht ähm,

01:24:01.664 --> 01:24:15.448
<v Tim Pritlove>kann man halt vielleicht beim Training diese Systeme noch beurteilen, mit dass es eine Katze und das ist ein Hund. Ja, aber so äh als Endnutzer, wenn man das System so quasi fertig hingestellt bekommt, dann ist es ja mehr als nur eine black,

01:24:15.449 --> 01:24:22.971
<v Tim Pritlove>also selbst wenn man die Box aufmacht und Licht reinhält, wird man ja nicht schlauer.

01:24:23.122 --> 01:24:37.406
<v Tim Pritlove>Wie gehst du damit um, was inwiefern prägt das äh auch eure Arbeit? Äh das ist ja auch sicherlich äh tägliche Diskussion beim Kaffee, nämlich nehme ich mal an oder zumindest wöchentlich in irgendeiner Form.

01:24:37.604 --> 01:24:39.797
<v Tim Pritlove>Was glaubst du, wo geht die Reise hin.

01:24:40.567 --> 01:24:46.401
<v Matthias Spielkamp>Das ist natürlich eine echt fette Frage zum Schluss, ne. Ähm aber ähm also.

01:24:46.708 --> 01:24:51.172
<v Matthias Spielkamp>Der eine, das eine, was sich dadrauf zu sagen habe, ist, es ist so eine Art.

01:24:52.482 --> 01:25:01.453
<v Matthias Spielkamp>Ich würde fast sagen, Falle, in die wir getappt sind oder ne, also die einen sind reingetappt, die anderen haben sie aufgestellt. Was meine ich damit? Du hast es schon angesprochen. Es gab lange.

01:25:01.887 --> 01:25:16.230
<v Matthias Spielkamp>Schon die Diskussion über künstliche Intelligenz. Geht schon mal los, damit dieser Begriff, der ist damals geprägt worden, auch um an ähm Fördergeld zu kommen. Ja, es war halt ein sexy Begriff, ne? Hey, Artificial Intelligence, ne, so.

01:25:15.930 --> 01:25:20.719
<v Tim Pritlove>Wobei der ist ja noch noch älter, ich meine den gab's ja schon in den 50er Jahren im Prinzip.

01:25:20.569 --> 01:25:32.845
<v Matthias Spielkamp>Aber das meine ich. In diesem ersten Workshop, ne, damals wo das geprägt wurde, da ging's tatsächlich dadrum, dass die sozusagen den den Workshop machen um den machen zu können, brauchten die halt äh Förderung und deswegen.

01:25:33.440 --> 01:25:36.258
<v Matthias Spielkamp>Ein Grund war, dass dieser Begriff halt so knackig ist.

01:25:36.595 --> 01:25:46.287
<v Matthias Spielkamp>Den dazu prägen. Und ähm und das zieht sich so ein bisschen durch, weil wir haben natürlich dann so eine Vermenschlichung auch, die auch von vielen Seiten kritisiert wird von uns auch, weil,

01:25:46.306 --> 01:25:55.030
<v Matthias Spielkamp>diese vermeintliche Intelligenz der Maschine hat halt mit menschlicher Intelligenz echt eigentlich nix zu tun, ne? Ähm aber klar, wir brauchen immer auch solche,

01:25:55.223 --> 01:26:03.828
<v Matthias Spielkamp>und Analogien und ne, um uns eine Vorstellung zu machen. Das Problem ist dann aber, dass diese Vorstellungen mitunter einfach auch falsch sind und dann,

01:26:03.864 --> 01:26:10.960
<v Matthias Spielkamp>so eine auf so eine falsche Fährte führen. Und das ist meiner Ansicht nach bei dieser ganzen KI Diskussion passiert, weil,

01:26:11.015 --> 01:26:19.812
<v Matthias Spielkamp>Nachdem dieser sogenannte KI Winter dann vorbei war, also viele schiefgegangen ist und äh Leute dann auch äh massiv dadrunter gelitten haben,

01:26:19.867 --> 01:26:33.753
<v Matthias Spielkamp>weil die einen halt große Versprechungen gemacht haben, die nicht eingehalten werden konnten und die anderen, die vielleicht etwas klüger auch unterwegs waren, ihre Forschungsförderung dadurch verloren haben. Irgendwann kam dann dieser Wendepunkt und dann ging auf einmal doch wieder ganz viel, ne?

01:26:34.054 --> 01:26:34.642
<v Matthias Spielkamp>Und.

01:26:34.949 --> 01:26:47.141
<v Matthias Spielkamp>Dann haben sowohl Wissenschaftler innen als auch ähm die äh kommerziellen Anbieter halt einen Riesen-Wind gemacht und haben wieder angefangen mit diesen Halsversprechungen, ne? So also,

01:26:47.256 --> 01:26:56.371
<v Matthias Spielkamp>KI kann alles, ne? Magische äh Technologie und wir können jedes Problem damit lösen. Das hat wiederum dazu geführt.

01:26:56.889 --> 01:27:04.117
<v Matthias Spielkamp>Dass Leute auch gesagt haben, ja, da sind aber auch massive Risiken damit verbunden, ja und was ja auch stimmt.

01:27:04.471 --> 01:27:18.124
<v Matthias Spielkamp>Und auf der einen Seite, es ist ja auch, es sind ja auch tolle Sachen, die da entwickelt werden. Du hast das Beispiel gegeben von Übersetzung und so, ne? Da ist man einfach irgendwann an Grenzen gekommen ohne Machine Learning und und die sind dann überwunden worden dadurch und das ist ja auch geil, ja? So und dann,

01:27:18.250 --> 01:27:22.282
<v Matthias Spielkamp>haben die anderen aber eben diese Risiken äh beschrieben,

01:27:22.415 --> 01:27:32.306
<v Matthias Spielkamp>und das ist auch äh häufig absolut gerechtfertigt und dann kommt halt irgendwann die Politik auf den Plan und sieht also, oh, da muss irgendwie was gemacht werden, ne? Und,

01:27:32.540 --> 01:27:39.366
<v Matthias Spielkamp>Gibt es einen Streit darüber? Also wir haben gegründet, als es noch einen eigentlichen relativ großen Streit darüber gab,

01:27:39.637 --> 01:27:47.111
<v Matthias Spielkamp>sollte man jetzt versuchen KI zu regulieren, also was eigentlich nur ein Forschungsfeld beschreibt und gar kein so richtig.

01:27:47.821 --> 01:27:49.726
<v Matthias Spielkamp>Umreisbarer Begriff ist,

01:27:49.834 --> 01:28:02.129
<v Matthias Spielkamp>oder sollte man nicht in verschiedenen Sektoren schauen, was sind die Auswirkungen vom Einsatz solcher Systeme, wie etwa beim automatisierten Fahren, wie in einer Gesundheits äh Vorsorge, in der Diagnostik,

01:28:02.285 --> 01:28:08.624
<v Matthias Spielkamp>und so weiter. Sollte man nicht lieber dadrauf gucken und sich nicht so sehr an diesem KI-Begriff festhalten.

01:28:09.406 --> 01:28:19.789
<v Matthias Spielkamp>Und dann ist äh Ursula von der Leyen gekommen, ist EU-Kommissarin geworden, musste also Handlungsfähigkeit beweisen und hat sich hingestellt und hat gesagt, innerhalb der ersten 100 Tage meiner.

01:28:20.192 --> 01:28:34.385
<v Matthias Spielkamp>Regierungszeit werde ich um meine Amtszeit werde ich Regulierungsvorschläge für künstliche Intelligenz vorlegen ne und all die sich mit dem Thema auskennen haben so entweder leer geguckt oder die Hände überm Kopf zusammengeschlagen.

01:28:34.872 --> 01:28:36.842
<v Matthias Spielkamp>So gedacht, ach du Scheiße.

01:28:37.294 --> 01:28:49.059
<v Matthias Spielkamp>Und in der Europäischen Kommission äh hat wahrscheinlich der ein oder andere so einen Halbherzinfarkt bekommen, weil die natürlich dann immer wissen, was das bedeutet, ne, also keine Wochenenden mehr die nächsten äh drei Monate.

01:28:49.589 --> 01:29:00.182
<v Matthias Spielkamp>Und so weiter, ne? Und ähm ja und dann und das konnten sie natürlich nicht einhalten, das Versprechen, aber wenigstens haben sie dann so eine Art, dann gab's eine Expertenkommission und dann ach nee, Entschuldigung, die gab's vorher

01:29:00.164 --> 01:29:03.102
<v Matthias Spielkamp>dann wurde so ein so ein Weißbuch wurde verfasst,

01:29:03.259 --> 01:29:11.978
<v Matthias Spielkamp>damit konnte man dann zumindest argumentieren, man hat das eingehalten, diesen Zeitplan, ne und aus dem Weißbuch ist dann nachher dieser AI Act entstanden und ne

01:29:11.846 --> 01:29:24.206
<v Matthias Spielkamp>Ähm ich hoffe, das wird jetzt nicht zu äh ausschweifend, aber wodrauf ich halt hinaus will. Jetzt haben wir halt, ist, du hast den Zauberlehrling schon äh genannt als Beispiel heute. Das ist also KI ist in dem Sinne auch.

01:29:24.681 --> 01:29:27.204
<v Matthias Spielkamp>Ne? Wir haben uns was geschaffen.

01:29:27.668 --> 01:29:38.147
<v Matthias Spielkamp>Bei dem man mit Fug und Recht drüber streiten kann, ob's das überhaupt gibt, ja? Aber jetzt ist es da, denn wenn wir erstmal eine Regulierung für etwas haben, dann gibt's das natürlich auch,

01:29:38.418 --> 01:29:47.377
<v Matthias Spielkamp>oder ein Regulierungsvorschlag. Und wir hätten das ja tatsächlich ganz gerne, wenn wir von diesem KI-Begriff quasi wieder wegkämen,

01:29:47.654 --> 01:29:51.806
<v Matthias Spielkamp>Aber wir glauben auch, dass der Zug in dem Sinne abgefahren ist, weil.

01:29:52.203 --> 01:30:04.365
<v Matthias Spielkamp>Wir jetzt auch das Problem haben, natürlich könnten wir sagen, wir brauchen keine keine KI-Verordnung, dann würde aber auch das Positive, was da durchaus drinsteht, natürlich mit über die Wupper gehen.

01:30:05.092 --> 01:30:13.409
<v Matthias Spielkamp>Und äh und und da ist man dann einfach in der normativen Kraft des faktischen einfach mal komplett gefangen.

01:30:14.317 --> 01:30:22.146
<v Matthias Spielkamp>Und äh und und das ist halt die so eine Art äh Halbe Antwort dadrauf, ne, weil die andere Hälfte ist natürlich so, ja.

01:30:22.615 --> 01:30:31.363
<v Matthias Spielkamp>Was glaubt man denn, was was diese Systeme leisten können und jetzt hatten wir ja gerade diese Woche erst die Geschichte von diesem Google Jana.

01:30:31.827 --> 01:30:38.081
<v Matthias Spielkamp>Der meint, er hat also jetzt erkannt, dass der Chatbot tatsächlich ein Bewusstsein hat und so einen Quark, ne.

01:30:38.364 --> 01:30:48.032
<v Matthias Spielkamp>Denkst du also auch okay, ist das jetzt ein Marketing-Gag, ne? Ist das also alles äh ist das gecastet oder was ist denn das jetzt wieder für ein Quatsch, ne?

01:30:48.411 --> 01:30:49.144
<v Matthias Spielkamp>Aber.

01:30:48.857 --> 01:30:58.362
<v Tim Pritlove>Warten wir erstmal, wenn äh Tesla richtig loslegt. Ich meine, das die sind ja da auch in dem äh Zauberlehrlings Business auch ganz munter

01:30:58.332 --> 01:31:04.546
<v Tim Pritlove>unterwegs und haben jetzt ihren nächsten AI Day äh angekündigt und komme ja jetzt schon mit humanoiden Robotern, aber

01:31:04.492 --> 01:31:15.494
<v Tim Pritlove>ihr habt das Begrifflich schon ganz gut eingefangen, weil ich meine, am Ende ist es wahrscheinlich auch irgendwo egal, ja. KI ist Wischiwaschi-Begriff, er wird es wahrscheinlich immer bleiben und in gewisser Hinsicht ist es auch,

01:31:15.542 --> 01:31:25.175
<v Tim Pritlove>gut, weil es dann äh in gewisser Hinsicht auch die Zukunft, von der wir noch nicht genau wissen, äh was sie da noch alles mit dazustellt aufs Regal.

01:31:25.157 --> 01:31:33.828
<v Tim Pritlove>Schon mit abdeckt und letztlich ist wahrscheinlich dieser ADM-Begriff, diese automatisierte Entscheidungsfindung auch.

01:31:34.104 --> 01:31:47.745
<v Tim Pritlove>Das Relevante auf der Arbeitsebene, weil das ist ja eigentlich das, was uns wirklich besorgt, ne? Also wenn Verantwortung übernommen wird oder Verantwortung abgegeben wird, noch schlimmer an äh Systeme irgendeiner Bauart,

01:31:47.878 --> 01:31:59.504
<v Tim Pritlove>Ja? Du stellt sich ja generell eben die Frage, okay, wer ist denn jetzt schuld oder wer ist verantwortlich dafür, dass bestimmte Prozesse in Gang gebracht wurden oder nicht in Gang gebracht wurden?

01:31:59.703 --> 01:32:09.426
<v Tim Pritlove>Schon genug Streit, wenn irgendwie der Notfalltag zur Katastrophe ist und keine Sirene mehr heult und irgendwie die Handys äh keine Informationen ausspucken und alle zeigen gegenseitig.

01:32:09.649 --> 01:32:15.735
<v Tim Pritlove>Wir erleben ja einen zunehmenden Maße, dass eben so ja das war ja ein Fehler in der Software. So aha mhm

01:32:15.730 --> 01:32:29.904
<v Tim Pritlove>Und wer hat die gemacht? Und wer wer steht da sozusagen für also ich denke, das sind so die die Dinge, die sich wahrscheinlich auch in der nächsten Zeit noch äh klären müssen, während eben diese reine informatische Begriffswelt, die die läuft äh davon und wir sehen das ja auch mit

01:32:29.784 --> 01:32:34.556
<v Tim Pritlove>Blockchain, mit wie viel Bullshit, Bingo äh da gearbeitet.

01:32:34.268 --> 01:32:35.908
<v Matthias Spielkamp>Oh ja, oh ja.

01:32:36.623 --> 01:32:50.065
<v Tim Pritlove>Gut äh Matthias, lass uns äh an dieser Stelle zu Ende kommen. Ich sage vielen, vielen Dank für die Ausführung zu äh Algorishm Watch und all dieser Gedankenwelt, mit der ihr euch äh auch ganz konkret aktivistisch beschäftigt.

01:32:50.588 --> 01:32:53.070
<v Matthias Spielkamp>Mhm. War mir ein Vergnügen.

01:32:53.100 --> 01:32:56.452
<v Tim Pritlove>Ja, mir auch und ähm ja, ich äh.

01:32:56.771 --> 01:33:09.450
<v Tim Pritlove>So den Eindruck da werden wir noch öfter auch äh drauf zu sprechen kommen auf diese Themen und jetzt natürlich konkret, wenn's um solche EU-Verordnungen äh geht und den Digital Service Act hat ja schon erwähnt, haben wir ja hier auch schon äh Aspe

01:33:09.355 --> 01:33:17.196
<v Tim Pritlove>äh besprochen, allerdings den Aspekt, den du jetzt hier mit reingebracht hast, woran ihr wart. Den hatten wir so noch gar nicht auf der Liste. Ist ja auch ein relativ großes Werk.

01:33:17.743 --> 01:33:25.020
<v Tim Pritlove>Insofern, ja, vielen Dank für eure Arbeit und vielen Dank für deine äh Präsenzball-Log Buchnetzpolitik.

01:33:25.344 --> 01:33:32.327
<v Matthias Spielkamp>Ja gerne, darf ich, darf ich ganz kurz am Schluss noch sagen, wir wollen ja mehr äh Kleinspenden von Leuten, ne, damit

01:33:32.273 --> 01:33:41.484
<v Matthias Spielkamp>unabhängiger werden auch von den von den Stiftungen, die uns fördern, ne, weil die natürlich auch alle eine Agenda haben. Wir mögen die natürlich alle wahnsinnig gern, ne, aber dauerhaft wär's natürlich.

01:33:42.296 --> 01:33:48.846
<v Matthias Spielkamp>Individuen unterstützen würden. Jetzt wenn du wenn du sagst, das steht in Konkurrenz zu deinem eigenen Spendensammeln, dann.

01:33:48.546 --> 01:33:50.702
<v Tim Pritlove>Nein nein.

01:33:49.177 --> 01:33:57.968
<v Matthias Spielkamp>Raus, ne? Aber aber äh wir freuen uns natürlich sehr darüber, wenn Leute uns auch direkt unterstützen, weil ja manchmal die Frage ist, was können wir denn tun.

01:33:58.449 --> 01:34:04.181
<v Matthias Spielkamp>Und äh das eine ist natürlich immer gerne ähm uns finanziell unter die Arme zugreifen.

01:34:04.278 --> 01:34:11.091
<v Tim Pritlove>Das hätte ich jetzt eh noch äh erwähnt. Das gehört hier auch zum äh Ton. Ich denke auch, dass die Spendenmodelle

01:34:11.043 --> 01:34:23.548
<v Tim Pritlove>generell sehr wichtig sind aus den Gründen die du schon genannt hast ne ich war also äh Förderung alles super aber die kann auch schnell mal wieder entzogen werden wenn's dann äh mit der Arbeit dann doch zu sehr schmerzt.

01:34:23.891 --> 01:34:33.252
<v Tim Pritlove>Ne, also in den Ergebnissen und von daher äh denke ich mal ist das äh der Weg, den man auch gehen sollte und nicht nur auf ein einziges Pferd setzen.

01:34:34.244 --> 01:34:42.885
<v Tim Pritlove>Genau, den Link findet ihr auch in den Shownotes, wie auch alle anderen, äh äh Links, äh die wir hier genannt haben. Ich hoffe, ich habe keinen vergessen. Ja und dann

01:34:42.808 --> 01:34:51.364
<v Tim Pritlove>bleibt mir nix anderes als noch mal danke zu sagen und ich sage danke fürs Zuhören tschüss und äh bis zur nächsten Woche. Bis bald.
