Logbuch:Netzpolitik
Einblicke und Ausblicke in das netzpolitische Geschehen
https://logbuch-netzpolitik.de


LNP432 AlgorithmWatch 

Ein Logbuch:Netzpolik Spezial über AlgorithmWatch und dem Netzaktivismus zu Automatisierten Entscheidungen

Linus setzt mal aus und Tim spricht daher heute mit Matthias Spielkamp über die Arbeit und Themen von AlgorithmWatch, eine 2017 gegründete Organisation, die sich auf die Fahnen geschrieben hat, den komplizierten politischen Prozess rund um Algorithmen und Künstliche Intelligenz zu moderieren und aktivistisch zu begleiten, um Grundrechte und Datenschutz auch in einer Zeit zu gewährleisten, in der zunehmend "intelligenten" Softwaresysteme die Aufgabe für Vorauswahl und Entscheidungen überlassen wird.

https://logbuch-netzpolitik.de/lnp432-algorithmwatch
Veröffentlicht am: 17. Juni 2022
Dauer: 1:34:52


Kapitel

  1. Intro 00:00:00.000
  2. Prolog 00:00:23.206
  3. Matthias Spielkamp 00:01:01.689
  4. Algorithmen und Journalismus 00:02:58.544
  5. Datenjournalismus 00:10:11.985
  6. AlgorithmWatch 00:14:21.977
  7. Metathemen 00:19:57.942
  8. Automatisierte Entscheidungsfindung 00:24:21.718
  9. OpenSCHUFA 00:50:09.544
  10. Konkreter Aktivismus 00:57:36.251
  11. Interne Meinungsbildung 01:06:13.627
  12. KI-EU-Verordnung 01:09:46.765
  13. Weitere Themenfelder 01:17:03.856
  14. Nachhaltigkeit 01:21:07.350
  15. Nachvollziehbarkeit von Künstlicher Intelligenz 01:22:12.399
  16. Epilog 01:32:36.475

Transkript

Tim Pritlove
0:00:00
Matthias Spielkamp
0:00:00
Tim Pritlove
0:00:23
Matthias Spielkamp
0:01:16
Tim Pritlove
0:01:17
Matthias Spielkamp
0:01:24
Tim Pritlove
0:01:26
Matthias Spielkamp
0:01:33
Tim Pritlove
0:02:06
Matthias Spielkamp
0:02:37
Tim Pritlove
0:02:39
Matthias Spielkamp
0:02:42
Tim Pritlove
0:02:48
Matthias Spielkamp
0:02:55
Tim Pritlove
0:02:57
Matthias Spielkamp
0:03:17

Ja, tatsächlich hat's ziemlich viel mit dem zu tun, was ich vorher gemacht habe. Ich habe einmal ein großes ähm große Lust gehabt, dieses ganze Internet da zu erkunden und und zu verstehen, habe das aber am Anfang überhaupt nicht als so ein wichtiges Politikfeld begriffen. Also es war mir. Natürlich theoretisch irgendwie klar, ne, dass das, was Weltveränderndes sein würde, aber, Äh ich hatte nicht selber den Anspruch das mitzugestalten, sondern eher zu nutzen. Ich habe dann so zum Beispiel fürn und Journalisten Seminare dazu gemacht, wie sie am besten, suchen online und recherchieren und wie sie auch ihre Webseiten konzipieren, damit die Informationen gut rüberkommen und erst als ich aber angefangen habe mit diesem Urheberrecht rumzumachen, da habe ich verstanden, wahnsinnig politisch das Ganze ist und was die Regulierung für einen Einfluss da drauf hat, und natürlich welcher welchen Einfluss auch die Digitalisierung selber auf die Regulierung hat, ne? Und ähm. In dem ganzen Zusammenhang habe ich mich dann viel mit der Zukunft des Journalismus beschäftigt welche Geschäftsmodelle können überhaupt noch funktionieren unter solchen Bedingungen und dergleichen mehr und dann, kam eben auch irgendwann dieses Thema, Roboterjournalismus auf, ja? Also das wird jetzt dann alles automatisch gemacht und wir verlieren alle unsere Jobs, weil irgendwelche Maschinen die Texte schreiben und, Das fand ich durchaus so interessant im Sinne von okay, was steckt dahinter und habe eine Veranstaltungsreihe dazu äh kuratiert, wie man heutzutage so schön sagt und, Ähm habe dann aber doch auch ziemlich schnell festgestellt, boah, das Thema ist eigentlich ziemlich uninteressant, weil ähm so viel wird da nicht passieren. Also da wird eine Menge passieren, aber es ist nicht wirklich relevant, weil ähm. Also komme ich gleich nochmal drauf, warum das auch zum Teil jedenfalls ein Irrtum war, aber jedenfalls ist es nicht relevant in dem Sinne. Die Journalisten werden alle ihre Jobs verlieren, sondern was halt automatisiert wird, sind so Standard. Texte wie Wetterbericht, Sport Reportage, also Reportage noch nicht mal, sondern äh Spielbericht und. Jetzt Börsennachrichten oder so was in der Art, Und in dem Zusammenhang habe ich aber eben auch auf dieses Feld sozusagen Automatisierung und Algorithmen mehr geschaut und dann bin ich übern Text gestolpert, der, eben sehr viel verändert hat für mich und er heißt Boxes von Nikolas Diakopolus, einem Amerikaner, also ähm, wie wie man durch Journalismus, Algorithmen zur Rechenschaft ziehen kann ähm und wie man eben solche, untersucht. Das war der Titel und das waren, keinen jetzt irgendwie äh sechzigseitiges Ding, sondern ungefähr so zwanzig, 25 Seiten, aber der hat's halt geschafft, sehr gut auf den Punkt zu bringen, warum er der Ansicht ist, dass es zu den Aufgaben von Journalistinnen und Journalisten gehören sollte, sich diese Automatisierungsprozesse anzuschauen, weil die eben gesellschaftlich eine hohe Relevanz haben und weil, genauso wie der Journalismus die Aufgabe hat die Regierenden zu überprüfen, die ähm Unternehmen, also, sozusagen die Mächtigen, the powers at be dazu gehören dann eben auch zunehmend solche automatisierten Verfahren und das hat mich total überzeugt und dann habe ich gedacht, gut, also jetzt habe ich gefunden, was mein, Was meine Perspektive da drauf ist und mein Ansatz.

Tim Pritlove
0:06:41
Matthias Spielkamp
0:07:34

Ja genau, also ähm ich habe ja gesagt, ein bisschen habe ich mich geirrt, weil ich schon finde, dass man diese Automatisierung eben auch für richtig gute nutzen kann. Äh zum Beispiel habe ich mal ein Projekt auch mitgegründet, das es immer noch gibt, das heißt mobilsicher Punkt DE. Da geht's um Berichterstattung äh über Sicherheit bei Mobil ähm devices, ne? Also anfangs auch Tablets noch am Ende waren's dann schon nur noch Smartphones und da äh haben die Kollegen, da war ich dann schon nicht mehr so stark dabei. Ähm Kolleginnen und Kollegen haben ein System entwickelt, mit dem automatisiert überprüft wird, welche Daten, die ähm Apps an Server senden. Äh also richtig dynamisch. Das heißt wirklich, wenn die im Betrieb sind, das ist schon sehr besonders, ne und, Was Sie dann auch gemacht haben, das war dann schon meine Idee. Ich habe die nicht umgesetzt, aber was ich dadran dann eben auch so einen richtig geilen Aspekt fand war, dass man, wenn man dann wirklich das skalieren kann, wenn man viele hundert solcher Apps überprüfen kann, dass man natürlich mitm Schreiben der Artikel nicht mehr hinterherkommt. Ne, dieser Berichte darüber, dass diese Berichte dann aber schon ähnlich standardisiert werden können wie halt ein Wetterbericht, und tatsächlich ist dann ein Teil von diesem Angebot eben auch, dass diese Testberichte automatisiert verfasst werden. Und da kann man auch auf eine Art den Spieß umdrehen und sagen, da kann man dann mit Automatisierung auch mal was erreichen, was man eben sonst mit vertretbarem Aufwand nicht erreichen können. Könnte und dann auch mal eben diesen, äh Risiken ähm Zahlen auf der einen Seite, ne, wir werden da also über Häuf mit tausenden von Apps, Kann man dann auch mit solchen Mitteln zumindest versuchen, beizukommen. Aber ja, du hast schon recht, also insgesamt diese ganze Frage nach der Automatisierung das war wird massiv eingesetzt heute. Katalogtexte, Reiseberichte und so weiter. Das ist also inzwischen total normal geworden.

Tim Pritlove
0:09:31
Matthias Spielkamp
0:09:35
Tim Pritlove
0:09:46
Matthias Spielkamp
0:10:10
Tim Pritlove
0:10:11
Matthias Spielkamp
0:10:34
Tim Pritlove
0:10:45
Matthias Spielkamp
0:10:46

Journalist gearbeitet hat, genau, ne ähm habe ich dann rumgehirnt und es gab damals eine Ausschreibung von Erfolgswagenstiftung zu Datenjournalismus und wir haben uns die angeguckt und wir fanden halt beide. Ey, nee. Da da äh das ist eigentlich. Äh auserforscht, wenn man so will. Ja also man kann da ganz tolle Ideen entwickeln und konkrete Anwendungen, auch sich einfallen lassen dass man da jetzt so eine große Ausschreibung macht und sagt, wir müssen uns jetzt da einen Journalismus angucken, in so einer Kombination aus Wissenschaft und Journalismus. Da haben wir beide gedacht, das kommt eigentlich sechs Jahre zu spät, wie so vieles in Deutschland. Muss so zweitausend äh vierzehn, 2015 gewesen sein, ne? Und ähm. Dann haben wir aber gedacht, okay, wir probieren einfach was anderes. Wir schreiben einen Antrag. Indem wir eigentlich Augustic Countability Reporting machen und dann aber sagen, auch mit Daten journalistischen Mitteln und in der Daten journalistischen Aufbereitung. Und das haben wir auch gemacht. Also wir haben den Antrag geschrieben zusammen mit ein paar Kollegen und Kolleginnen und, ist abgelehnt worden, ja und meiner Ansicht nach. Haben die einfach nicht kapiert was wir wollten. Kann man natürlich immer sagen ja äh ihr wart einfach zu blöd, dass gut genug aufzuschreiben, dass sie das verstehen konnten. Da könnte ich jetzt viel drüber reden ähm aber jedenfalls haben wir das Geld nicht bekommen, Wir haben beim Schreiben dieses Antrags und beim, davon, was wir eigentlich machen wollten, haben wir schon gemerkt, wow, da steckt echt was drin. Und dann war es Lorenz, der damals. Dieser Idee kam, ich behaupte ja immer, es gibt eine E-Mail, die wir aber beide nicht finden können. Er meinte, er hat mir das nur am Telefon erzählt. Jedenfalls hat er ähm den Twitter handle Elvis im Watch gesichert und die Domain Elgarison Watch Punkt ORG. Als ich das gehört habe, habe ich gedacht, ja, genau, jetzt weiß ich, weiß ich, womit ich die nächsten Jahre meine meine Zeit verbringen will.

Tim Pritlove
0:12:53
Matthias Spielkamp
0:13:36
Tim Pritlove
0:14:07
Matthias Spielkamp
0:14:09
Tim Pritlove
0:14:21
Matthias Spielkamp
0:14:42
Tim Pritlove
0:15:10
Matthias Spielkamp
0:15:11

Ja, ne und es geht vielen so und das war natürlich eine Chance, weil, Schon jetzt lange genug da zu dem Zeitpunkt auch in dieser Zivilgesellschaft und Gemeinnützigkeit unterwegs war, dass ich wusste, man braucht halt eine coole Story, um auch Geldgeber zu überzeugen, dass da Musik drin ist, denn die braucht man. Ich wollte das nicht, sage immer, ich, ich, ne, aber ich ist schon völlig klar. Wir haben das in dem Team gemacht, aber was für mich wichtig ist und war. Ich war einfach fest davon überzeugt, dass wir das nicht als so eine Art. Grasrudes ähm äh hier ehrenamtliche Initiative machen sollten. Das war nötig am Anfang, weil dir natürlich am Anfang niemand Geld dafür gibt. Aber es war von Anfang an das Ziel, dass wir da draußen eine, professionell agierende, finanzierte Organisationen machen, die den Leuten, die da arbeiten, Geld dafür bezahlen kann, dass die da arbeiten, weil es nämlich sonst einfach versackt, ja. Es gibt viele, gut gemeinte äh Initiativen, die von richtig guten Leuten gemacht werden. Ich finde das dann wirklich auch oft schade zu sehen, wie die so vor sich hin mickern und zeigt da nicht irgendwie mit dem Finger drauf und sage, die sind doof, sondern es hat einfach was damit zu tun, dass dann da die Leute fehlen, die sagen, ja aber ich setze mich halt auf den Hintern und schreibe irgendwelche Förderanträge, denn das macht den meisten Leuten keinen Spaß, aber wenn man's nicht macht, dann ähm ja bleibt's eben häufig so ein vor sich hin kreblen.

Tim Pritlove
0:16:42
Matthias Spielkamp
0:16:48
Tim Pritlove
0:18:03
Matthias Spielkamp
0:18:16
Tim Pritlove
0:18:53
Matthias Spielkamp
0:19:01
Tim Pritlove
0:19:06
Matthias Spielkamp
0:20:09

Das ist natürlich völlig richtig und äh ich kann mir schon vorstellen, dass auch manche, die da grad zuhören, so innerlich ein bisschen die Augen verdrehen, ne, so oh Algorithmen, ne und dann vielleicht auch KI und wat ein Unsinn, äh die äh weil ja doch das auch häufig sehr unspezifisch verwendet wird. Das ist natürlich eine Metapher, ne? Das ist ja klar. Also äh klar gibt es Algorithmen und wir beschäftigen uns auch mit denen aber ähm was. Für uns der Gegenstand ist unserer Beobachtung, ist das, was wir. Beschreiben oder benennen mit automatisierte Entscheidungssysteme, automatisien making Systems, ne? Und das ist natürlich auch ziemlich abstrakt. Aber was wir versuchen damit zum Ausdruck zu bringen, das ist halt ein Begriff, der in einer gewissen äh Wissenschaftscommunity auch schon ziemlich lange etabliert ist, dass es Systeme gibt, an die halt menschliche Entscheidungen im Grunde genommen ausgelagert werden. Da können wir ja vielleicht gleich nochmal ein bisschen genauer drüber reden und, Damit wird auch ein Teil von menschlicher Autonomie an die abgetreten und das ist etwas, was eben weitreichende Auswirkungen haben kann in der Gesellschaft und da, wo wollen wir eben diese Watchdock Organisation sein? Und wir haben das in vier Felder aufgeteilt, thematisch. Das eine ist ähm ADM, nenne ich's jetzt mal einfach, Abkürzung, in der öffentlichen Hand, ja, also wenn die Verwaltung das verwendet, Verwaltung heißt durchaus auch in dem Fall Sicherheitsbehörden. Aber schon auch die ganz normale Verwaltung in Anführungszeichen, es muss also nicht nur um Geheimdienste und Polizei gehen.

Tim Pritlove
0:21:40
Matthias Spielkamp
0:21:42

Der Staat, genau. Ne ähm und dann äh ADM ähm äh in der äh in the publix vier das ist sehr schwer auf Deutsch zu übersetzen. Wir haben uns mal dann geeinigt auf öffentliche Meinungsbildung. Da geht es dann um die großen Plattformen. Da geht's dann eben um äh Facebook und YouTube und TikTok und Twitter und so weiter und wie die Algorithmen und solche Systeme verwenden, was das für eine Bedeutung hat für uns und dann ADM am Arbeitsplatz. Ähm das ist, für uns im Moment nicht so, das möchten wir schon auch noch ändern, aber im Moment nicht so diese dieses ähm Gigwork und Plattformwork, so Uber und ähm. Gorillas und so, sondern eher ähm was dann unter dem Begriff äh People Analytics häufig läuft, Systeme, mit denen man. Die Performance von Menschen überwachen kann, versuchen kann, auch sie zu steuern und so weiter und so fort. Das vierte und letzte ist dann Nachhaltigkeit und das ist natürlich auch ein sehr schwammiger Begriff, weil einerseits unter Nachhaltigkeit alles fällt, ja, also wenn man den. UN-Begriff äh vereinte Nationen, ne und Nachhaltigkeitsziele anguckt, dann hat man da 17 verschiedene und da ist im Grunde genommen alles drunter. Und gleichzeitig denken viele Leute über Nachhaltigkeit nur an Energieverbrauch und für uns ist diese Nachhaltigkeit von den Systemen eben fokussiert auf tatsächlich Energieverbrauch aber auch Arbeitsbedingungen die dazu, die die im Zusammenhang stehen damit, dass solche Systeme erzeugt werden, Und ähm auch also soziale und und ähm ökonomische Kriterien. Ja und das sind die vier Arbeitsfelder, bei denen wir gesagt haben, da müssen wir uns mal drauf fokussieren. Ich will vielleicht noch einen Satz sagen, das hört sich ja so an, so das ist ja irgendwie alles, das stimmt längst nicht, Äh ich wenn man zum Beispiel sagt äh hier ähm Gesundheit äh Mobilität ne, automatisiertes Fahren ähm autonome Waffen und so weiter. Da gibt's also schon zahlreiche Felder, bei denen wir sagen, Kümmern wir uns nicht drum, nicht weil wir das uninteressant fänden, sondern weil wir einfach uns fokussieren müssen. Nur um dem vielleicht manchmal entsteht der Eindruck, das ist doch quasi alles, aber das ist längst nicht alles, wo drum wir uns kümmern könnten, hm? Sondern äh schon auch eine Beschränkung.

Tim Pritlove
0:24:03
Matthias Spielkamp
0:24:19
Tim Pritlove
0:24:21
Matthias Spielkamp
0:25:32

Ja, also da hast du schon einen ganz guten Abriss gegeben, auf jeden Fall. Es ist eben so, dass ähm in der öffentlichen Hand ja, Bei uns jetzt in Deutschland die Digitalisierung nicht sehr weit vorangeschritten ist und viele aus dieser Szene bemängeln das ja auch. Wir wollen ja eigentlich, alle eine viel bessere, besser aufgestellte öffentliche Hand, was Digitalisierung angeht, ja nur jetzt auf die Coronapandemie zurückblicken und ne ähm man kann ja gar nicht mehr drüber lachen über die Faxgeräte in den Gesundheitsämtern. Das ist ja ein Trauerspiel, ne? So und auf der anderen Seite ist es aber so, dass dort, wo die Verwaltung sich stärker schon digitalisiert hat und automatisiert hat, dass eben. Massiv Probleme entstehen. Hm Beispiele etwa äh sind die Niederlande, wo die einfach. Echt einen anderen Umgang haben. Das kann man schon so sagen. Ähm da gibt es nicht so viel kritische Beobachtung und dann werden eben so Systeme entwickelt wie ja SYRI, das ist auch so ein risk äh so ein Risikomanagementsystem. Das ist nicht äh lang eingesetzt worden, aber es ist ausprobiert worden, bis es dann auch durch ein Gerichtsverfahren gestoppt wurde und da wurde zum Beispiel versucht, einfach ganz viele Daten zusammenzuwerfen, um dann mit Hilfe von einem so einem Automatisierungssystem, Analysesystem kann man's natürlich auch nennen, herauszufinden, ob zum Beispiel jemand Sozialleistungsbetrug begeht. Ja, so als Beispiel, da hat jemand eine, Wohnung äh also er hat eine er hat eine Meldeadresse und ähm bekommt jetzt also zum Beispiel eine Wohnsubvention dafür und dann stellen die fest über die Daten vom. Wasserwerk, das sauber gar kein Wasser verbraucht wird. Ja und offenbar wohnt der Typ oder die Frau dann woanders und kassiert aber dafür Subventionen und dann wird da eingegriffen, Das ist halt schon so ein natürlich ein Beispiel dafür. Wie äh zum einen versucht wird, ja so eine Art äh Überwachungssystem einzurichten, das dann auch noch automatisiert Ergebnisse ausspuckt, und auf der also was was wir problematisch finden und auf der anderen Seite ist es auch ein typischer Fall davon, dass solche Systeme häufig verwendet werden, also erstmal ausprobiert werden, wenn man so will, an den Schwächsten der Bevölkerung. Und äh in in Holland. Also das System hat schon einige Schlagzeilen gemacht. Da hat's dann auch ein Gerichtsverfahren gegeben. Das ist auch erstmal ausgesetzt worden. Ähm wird aber weiterverfolgt von den Behörden, Gab's aber noch in vielen drastischeren Fall, da ist nämlich auch mit so einem automatisierten System ähm sind. Ähm Kindergeldzahlungen zurückgefordert worden und das war in ganz vielen Fällen vollständig ungerechtfertigt und es waren auch Summen, die waren sehr hoch und da sind Leute wirklich in extreme Existenzängste gekommen. Es soll sogar. Selbstmorde gegeben haben aus dem Grund, weil die Leute halt irgendwelche hochrenten Nachforderungen, also Rückforderungen bekommen haben und gedacht haben, das werde ich nie leisten können, ja und ich sehe da keinen Ausweg, Solche Beispiele sieht, dann muss man natürlich sagen, das gibt's alles in Deutschland nicht, das ist gut, dass das so ist, ja, aber es hat. Wahrscheinlich noch nicht so wahnsinnig viel damit zu tun, dass die deutsche Verwaltung so super ethisch ist, sondern dass einfach noch nicht so viel digitalisiert ist und dass noch nicht so viele Ideen entwickelt wurden. Also ich will damit jetzt nicht sagen. Ich habe die alle in Verdacht, dass die solche schlimmen Systeme entwickeln wollen. Es ist ja auch häufig, bei diesem Kindergeld ähm Ding ist es ja meistens auch ein Fehler. Das ist ja da steckt ja keine Absicht dahinter, dass jetzt jemand dafür sorgen will, dass das passiert, aber ähm es fehlt eben an. Aufmerksamkeit und Sensibilität dafür und es fehlt an Mechanismen, um dafür zu sorgen, dass das nicht schief geht, Und das ist halt unser Anliegen. Wir wollen Digitalisierung, ja, aber sie muss halt so gemacht werden, dass das nicht passieren darf äh kann.

Tim Pritlove
0:29:35
Matthias Spielkamp
0:29:38
Tim Pritlove
0:29:48
Matthias Spielkamp
0:29:59
Tim Pritlove
0:30:35
Matthias Spielkamp
0:30:41
Tim Pritlove
0:30:46
Matthias Spielkamp
0:31:39

Ja also äh so was eben nicht, ne, dass da wirklich schon so sozusagen äh hier die, die die durchschnittlichen deutschen oder in Deutschland lebenden Menschen davon betroffen gewesen wären, was in, aber eben passiert ist, das werden einige ja auch kennen durch vor allen Dingen Berichterstattung bei Netzpolitik ist, äh dass das BAMF, also das ähm ähm. Bundesamt für äh äh Migration und und Flüchtlinge äh so eine automatische Dialekterkennung verwendet, die hochumstritten ist, ne? Weil da ist auch eben äh so ist, dass das wissenschaftlich gesehen auf echt, tönernen Füßen steht, ja, dann gibt es predictive Policing in Deutschland, in vielen Bundesländern, wird das eingesetzt. Das ist diese Idee, dass man jetzt nicht, individuelle Straftäter innen identifizieren kann, sondern dass man versucht durch statistische Methoden und eben auch und so weiter auf Grundlage von vorliegenden Kriminalitätsdaten rauszufinden, wo werden jetzt in Zukunft mehr, Verbrechen begangen, zum Beispiel Autodiebstahl, Einbruch und dergleichen und dann wird dort eben verstärkt patrouilliert. Könnte man ja auch erst mal sagen. Ist doch eine wahnsinnig gute Idee, ne, aber ich glaube, mit ein bisschen fantasiefallen einem auch sofort mögliche Probleme ein, dann eben zum sogenannten Overpolicing kommt und so einen selbstverstärkenden Effekt hat, da wo Kriminalität schon ein bisschen höher ist, wird halt stärker patrouilliert, dann wird mehr Kriminalität entdeckt als woanders, wo nicht patrouilliert wird, ne und dann, man so eine Ghettobildung, also um es jetzt mal wirklich ein bisschen zuzuspitzen, aber um den Mechanismus zu beschreiben. Das passiert in Deutschland schon und es werden auch in Deutschland automatisiert äh Steuerbescheide erlassen und. Das ist zum Beispiel eine ganz interessante Geschichte, weil man da auch sagen muss. Wir haben ja viele Forderungen eben in erster Linie nach Transparenz, ne, dass es ganz wichtig ist, dass man weiß, wo das verwendet wird und auch auf welche Art und Weise und dass da natürlich ein typisches Argument ist, also bei den Sicherheitsbehörden, die sagen natürlich auch immer, wir können da keine Auskunft drüber geben und das ist hochumstritten, da würden glaube ich viele in der Szene sagen ja ja das ist immer so vorgeschützt ne? Die wollen nur einfach nicht gestört werden, jetzt zum Beispiel bei den ähm bei den Steuerbescheiden ist es ja auch so, dass die keine Transparenz wirklich darüber herstellen wollen, weil das ja auch genau zu diesem Gaming-the-System Effekt führen könnte.

Tim Pritlove
0:34:09
Matthias Spielkamp
0:34:13
Tim Pritlove
0:34:24
Matthias Spielkamp
0:34:32
Tim Pritlove
0:34:36
Matthias Spielkamp
0:34:48
Tim Pritlove
0:34:49
Matthias Spielkamp
0:35:21

Ja äh und das ist aber ein guter Punkt, weil man hier ja zum Beispiel sogar argumentieren könnte, dass die dass es da eine eine von diesen Möglichkeiten gibt. Es gibt ja viele, die sagen, ja aber man kann doch die Gerechtigkeit äh und die Diskriminierungsfreiheit und so weiter kann man ja verbessern durch automatisierte Systeme. Das würden wir eben auch prinzipiell immer sagen, ja, ja, das stimmt, ja, nur leider finden wir so wenig Beispiele dafür, wo das tatsächlich gemacht wird und gelingt, und bei den bei der Steuergeschichte ist es ja so, da gibt es ja ein Potenzial. Ich meine, wir beklagen uns dadrüber, dass solche Systeme häufig angewendet werden, wie ich eben beschrieben habe, äh auf vor allen Dingen eben, ähm benachteiligte Gruppen und Menschen. Und bei dieser ähm Steuerüberprüfung da wäre ja die Chance da. Leuten auf die Schliche zu kommen, ne, die versuchen also mit unerlaubten Methoden, die äh das zu optimieren. Gleichzeitig ist aber auch dann wieder ein sehr gutes Beispiel dafür. Da mache ich noch mal ein großes Fass auf, aber das ist notwendig. Dass man jetzt auch nicht den Fehler machen darf, immer nur dann zum Beispiel auf diese Systeme und auf diese Technik draufzugucken denn du hast es selber angesprochen. Vieles von dem, was zur Steuervermeidung gemacht wird, ist legal, aber du kannst es nur dann ausnutzen, wenn du erstens schon sowieso viel Geld hast, wenn du Möglichkeiten hast, zum Beispiel, was weiß ich, deine Gewinne inne, GmbH auszulagern oder weiß der Kuckuck, was es alles für Tricks gibt. Dem wird man natürlich nicht Herr werden, wenn man dann eine eine tolle Automatisierte ähm äh Software hat. Die sozusagen Betrug erkennt, weil der nach dem Motto was ist, was ist es, eine Bank auszurauben, dagegen eine Bank zu gründen, ne? Wenn man natürlich gleichzeitig sagen kann, ich habe hier ganz andere Methoden, ähm das System auszunutzen und die sind alle völlig legal.

Tim Pritlove
0:37:22
Matthias Spielkamp
0:38:13

Es werden in Deutschland äh Steuerbescheide automatisiert erstellt. Also du gibst deine Steuererklärung ab und da guckt kein Mensch mehr drauf, sondern du bekommst irgendwann Bescheid und der ist im Grunde genommen von von einer Maschine erstellt worden. Und äh da da sagen wir eben auch, das ist prinzipiell erstmal gar nicht problematisch, weil äh jetzt in dem konkreten Fall etwas garantiert ist, wofür wir uns woanders immer einsetzen, nämlich dass es. Ausreichende Widerspruchsmöglichkeiten gibt, ne? Also ich meine guck dir das aus der Nutzerperspektive an. Du bekommst deinen Steuerbescheid und, kennst ja normalerweise den Sachbearbeiter oder die Sachbearbeiterin auch nicht, die den erstellt hat und dann ist es halt deine Aufgabe, dir den anzugucken und zu überlegen, ob der jetzt in Ordnung ist oder ob da Fehler gemacht wurden, Wenn du aber der Ansicht bist, dass das der Fall ist, dann kannst du, hast du eben auch ein Verfahren, ja? Das heißt, du legst da einen Widerspruch ein und dann muss das geprüft werden und so weiter. Und wir sehen halt das Problem, dass es in vielen Fällen, wo so eine Automatisierung stattfindet, diese vernünftigen Verfahren nicht gibt. Es gibt keine Transparenz darüber, dass das gemacht wird und du weißt auch gar nicht, wie du Widerspruch einlegen sollst. Das ist bei dem Steuersystem. Ja, ich will das jetzt nicht in zu rosigen äh Tönen malen, aber äh das ist schon in Ordnung, weil ähm, du guckst ja dann da drauf und stellst fest, da ist irgendwas nicht in Ordnung und dann legst du einen Widerspruch an, dann guckt sich das auch ein Mensch an. Da sagen wir, ist in Ordnung, kann man machen.

Tim Pritlove
0:39:43
Matthias Spielkamp
0:39:51
Tim Pritlove
0:39:52
Matthias Spielkamp
0:40:23

Ja, es war sehr umstritten, es war ganz interessant, weil das auch in Österreich wirklich mal Schlagzeilen gemacht hat. Ja, so normalerweise. Sowas ja nicht auf die Titelseiten, aber dieses AMS-Ding, das war schon ganz schön umstritten. Und ähm und das liegt da dran, dass. Halt die Leute, die sich das angeschaut haben mit einem kritischen Blick gesagt haben, da läuft was falsch und zwar ähm gibt es da so ein Punktesystem und das Ziel erstmal zu nennen. Es ging dadrum, rauszufinden. Ob Menschen zur Wiedereingliederung in den Arbeitsmarkt, wie es so schön heißt, bestimmte Förderungen bekommen sollten, also etwa Fortbildung und keine Ahnung äh Bewerbungstrainings und so was, ne, so wie es das ja hier auch gibt. Dann haben die versucht, das insofern zu automatisieren, dass sie ähm auf so einer Datenanalyse eben versucht haben rauszufinden. Wer hat denn jetzt sehr, sehr gute Chancen wieder sich zu integrieren, also wieder einen Job zu finden? Die bekommen keine Leistung. Wer hat ganz lausige Chancen? Die bekommen auch keine Leistung, weil, man hat nicht genug Geld, um allen was zu geben, ne? Ist die Argumentation, Also sucht man sich die raus, bei denen das Potenzial am größten ist und beziehungsweise dann eben auch die das Verhältnis, ne, weil das Potenzial äh ist natürlich bei den bei der ersten Gruppe am größten, aber die muss man dann eben auch nicht unterstützen, und. Dann kam halt raus, dass zum Beispiel Frauen ähm so eine Art Negativpunkt bekommen haben oder einen Punktabzug dafür, dass sie, Leistungen erbringen müssen, also dass sie halt zum Beispiel auf Kinder aufpassen und dergleichen, ja? Und das wurde aber bei Männern nicht äh gemacht und. Da hat man natürlich sofort den Eindruck, hey, da wird also genau die Diskriminierung, die in der Gesellschaft sowieso schon da ist, wird da nicht wird da zum einen widergespiegelt und zum anderen dadurch auch noch verstärkt. Macher dieses Systems, die haben das mit Zähnen und Clown verteidigt und ich finde den Fall deshalb interessant, weil ich es auch gar nicht so eindeutig finde, weil einerseits war sozusagen klar, dass da diskriminiert wurde und dass das auch nicht geht. Auf der anderen Seite haben die aber immer argumentiert, ja, aber wir haben begrenzte Ressourcen und was wir versuchen, ist eben diese Optimierung und am Ende. Ist kein, also sozusagen, es ist dieser Unterschied zwischen Disprit Treatment und Disprit Impact, wie die Amerikaner das. Also du du hast ähm einerseits eine Ungleichbehandlung, aber du hast nicht ein ungleiches Ergebnis. Also du hast kein diskriminierendes Ergebnis. War, wie gesagt, die Behauptung der Macher. Das Ding ist nie eingesetzt worden, weil es erst diesen ganzen Streit gab und Gerichtsverfahren da drum und dann Corona kam und man dann die Grenze sozusagen Datenbasis auf den Müll werfen konnte. Weil das auf einmal alles nicht mehr stimmte. Und ähm deswegen ja ist der Streit für mich tatsächlich so ein bisschen offen, muss ich sagen. Also auch wenn. Viele in der Szene so ganz, dass so ganz eindeutig finden, ich finde es weiterhin nicht so ganz eindeutig. Aber ähm ja, es war ein gutes Beispiel, ne, für so einen Streit, der da entstehen kann.

Tim Pritlove
0:43:29
Matthias Spielkamp
0:43:50
Tim Pritlove
0:43:53

Und äh das Erste, was mir sozusagen in den Sinn käme, wäre, ich möchte jetzt gerne mal solide Daten haben dadrüber, was unser Staat eigentlich genau tut. Und selbstverständlich aus dieser Perspektive möchte man natürlich möglichst viele, möglichst detaillierte Daten, die möglichst alles umfassen haben. Nicht, dass man das alles sofort anfassen kann und so weiter, aber äh es ist ja äh auch eine Erfahrung, wenn man jetzt so wie wie wir ja so aus dieser Computer äh Netzprägung herauskommen, Aber erstmal sagt so, ja, dass dass man die Daten anschauen und äh dann analysieren wir das so ein bisschen, ja, Stichwort auch äh Datenjournalismus, so das Relevante äh äh aus den aus den Basisdaten herausfinden, um dann, eine Entscheidung zu fällen, die halt auch in ist. Davon ausgehen, dass die Daten dann auch korrekt erhoben sind et cetera, das ist natürlich nochmal andere Problematik und warum dann eben auch nicht den nächsten Schritt gehen und sagen, ja gut, so das das sind alles sehr viele Daten, die ändern sich am laufenden Meter, äh da kommt die ganze Zeit was dazu können uns nicht immer wieder äh viel Zeit nehmen, um sie sich in Gänze anzuschauen, dann sind sie schon wieder veraltet in dem Moment, wo wir die ersten Schlüsse gezogen haben. Das schreit ja in gewisser Hinsicht nach Automatisierung. Also es ist ja ein valides Ziel. Solche Systeme auch zu haben, aber die eigentliche Frage ist, in welchem Rahmen, Sollen sie halt, also auch in welchem Rechtsrahmen sollen sie eigentlich auch laufen und gibt's da irgendwo, moralisch ethische äh Grenzen, die man nicht überschreiten darf, ne. Das ist ja eigentlich der sofort aufkommende Fragenkatalog.

Matthias Spielkamp
0:45:37
Tim Pritlove
0:46:03

Ja.

Matthias Spielkamp
0:46:04

Dran erinnern, an solche Plakate, ne. Und äh die also meine Vermutung ist Wald, ne, dass das so gedacht war, wie äh hört mal, das ist meine Privatsphäre. Ihr haltet euch da bitte raus und. Ähm ja ich möchte jetzt nicht dann zum Beispiel diskriminiert werden, weil ich eine Lesbe bin oder weil ich ein Schwuler bin oder weil ich irgendwie Trans bin oder sowas. Aber meiner Ansicht nach ist das total verkorkst, weil ähm. Wie soll man denn antidiskriminierung sozusagen äh also zum Beispiel aktivistisch betreiben oder auch äh von staatlicher Seite, wie soll man für eine größere Gerechtigkeit sorgen, wenn man die Informationen nicht hat. Also, wie kann ich denn rausfinden, wie zum Beispiel ähm also ob etwa Frauen am in Führungspositionen, benachteiligt werden, wenn ich weder die also wenn ich sozusagen einerseits nicht nicht erheben darf ähm welchen Geschlecht jetzt die Führungsperson ist. Und dann dadrauf keine Entscheidung treffen kann. Das ist ein Dilemma. Ich sage jetzt auch nicht, das ist einfach alles total leicht aufzulösen. Das ist es nämlich nicht, ne? Wenn wir das so bei diesem ganzen racial Profiling zum Beispiel sehen, bei der Polizei, ja in anderen Ländern werden halt ganz klare Daten erhoben ähm. Nach zum Beispiel ähm Fmisity, ne, also die Polizei kontrolliert und die muss dann auch dokumentieren, war das jetzt eine schwarze Person oder war das war sie Spanic oder so was in der Art, Wird in Deutschland nicht gemacht und ähm man. Neigt glaube ich dazu, sofort zu sagen, ja aber das ist doch auch irgendwie eine diskriminierende äh Policy, die da betrieben wird, aber auf der anderen Seite kriegt man auf die Art und Weise natürlich auch raus, wie die Polizei gehandelt hat und dann konnte man rausfinden, dass in New York etwa, ein totales Oberpolicing stattgefunden hat, also nicht, dass das jetzt eine Überraschung war, aber man konnte es eben auch empirisch belegen, ja, dass ein totales Oberpolicing von, Blacks und Hispinics ähm passiert ist, ne? Die also dauernd äh auf der Straße angehalten und durchsucht wurden. Ähm und das den tatsächlichen ähm also den tatsächlichen Gefahren, wenn ich das jetzt mal so nennen will, überhaupt nie entsprochen hat, ne? Weil bei den Leuten wurde halt überwiegend nix gefunden, ne. So und das das ist schon verdammt schwierig und und dann kommt natürlich noch mal einer oben drauf, wie du sagst, so wo wollen wir denn aber auch. Sagen, wo ist denn eine Grenze zum Beispiel dafür, ähm solche Entscheidungen. Solchen computational äh oder systems zu unterstützen. Ich glaube zum Beispiel, dass viele von uns sagen würden, wir möchten nicht, sogar wenn man jetzt einen guten Case dafür machen könnte, dass die. Urteile. Er ist ein bisschen schwierig, will mich da nicht verplappern sozusagen, aber das Urteile zum Beispiel gerechter würden, wollten wir trotzdem. Gesellschaft nicht, dass ähm Computer, Entscheidungen ähm also zum Beispiel hier äh in in Strafsachen entscheiden. Würden wir sagen, das muss, einfach Menschen überlassen bleiben, ne? So äh da kann man jetzt lange drüber streiten. Also wenn du jetzt zum Beispiel anderer Ansicht wärst, dann könnten wir uns die nächsten drei Stunden da äh drüber unterhalten, ne, wie gerechtfertigt das ist oder nicht und so weiter. Ich will nur mal sagen, Das sind natürlich Fragen, mit denen wir uns beschäftigen müssen und wenn die dann so ein nicht ganz so eindeutig sind. Dann wird es natürlich schwierig. Also soll jetzt. Score, darüber mitentscheiden, ob äh ich einen Kredit bekomme oder nicht oder soll, dass der. Arbeiter oder Berater oder die Beraterin in der Bank nur auf der Grundlage eines persönlichen Gesprächs und der Information, die ich gebe und so weiter dann entscheidend. Ne, also dies. Schufa äh Prinzip oder die Frage danach, ne. Das äh sind keine Fragen, die einfach zu beantworten sind in den meisten Fällen.

Tim Pritlove
0:50:09
Matthias Spielkamp
0:50:14
Tim Pritlove
0:50:49
Matthias Spielkamp
0:51:07
Tim Pritlove
0:51:08
Matthias Spielkamp
0:51:10
Tim Pritlove
0:51:11
Matthias Spielkamp
0:51:17

Mhm genau. Ja also das ist schon so eine Methode, die wir, glaube ich, da können wir durchaus für uns in Anspruch nehmen, dass wir die geprägt haben. Also wir haben die nicht erfunden, aber. Wir sagen eben ähm wir wollen uns natürlich dann zur Wehr setzen, indem wir Daten einsammeln, von denen dann zum Beispiel Unternehmen auch gar nicht wollen, dass die eingesammelt werden von irgendjemand anderem. Um dann mal zu gucken, ob denn alles mit rechten Dingen zugeht. Und oben Schufa fand ich, war ein gutes Beispiel, weil die Datenanalyse selber. War ähm jetzt nicht so, die ist nicht so gelungen, wie wir uns das gewünscht haben. Da waren technische Probleme dabei, da waren Probleme in der Kampagne dabei, also die ist insgesamt gut gelaufen, aber, Es ist eben auch jetzt nicht wirklich überraschend gewesen für uns, aber wir mussten's natürlich trotzdem ausprobieren, meisten Leute, die da mitgemacht haben, die ihre Daten gespendet haben, sind natürlich auch aus einer bestimmten Blase und sind jetzt eher Leute, die zum Beispiel keine finanziellen Schwierigkeiten haben und keine schlechten Scores bei der Schufa und so und dann kann man, auch weniger rausfinden. Was war zum Beispiel rausgefunden haben ist, dass äh die unterschiedliche Softwaresysteme verwenden und die Datenhaltung ist nicht gut und äh vor allen Dingen haben wir aber auch rausgefunden, dass die Aufsicht nicht funktioniert über die Schufa, ne? Also, hessische Datenschutzbehörde ist dafür zuständig und die war also zu dem Zeitpunkt so was von verschnarcht und nachlässig. Also das war schon mit so eigentlich die ähm. Ja, die die größte Kritik, die wir da am Ende hatten, ne und ja, aber eben leider so, dass äh unserer Ansicht nach sich da nicht genug getan hat, aber wir waren noch sehr sehr neu zu dem Zeitpunkt und. Hatten wirklich einfach auch nicht die Ressourcen dann hinterher, ne, die Kampagne war gut gelaufen. Wir hatten eine Menge Aufmerksamkeit bekommen. Und dann hat sich eben damals die ähm. Äh Barley, die Justizministerin war, auch dazu geäußert und hat gesagt, da muss sich was ändern, aber dann hätten wir natürlich aktiv werden müssen und denen ständig auf den Füßen stehen und sagen, dann lass uns hier Gespräche führen und konkret werden und dazu hatten wir einfach nicht die Power.

Tim Pritlove
0:53:28
Matthias Spielkamp
0:54:43

Da sind wir bei diesem schwierigen oder vielschichtigen Thema Transparenz, ne? Also zum einen würde ich schon sagen, ähm. Ein ganz großes Problem bei diesen, wie du's ja eben gut beschrieben hast. Kafka Esken äh Erfahrung mit der Schufa, nicht so sehr im Algorithmus, sondern einfach in deren Datenhaltung. Also da kann man jetzt sagen, das macht auch einen Algorithmus, ne? Also das stimmt schon, aber es geht nicht so sehr um den Score selber, sondern es geht dadrum, dass die einfach echt lausig äh äh lausige Informationen zum Teil haben. Dadurch Namen verwechselt werden und dann ne solche Geschichten und dann rennste eben tatsächlich von, Pontius zu Pilatus und versuchst das in Ordnung zu bringen und die Bank sagt, das muss die Schufa machen und die Schufa sagt, das muss die Bank machen und so weiter. Und du bist also völlig hilflos dem Gegenüber. Und ähm die die Frage danach, wieviel man aber über solche Systeme äh veröffentlichen kann, ohne dann dieser Manipulation Tür und Tor zu öffnen, die ist auch wiederum nicht so leicht zu beantworten. Wir finden eben schon, dass sehr viel mehr darüber, ausgesagt werden kann, ja ähm als das bisher der Fall ist und dann gibt es auch die Argumentation. Dass das sehr wichtig ist, weil man ja zum Beispiel auch eine Möglichkeit haben möchte. Anders zu handeln, ja, also Handlungsfähigkeit herzustellen. Wenn ich nicht weiß, warum ich einen schlechten Score habe, kann ich auch nix unternehmen. Und jetzt kommt's aber. Es ist so ein bisschen man schraubt sich so ein bisschen hoch. Ich finde aber auch die Kritik dann wiederum völlig berechtigt daran, an diesem an dieser Herangehensweise, Weil das ja am Ende bedeuten würde, okay, wir werden alle gescored die ganze Zeit und wir müssen uns halt so verhalten, wie diese scoring Algorithmus Algorithmen das von uns erwarten, damit wir, teilhaben können an an gesellschaftlichen Leben. Also mir wird dann diese Möglichkeit eröffnet. Ich weiß, ich habe mich jetzt irgendwie schlecht verhalten. Ich habe eine dritte Kreditkarte bestellt und keine Ahnung, das denke ich mir jetzt grade aus, ne. Ich weiß nicht, welche Auswirkungen das auf den Score hat, aber ich habe eine dritte Kreditkarte bestellt und deswegen singt mein Score, dann darf ich das halt nicht machen, dann muss ich das lassen mit der Kreditkarte. Da denke ich dann auch wieder, Entschuldigung, weil die weil der weil der Schufa Algorithmus das findet, ja, was ist denn das für ein Scheiß? Und, das wird natürlich dann auch noch dramatisch, wenn es noch viel mehr solcher Profilingsysteme gibt, ne? Wenn also überall gemacht wird, wenn's auch noch um Ein- und Ausreise geht und solche Geschichten. Ne? Dann haben wir eben tatsächlich irgendwann diese Situation, die von vielen als eine wirkliche Dystopie beschrieben wird. Wir uns nur noch danach ausrichten müssen, was irgendein automatisiertes System findet, wie wir uns eigentlich verhalten sollten. Und das darf selbstverständlich nicht passieren.

Tim Pritlove
0:57:36
Matthias Spielkamp
0:58:41

Ja, also wir sind ganz klar Aktivisten. Ja, das ist so ein das ist ja auch so ein, irgendwie so komischer Begriff, ne? So, das man stellt sich so vor, so wir stehen halt irgendwie mitm Plakat in der Hand irgendwo rum, aber äh ich find's schon wichtig, das auf den Punkt zu bringen, weil ähm, wir sagen auch wieder so ein äh Denglisch-Begriff, ne. Wir machen Evidence spaced at vocusy. Also wir machen ähm wir versuchen Politik zu beeinflussen auf der Grundlage von guter Erkenntnis, von Evidenz. Kannst du sagen, ja also welche Organisation behauptet denn, dass die Politik beeinflussen will ohne jegliche Evidenz, ne? Natürlich niemand, Wir haben schon einen anderen Ansatz. Wir wir machen schon sehr viel aufwendigere Forschung als viele andere. Wir forschen ja zum Beispiel auch oft in Konsortien gemeinsam mit. Ähm Unis und Forschungseinrichtungen, ne, also im Moment zum Beispiel arbeiten wir in unterschiedlichen Projekten zusammen mit der Viadrina, mit der Uni Paderborn, mit der FH Potsdam, mit der ähm. Institut für ökologische Wirtschaftsforschung mit der TU Berlin und so weiter und so fort, ne? Also da nehmen wir schon für uns in Anspruch, dass wir also schon richtig, angewandte Forschung und zum Teil auch Grundlagenforschung machen, Manchmal entsteht dann so der Eindruck, wir seien so ein Thinktank, ne? So ja, also wir finden was raus und dann veröffentlichen wir ein Papier und dann war's das. Aber wir sagen ganz klar nein, wir sind Aktivisten, wir wollen Politik und Gesetzgebung beeinflussen. Wie machen wir das? In dem Fall, ich gehe noch mal kurz zur SCHUFA zurück, weil wir da gerade waren. Wir haben dann gesagt, sehen da eine Gesetzeslücke, ne, die nämlich darin besteht, dass zum Beispiel die Banken sagen, Also es gibt ja diese Vorgabe außer Datenschutzgrundverordnung, dass eigentlich automatisierte Entscheidungen nur unter ganz bestimmten Voraussetzungen getroffen werden können, eingesetzt werden können und sonst nicht erlaubt sind. Und da sehen wir, dass da eine Lücke ist, nämlich die Schufa sagt, wir machen nur den Score. Wir fallen deswegen nicht unter diese Regelung und die Banken sagen, wir treffen zwar die Entscheidung, aber wir automatisieren das ja nicht, weil der Score kommt ja von der SCHUFA und deswegen sind wir auch nicht äh da fallen wir auch nicht dadrunter. Da sagen wir dann zum Beispiel ganz konkret, das muss geändert werden. Jetzt habe ich bei dem Thema Schufa schon gesagt, Haben das nicht geschafft, ne? Wir haben das nicht hinbekommen, da den Druck aufzubauen. Aber ich möchte natürlich auch ein Beispiel geben, wo wir erfolgreich gewesen sind. Wir haben in den letzten zweieinhalb Jahren ähm. Viel Lobbying gemacht zum Digital Service ist Eck. Das ist ein wichtiges neues Gesetzesvorhaben auf europäischer Ebene, das. Ganz kurz vor der Verabschiedung steht. Anfang Juli soll das verabschiedet werden im Parlament.

Tim Pritlove
1:01:19
Matthias Spielkamp
1:01:22
Tim Pritlove
1:02:24
Matthias Spielkamp
1:02:30

Die Regelung ist, es sind ähm Wissenschaftlerinnen und Wissenschaftler und es sind zivilgesellschaftliche Organisationen und dann ist das immer noch mal wird das nochmal spezifiziert. Es müssen, anerkannte ähm Wissenschaftler innen und zivilgesellschaftliche Organisationen sein. Was soll das heißen? Na ja, dann guckste wieder, dann wird auf bestimmte andere, Gesetzgebung Bezug genommen und wie man das definieren kann, wer ist das denn? Ja also ähm muss das eine akkreditierte Universität sein oder kann das auch jetzt sagen wir mal das deutsche Institut für Wirtschaftsforschung sein, Wird dann alles so nach und nach wird das so detailliert, wer das dann ist. Aber grundsätzlich eben Wissenschaftlerinnen und Wissenschaftler und und eben solche Organisationen wie wir. Man will mit dieser möglichst klaren Kategorisierung erreichen, dass jetzt nicht dann irgendwelche, natürlich auch Leute das machen, weißt du, ich gründe mal einen Verein, ne, brauche ich sieben Leute in Deutschland, ne, gründe ich einen Verein, gehe ich dahin, sage wir sind eine zivilgesellschaftliche Organisation und dann sauge ich da die ganzen Daten ab und dann verwende ich die quasi für irgendwelche kommerziellen Zwecke. Sowas soll natürlich auch in unserem Sinne nicht passieren. Also jetzt von dir und mir darf das natürlich auch nicht passieren, Das heißt, da müssen also schon gewisse Voraussetzungen dafür geschaffen werden, dass das dass da nicht jeder kommen kann, ja? Aber. Es sind eben Dritte, ne? Es ist nicht mehr einfach nur so. Nur Facebook weiß, was Facebook weiß und nur Google weiß, was Google weiß, sondern wir werden einen Zugang bekommen. Das wird noch Jahre dauern, rauszukriegen, wie genau und was wir dann eigentlich auch wissen wollen und so weiter, aber das ist schon ein ziemlicher Erfolg.

Tim Pritlove
1:04:08
Matthias Spielkamp
1:04:17
Tim Pritlove
1:04:20
Matthias Spielkamp
1:04:25
Tim Pritlove
1:05:48
Matthias Spielkamp
1:05:59
Tim Pritlove
1:06:06
Matthias Spielkamp
1:06:12
Tim Pritlove
1:06:13
Matthias Spielkamp
1:06:53

Also wenn man jetzt sie du hattest ja schon mal drauf angesprochen, wie viel Leute das sind, ne und wenn man jetzt mal so sich auf der auf der Website das anguckt und fliegen natürlich schon mal erstmal alle raus, die Beispiel so was wie Verwaltung und Backoffice und sowas machen, ne? Weil die dann da äh jetzt keinen Anteil dran haben, ne. Und ähm dann äh ist es so, dass wir eben weiterhin sehr stark projektfinanziert sind. Ähm und das zum Beispiel. Auch Leute einfach in Anführungszeichen einfach dadran arbeiten, dass Projekte gemanagt und abgewickelt werden, ne? So und ähm dann bleibt am Ende so ein quasi ein Kern von Leuten, die die. Policy Positions, also diese Politikforderung ausarbeiten, äh mit denen wir dann am Ende versuchen eben solche Veränderungen zu bewirken. Und das ist in erster Linie das äh, Policy und Ephoesy Team. Sind im Moment ähm vier Leute, wenn man mich nicht mitrechnen, aber natürlich bin ich da auch dabei. Ähm und aber ich bin sozusagen als äh als Geschäftsführer jetzt nicht Teil dieses, also offiziell Teil dieses Teams. Und äh dann sind es eben noch Leute, die zum Beispiel äh Informationen beisteuern, weil sie ein Projekt machen. Also ich gebe dir mal ein Beispiel. Meine Kollegin Jessica Wulff, die hat eine. Ähm die hat eine ähm eine Publikation geschrieben, die. Sich beschäftigt mit der Frage, wie wie tritt eigentlich ähm automatisierte Diskriminierung auf in Deutschland und was könnten Beratungsstellen tun, um die besser zu erkennen und dann auch dagegen vorzugehen. Und bei sowas entsteht natürlich. Wissen und äh ähm dieses Wissen, das diskutieren wir dann in unseren Meetings, in unseren Treffen. Stellen uns dann selber die Frage, was entsteht daraus für uns für eine Forderung? Ja und ich gebe dir ein Beispiel, ähm wir wollen etwa, dass. Antidiskriminierungsstellen äh und die Beratungsstellen und auch andere ähm stärker in die Lage versetzt werden, gegen sowas vorzugehen, zum Beispiel durch einen Verbandsklagerecht. Und ähm ja, das versuchen wir dann auszuformulieren und zu begründen, warum wir der Ansicht sind, dass das so sein müsste. Und dann, wenn wir die Power haben, also wenn wir die Leute haben, die sich drum kümmern können, dann versuchen wir eben auch direkt Einfluss zu nehmen, indem man mit Bundestagsabgeordneten sprechen oder auch den Leuten in den Ministerien, die dafür zuständig sind und indem wir auch Bündnisse schmieden mit anderen Organisationen, die sich um sowas kümmern, was weiß ich, ne? Lesben und Schwulenverband oder, Bundeskonferenz der Migrantenorganisationen und solche ähm Organisationen, bei denen wir uns halt erhoffen wenn wir mit denen zusammenarbeiten, das Ganze ein bisschen mehr Wumms bekommt.

Tim Pritlove
1:09:47
Matthias Spielkamp
1:10:09
Tim Pritlove
1:10:24
Matthias Spielkamp
1:10:26

Und diese KI-Verordnung, die versucht jetzt sehr horizontal. Das ist so der Sprecher ähm äh zu sein. Das bedeutet, die guckt nicht auf ein konkretes ähm. Ähm auf einen konkreten Sektor wie etwa Verkehr oder Finanzen oder so, ne, sondern sagt also wir wollen. Künstliche Intelligenz, horizontal regulieren und wollen dafür sorgen, dass. Die äh Innovationsfähigkeit erhalten bleibt, über die Risiken, die dadurch entstehen eben eingegrenzt werden und ähm da das ist jetzt dieses, nochmal also so ein riesiges Regelwerk, total komplex, ähm wo sich alle die Zähne dran ausbeißen und nach einem Jahr nach Veröffentlichung immer noch drüber gestritten wird, was ist denn jetzt eigentlich bedeutet, also in Teilen, ne und ob es die richtige Ansatz ist, Da mischen wir halt auch mit. Und damit's aber nicht ganz so abstrakt bleibt, also zum Beispiel ähm haben die eine relativ breite, Definition von Kaida eingeführt und gerade viele, die sich so mit ja KI und überhaupt Informatik und so auskennen. Haben das auch kritisiert und haben gesagt, ja hör mal, aber diese Definition von KI, die da drin steht, die umfasst doch am Ende fast jede Software. Ähm das finde ich nicht ganz richtig. Ich verstehe aber aus welcher Ecke das kommt, ne und dass die Leute sich dann wünschen so, das ist doch sowieso so ein so ein sehr fassi Begriff. Der oft einfach auch nur äh Schlangenöl ist, ne und dem stimmen wir hundertprozentig zu. Das ist aber genau das Problem, wenn man jetzt hinginge, und sagen würde, man definiert den ganz eng, ja, also das sind nur Systeme, maschinellen Lernens und äh so weiter, Dann läuft man halt Gefahr, dass das, was ich eben ja schon recht ausführlich beschrieben habe, diese Automatisierungssysteme, die weitreichende Auswirkungen auf Menschen haben können, dass die da nicht mehr drunter fallen. Die dann einfach nicht reguliert werden. Und dann hast du eben so eine Situation, bei der ähm zwar ein regelbasierter Algorithmus am Werk ist, der auch entstanden ist, weil zum Beispiel jemand durchaus, komplexe äh statistische Auswertungen gemacht hat, aber dann am Ende eben dadraus abgeleitet hat, so hier sind jetzt die Regeln für diesen Algorithmus, für diesen Entscheidungsalgorithmus, Und dann kommt es zu sowas wie dieser Situation in Holland, wo die ähm diese ähm ungerechtfertigten Nachforderungen da kommen, dann fällt das halt nicht unter diese Regulierung, ne, und da setzen wir uns zum Beispiel dafür ein, dass das breit bleibt, ne und versuchen eben auch zu erläutern, also auch den. Tekkies, die sich besser auskennen, warum das gerechtfertigt ist, dass wir das tun und dass wir nicht einfach blöde sind und wollen, dass jetzt also alle Software äh KI ist.

Tim Pritlove
1:13:15
Matthias Spielkamp
1:13:25

Ja, wir arbeiten eng zusammen. Wir haben äh weiterhin keine kein eigenes Büro in. Denken da immer wieder drüber nach, aber das ist jetzt auch nicht einfach eine Entscheidung, die wir treffen können, weil es sehr teuer ist, ne? Also äh. Da müsste man also Brüssel ist eine teure Stadt. Wenn wir da jemanden beschäftigen wollten, die Person müsste viel Erfahrung haben. Das heißt also, da kann man auch keine Anfänger in nehmen, ne? Das kostet eine Menge Geld und ähm das haben wir natürlich nicht einfach so. Und dann kommt noch dazu, dass es eben auch du hast Edri genannt, durchaus etablierte Organisationen und Netzwerke gibt auf europäischer Ebene und dieser. Diese KI-Verordnung ist das beste Beispiel, wir sind in einer sogenannten AI Corgroup, ja, also in der KI-Kerngruppe, das ist eine Gruppe von Organisationen, die, ähm sich zusammengeschlossen hat, um konkrete Änderungsvorschläge für diese KI-Verordnung zu erarbeiten und da sind eben solche Organisationen wie Edri, access now, ECNL ähm und so weiter sind da drin, ähm und wir versuchen uns gemeinsam die Arbeit aufzuteilen und zu sagen, also zu diesem Thema kennt sich jetzt Access Now am besten aus und zu dem Thema Averisen Watch und dann. Kümmern die sich da drum und die anderen unterstützen das und und dann veröffentlichen wir die aber ähm in den meisten Fällen gemeinsam. Das heißt, wir sagen dann, also das ist eine gemeinsame Position von uns, damit das eben mehr Kraft entfaltet, So versuchen wir in in Brüssel Einfluss zu nehmen und dazu kommt aber auch, dass wir ähm als gerade natürlichen Organisationen, die in Deutschland beheimatet ist, also wir sagen schon immer. Sind keine deutsche Organisation, wir sind eine internationale Organisation, aber klar sind wir sehr deutsch geprägt, und das versuchen wir zu unserem Vorteil zu nutzen, denn natürlich hat Deutschland als größtes Mitgliedsland der Europäischen Union einen sehr großen Einfluss und, der wird ja auch ausgeübt dann über den Rat der Europäischen Union, also die Vertretung der Mitgliedsstaaten, die ja in dem Gesetzgebungsprozessen mächtiges Wort mitzureden haben, ne, und da laufen wir natürlich dann zu den Ministerien, die äh für den AI Act zuständig sind und versuchen die dann auch davon zu überzeugen, dass unsere Forderungen. Gut durchdacht sind und richtig sind und da eingebracht werden müssen. Ne, also wir machen das dann auch über Bande.

Tim Pritlove
1:15:47

Ja, da ist halt auf jeden Fall noch auch eine ganze Menge ähm ja, da es eine ganze Menge äh zu heben. Ich meine, es ist im Frühjahr ähm Begriffsmarkt auch, nicht, das hast du ja, äh angesprochen, also es ist sehr schwierig da irgendwas zu bringen und auf der anderen Seite äh kann ich gut nachvollziehen, ne? Das wollen sich Dinge auch offen lassen müssen, weil ich meine, ist ja auch gar nicht so lange her, da war auch Machine Learning. In gewisser Hinsicht so ein ewiger Fels, ne? Also es war so ein Versuch und es war so ein Forschungsteil der Informatik und es war immer so, hm ja lass die mal machen und so weiter, die 95 Prozent kippen die Systeme dann immer um, ne, so ein bisschen so dieses äh Valley so der Informatik und. Irgendwann gab's dann halt den Durchbruch und auf einmal waren die Anwendungen da und dann ging's auch so schnell, ne, mit Bildererkennung und Texterkennung und automatische Sprachübersetzer und so weiter, dass die Implikation natürlich jetzt irgendwie mega sind und genauso kann man sich natürlich auch vorstellen, auch wenn ich das jetzt benennen könnte, was es wohl vermutlich sein wird, aber irgendein neuer äh formatischer Durchbruch, ja, der jederzeit stattfinden kann, der eben, doch auch wieder nochmal ganz andere äh Algorithmen, Wesen äh schafft, die wir derzeit noch gar nicht so richtig absehen können. Mhm vielleicht so zum äh Schluss würde ich gerne nochmal kurz auf die anderen äh Punkte oder Bereiche, die du äh genannt hast, weil jetzt haben wir sind wir vom Public Sektor quasi so auf äh ziemlich breites fällt nahezu auf alles äh gekommen, aber vielleicht kannst du ja nochmal so ein bisschen konkretisieren, inwiefern die anderen äh Bereiche jetzt auch thematisch abtrennungswürdig sind und wo da so euer Fokus liegt. Also du hattest ja äh gesagt so Automaticion making Public Sektor und dann Publix vier, also öffentliche Meinungsbildung, also du hast es schon konkret auf Meinungsbildung gelegt, also, klingt jetzt sozusagen medien, Social Media, et cetera. So klingt das für mich.

Matthias Spielkamp
1:17:42

Genau, ich ich würde sagen, ich mache mal so einen Volumenschlag über die drei und du suchst dir raus, worüber wir noch reden wollen. Ähm also die ähm. Auch im Englischen ist Public vier ein umstrittener Begriff ähm im Sinne von bezeichnet der wirklich das. Es geht um die Konstituierung von Öffentlichkeit, und die passiert natürlich an ganz vielen unterschiedlichen Stellen, aber ähm der Medienmarkt und äh die Art, wie wir diskutieren und die Plattform, über die wir diskutieren, spielen natürlich eine sehr, sehr große Rolle und, Ähm deswegen ähm beschäftigen wir uns eben damit. Es wird dann auch genannt Platform Governance, also ne, die Regulierung von Plattformen, aber da, dass es auch wiederum nicht perfekt, weil unter die Plattforms natürlich auch Amazon und Uber und Airbnb und so fallen, ne, So, also jedenfalls wir fokussieren uns schon auf die ähm, auf die Plattformen, äh bei denen's äh um Informationsvermittlung geht, die jetzt auch zu einer ebenpolitischen Meinungsbildung beitragen sollen. Also Facebook, Instagram, Twitter, YouTube, durchaus auch Google Search, ne? Und ähm und und und äh solche Plattformen. Und da, glaube ich müssen wir können wir vielleicht sagen, da haben wir schon drüber gesprochen, weil das eben in erster Linie dieses DSA-Thema ist, ne? Sind der Ansicht. Wir müssen sehr viel mehr darüber wissen, wie die Plattform wirken und da brauchen wir erstmal diesen Datenzugang. Und dann äh gibt es ähm ADM im äh am Arbeitsplatz. Und da geht es uns in erster Linie um das, was dann oft so People Analytics genannt wird. Das heißt, da versucht man rauszufinden. Wie welche äh Arbeit leisten die Leute am Arbeitsplatz? Ähm kann man dadraus was ableiten darüber, ob jemand gefördert werden sollte. Kann man Entscheidungen darüber treffen, wer entlassen werden sollte ähm und so weiter und so fort. Ist also auch durchaus weitreichend und, Gerade am in diesem System Arbeit haben wir ja auch wieder eine Situation, in der, Leute keine Wahl haben, also eine sehr geringe Wahl, ne, bei jetzt ähm der Frage nach Informationsvermittlung, gibt's immer noch das Argument. Ja, also wenn's dir bei Facebook nicht gefällt, geh halt zu einer anderen Social-Media-Plattform. Ich glaube, wir wissen, wie blöd dieses Argument. Ja genau, aber es ist steckt schon auch noch eine eine gewisse äh also es steckt schon eine gute Begründung drin, denn natürlich müssen wir auch Verantwortung übernehmen. Wir selber, ne? Und wenn wir Facebook halt stinkt. Dann muss ich auch sagen können, ich gehe da nicht mehr hin, aber wie gesagt, da will ich jetzt nicht wieder einsteigen, das das füttern zu weit, wogegen eben bei der öffentlichen Hand wir uns ja nicht aussuchen können, welche Arbeitsagentur ähm für mich zuständig ist oder welche Polizei patrouilliert oder so. Da habe ich keine Entscheidungsfähigkeit drüber. Und am bei dem System Arbeit ist es ja ähm so ein bisschen dazwischen. Natürlich kann ich meinen Job kündigen, Ja, aber wenn das der Preis ist, den ich dafür bezahlen muss, zum Beispiel nicht, mit solchen People Analytic System durchleuchtet zu werden, dann würden wir alle sagen, der ist zu hoch und deswegen ist das Arbeitsrecht ja auch der Versuch, ähm an so einer Stelle einen Schutz zu bieten, ne? Und das ist also schon nochmal was ganz anderes. Und dann ganz schnell noch ähm Nachhaltigkeit, da haben wir da versuchen wir eben ein bisschen die Diskussion darüber anzustoßen, nicht so sehr. Es gibt dieses Narrativ AI for Good, ne, so hey, wir können AI dafür verwenden Klimawandel zu beenden und die Gerechtigkeit äh auf der Welt zu schaffen und den Hunger zu bekämpfen und so weiter, ne. Alles geht ja mit KI, ne, ist also alles am Ende ist alles gut. Wissen wir ja und ähm und wir sagen ja, wir sollten aber auch drauf gucken, was sind eigentlich die Nachhaltigkeits ähm, und auch äh Probleme bei bei der Produktion von solchen Systemen selber. Einmal riesige Datenmodelle, die auch Ressourcen verbrauchen, zum zweiten aber auch, Labeling von Daten über Clickwork-Plattformen ne unter schlimmen Bedingungen ähm oder auch Content-Moderation und sowas, ne? Also dadrauf zu gucken, was ist denn eigentlich die und nicht die AI Forcetainability? Sind so die anderen drei Bereiche.

Tim Pritlove
1:22:11

Mhm. Ähm, Ja, es gibt viele äh Sachen, auf die man jetzt hier noch äh äh eingehen könnte, aber äh die Zeit läuft uns auch gerade noch ein bisschen davon, aber vielleicht so zum Schluss würde mich nochmal so ein bisschen interessieren, wie so dein, generell ist auf das Phänomen äh künstliche Intelligenz und wie damit umgegangen wird. Also klar, wir haben natürlich jetzt so einen Hype, ne und da haben wir ja auch schon mehrfach angesprochen. Ist so ein totales Buzzword und ne, damit verkauft sich Zeug und es wird von der Bundesregierung gefördert und so weiter und es äh eigentlich ja auch so ein so ein alles oder oder gar nichts Begriff. Also jeder kann irgendwie alles irgendwie AI nennen, wenn irgendein Stück Software äh am Ende irgendeine Ausgabe macht, ne, sagt man ja, ist alles total künstliche Intelligenz. Aber, Wir kommen ja nun auch immer mehr in diesen Bereich. Man sieht es jetzt eben konkret bei diesem erfolgreichen Modell Machine Learning, wo auch die Entscheidungsfindung als solche der Systeme ja gar nicht mehr nachvollziehbar ist. In dem Moment, wo wir von Algorithmen sprechen, ja, was ihr ja so ein bisschen im Titel habt ist es ja so, okay, dass das äh Lege dir eine gewisse Nachvollziehbarkeit nahe, ne? Da werden die Daten von da und da genommen, dann läuft das durch den Algorithmus, das kann man sich anschauen und eins und 1 ist gleich zwei und fertig, Während wir ja jetzt mit diesem Machine Learning an so einen Punkt gekommen sind, wo ja eigentlich niemand mehr sagen kann. Basis von was jetzt hier eigentlich eine Entscheidung gefällt wird, weil es ja alles nur noch so ein relativistisches Gesamtgeschehen ist. Nur so. Es gibt eine bestimmte Wahrscheinlichkeit, dass irgendwas damit bewertet wird oder damit bewertet wird und das dann Trioden an Datenpunkten mit eingeflossen und das System macht es schon irgendwie alles richtig, nur ob es das wirklich richtig tut oder nicht ähm, kann man halt vielleicht beim Training diese Systeme noch beurteilen, mit dass es eine Katze und das ist ein Hund. Ja, aber so äh als Endnutzer, wenn man das System so quasi fertig hingestellt bekommt, dann ist es ja mehr als nur eine black, also selbst wenn man die Box aufmacht und Licht reinhält, wird man ja nicht schlauer. Wie gehst du damit um, was inwiefern prägt das äh auch eure Arbeit? Äh das ist ja auch sicherlich äh tägliche Diskussion beim Kaffee, nämlich nehme ich mal an oder zumindest wöchentlich in irgendeiner Form. Was glaubst du, wo geht die Reise hin.

Matthias Spielkamp
1:24:40
Tim Pritlove
1:25:15
Matthias Spielkamp
1:25:20

Aber das meine ich. In diesem ersten Workshop, ne, damals wo das geprägt wurde, da ging's tatsächlich dadrum, dass die sozusagen den den Workshop machen um den machen zu können, brauchten die halt äh Förderung und deswegen. Ein Grund war, dass dieser Begriff halt so knackig ist. Den dazu prägen. Und ähm und das zieht sich so ein bisschen durch, weil wir haben natürlich dann so eine Vermenschlichung auch, die auch von vielen Seiten kritisiert wird von uns auch, weil, diese vermeintliche Intelligenz der Maschine hat halt mit menschlicher Intelligenz echt eigentlich nix zu tun, ne? Ähm aber klar, wir brauchen immer auch solche, und Analogien und ne, um uns eine Vorstellung zu machen. Das Problem ist dann aber, dass diese Vorstellungen mitunter einfach auch falsch sind und dann, so eine auf so eine falsche Fährte führen. Und das ist meiner Ansicht nach bei dieser ganzen KI Diskussion passiert, weil, Nachdem dieser sogenannte KI Winter dann vorbei war, also viele schiefgegangen ist und äh Leute dann auch äh massiv dadrunter gelitten haben, weil die einen halt große Versprechungen gemacht haben, die nicht eingehalten werden konnten und die anderen, die vielleicht etwas klüger auch unterwegs waren, ihre Forschungsförderung dadurch verloren haben. Irgendwann kam dann dieser Wendepunkt und dann ging auf einmal doch wieder ganz viel, ne? Und. Dann haben sowohl Wissenschaftler innen als auch ähm die äh kommerziellen Anbieter halt einen Riesen-Wind gemacht und haben wieder angefangen mit diesen Halsversprechungen, ne? So also, KI kann alles, ne? Magische äh Technologie und wir können jedes Problem damit lösen. Das hat wiederum dazu geführt. Dass Leute auch gesagt haben, ja, da sind aber auch massive Risiken damit verbunden, ja und was ja auch stimmt. Und auf der einen Seite, es ist ja auch, es sind ja auch tolle Sachen, die da entwickelt werden. Du hast das Beispiel gegeben von Übersetzung und so, ne? Da ist man einfach irgendwann an Grenzen gekommen ohne Machine Learning und und die sind dann überwunden worden dadurch und das ist ja auch geil, ja? So und dann, haben die anderen aber eben diese Risiken äh beschrieben, und das ist auch äh häufig absolut gerechtfertigt und dann kommt halt irgendwann die Politik auf den Plan und sieht also, oh, da muss irgendwie was gemacht werden, ne? Und, Gibt es einen Streit darüber? Also wir haben gegründet, als es noch einen eigentlichen relativ großen Streit darüber gab, sollte man jetzt versuchen KI zu regulieren, also was eigentlich nur ein Forschungsfeld beschreibt und gar kein so richtig. Umreisbarer Begriff ist, oder sollte man nicht in verschiedenen Sektoren schauen, was sind die Auswirkungen vom Einsatz solcher Systeme, wie etwa beim automatisierten Fahren, wie in einer Gesundheits äh Vorsorge, in der Diagnostik, und so weiter. Sollte man nicht lieber dadrauf gucken und sich nicht so sehr an diesem KI-Begriff festhalten. Und dann ist äh Ursula von der Leyen gekommen, ist EU-Kommissarin geworden, musste also Handlungsfähigkeit beweisen und hat sich hingestellt und hat gesagt, innerhalb der ersten 100 Tage meiner. Regierungszeit werde ich um meine Amtszeit werde ich Regulierungsvorschläge für künstliche Intelligenz vorlegen ne und all die sich mit dem Thema auskennen haben so entweder leer geguckt oder die Hände überm Kopf zusammengeschlagen. So gedacht, ach du Scheiße. Und in der Europäischen Kommission äh hat wahrscheinlich der ein oder andere so einen Halbherzinfarkt bekommen, weil die natürlich dann immer wissen, was das bedeutet, ne, also keine Wochenenden mehr die nächsten äh drei Monate. Und so weiter, ne? Und ähm ja und dann und das konnten sie natürlich nicht einhalten, das Versprechen, aber wenigstens haben sie dann so eine Art, dann gab's eine Expertenkommission und dann ach nee, Entschuldigung, die gab's vorher dann wurde so ein so ein Weißbuch wurde verfasst, damit konnte man dann zumindest argumentieren, man hat das eingehalten, diesen Zeitplan, ne und aus dem Weißbuch ist dann nachher dieser AI Act entstanden und ne Ähm ich hoffe, das wird jetzt nicht zu äh ausschweifend, aber wodrauf ich halt hinaus will. Jetzt haben wir halt, ist, du hast den Zauberlehrling schon äh genannt als Beispiel heute. Das ist also KI ist in dem Sinne auch. Ne? Wir haben uns was geschaffen. Bei dem man mit Fug und Recht drüber streiten kann, ob's das überhaupt gibt, ja? Aber jetzt ist es da, denn wenn wir erstmal eine Regulierung für etwas haben, dann gibt's das natürlich auch, oder ein Regulierungsvorschlag. Und wir hätten das ja tatsächlich ganz gerne, wenn wir von diesem KI-Begriff quasi wieder wegkämen, Aber wir glauben auch, dass der Zug in dem Sinne abgefahren ist, weil. Wir jetzt auch das Problem haben, natürlich könnten wir sagen, wir brauchen keine keine KI-Verordnung, dann würde aber auch das Positive, was da durchaus drinsteht, natürlich mit über die Wupper gehen. Und äh und und da ist man dann einfach in der normativen Kraft des faktischen einfach mal komplett gefangen. Und äh und und das ist halt die so eine Art äh Halbe Antwort dadrauf, ne, weil die andere Hälfte ist natürlich so, ja. Was glaubt man denn, was was diese Systeme leisten können und jetzt hatten wir ja gerade diese Woche erst die Geschichte von diesem Google Jana. Der meint, er hat also jetzt erkannt, dass der Chatbot tatsächlich ein Bewusstsein hat und so einen Quark, ne. Denkst du also auch okay, ist das jetzt ein Marketing-Gag, ne? Ist das also alles äh ist das gecastet oder was ist denn das jetzt wieder für ein Quatsch, ne? Aber.

Tim Pritlove
1:30:48

Warten wir erstmal, wenn äh Tesla richtig loslegt. Ich meine, das die sind ja da auch in dem äh Zauberlehrlings Business auch ganz munter unterwegs und haben jetzt ihren nächsten AI Day äh angekündigt und komme ja jetzt schon mit humanoiden Robotern, aber ihr habt das Begrifflich schon ganz gut eingefangen, weil ich meine, am Ende ist es wahrscheinlich auch irgendwo egal, ja. KI ist Wischiwaschi-Begriff, er wird es wahrscheinlich immer bleiben und in gewisser Hinsicht ist es auch, gut, weil es dann äh in gewisser Hinsicht auch die Zukunft, von der wir noch nicht genau wissen, äh was sie da noch alles mit dazustellt aufs Regal. Schon mit abdeckt und letztlich ist wahrscheinlich dieser ADM-Begriff, diese automatisierte Entscheidungsfindung auch. Das Relevante auf der Arbeitsebene, weil das ist ja eigentlich das, was uns wirklich besorgt, ne? Also wenn Verantwortung übernommen wird oder Verantwortung abgegeben wird, noch schlimmer an äh Systeme irgendeiner Bauart, Ja? Du stellt sich ja generell eben die Frage, okay, wer ist denn jetzt schuld oder wer ist verantwortlich dafür, dass bestimmte Prozesse in Gang gebracht wurden oder nicht in Gang gebracht wurden? Schon genug Streit, wenn irgendwie der Notfalltag zur Katastrophe ist und keine Sirene mehr heult und irgendwie die Handys äh keine Informationen ausspucken und alle zeigen gegenseitig. Wir erleben ja einen zunehmenden Maße, dass eben so ja das war ja ein Fehler in der Software. So aha mhm Und wer hat die gemacht? Und wer wer steht da sozusagen für also ich denke, das sind so die die Dinge, die sich wahrscheinlich auch in der nächsten Zeit noch äh klären müssen, während eben diese reine informatische Begriffswelt, die die läuft äh davon und wir sehen das ja auch mit Blockchain, mit wie viel Bullshit, Bingo äh da gearbeitet.

Matthias Spielkamp
1:32:34
Tim Pritlove
1:32:36
Matthias Spielkamp
1:32:50
Tim Pritlove
1:32:53
Matthias Spielkamp
1:33:25
Tim Pritlove
1:33:48
Matthias Spielkamp
1:33:49
Tim Pritlove
1:34:04