Logbuch:Netzpolitik
Einblicke und Ausblicke in das netzpolitische Geschehen
https://logbuch-netzpolitik.de


LNP486 Das fünfte Element

Product Liability Directive — Cyber Resilience Act — Platform Workers Directive — European Health Data Space — AI Act

Die heutige Folge ist ein Spezial zur aktuellen EU-Gesetzgebung. Tim und Thomas besprechen mit Ralf Bendrath und Arnika Zinke, die beide für die Grüne Fraktion in der EU an der Gesetzgebung mitarbeiten, gerade bzw. bald beschlossene neue Richtlinien und Verordnungen. Einen besonderen Schwerpunkt legen wir dabei auf den AI Act und diskutieren seine Entstehung und konkrete Ausgestaltung.

https://logbuch-netzpolitik.de/lnp486-das-fuenfte-element
Veröffentlicht am: 14. März 2024
Dauer: 2:08:18


Kapitel

  1. Intro 00:00:00.000
  2. Prolog 00:00:29.738
  3. Product Liability Directive 00:11:56.580
  4. Cyber Resilience Act 00:19:44.209
  5. Platform Workers Directive 00:30:29.117
  6. European Health Data Space 00:42:20.111
  7. AI Act 00:58:06.378
  8. Ausblick auf die EU 02:05:35.200
  9. Epilog 02:14:48.024

Transkript

Tim Pritlove
0:00:00
Thomas Lohninger
0:00:01
Tim Pritlove
0:00:03
Thomas Lohninger
0:00:05
Tim Pritlove
0:00:29
Thomas Lohninger
0:00:51
Tim Pritlove
0:00:52
Ralf Bendrath
0:01:01
Tim Pritlove
0:01:01
Arnika Zinke
0:01:10
Tim Pritlove
0:01:13
Arnika Zinke
0:01:26
Tim Pritlove
0:02:52
Arnika Zinke
0:02:57
Tim Pritlove
0:03:42
Arnika Zinke
0:03:46
Tim Pritlove
0:04:10
Arnika Zinke
0:04:12
Tim Pritlove
0:04:16
Thomas Lohninger
0:04:17
Arnika Zinke
0:04:46
Tim Pritlove
0:06:10
Ralf Bendrath
0:06:16

Ja, danke auch noch mal für die Einladung. Ich bin, genau wie Annika, Fraktionsreferent der Grünen-EFA-Fraktion im Europäischen Parlament. Ich bin für den Ausschuss für Bürgerliche Freiheiten, Justiz und Inneres zuständig und mache da vor allem Datenschutz. Das ist der Ausschuss, der auch federführend für Datenschutz zuständig ist. Nebenbei aber alles, was an anderen Digitalsachen so anfällt, inklusive auch Polizeiinformationsaustausch, polizeiliche und justizielle Zusammenarbeit und solche Sachen. Ich mache aber inzwischen relativ viel auch ausschussüberschreitende Arbeit, weil jetzt inzwischen die Kollegen alle mitgeschnitten haben, dass ich hier der Onkel Ralf von der DSGVO bin. Ich habe früher für den Berichterstatter Jan-Philipp Albrecht bearbeitet, als das Ding verhandelt wurde und habe seitdem sogar einen IMDb-Eintrag. Und jetzt kommen die Kollegen immer und haben irgendwas zu europäischer Sozialversicherungskarte im Beschäftigungsausschuss oder zu Veröffentlichung von Agrarzuschüssen im Agrarausschuss oder zu irgendwelchen anderen Themen, wo es irgendwie dann auch Datenschutzfragen plötzlich gibt. Ich gehe jetzt zum Financial Information Access Geschichte, Finanzdatenraum und komme immer, Ralf, kannst du hier mal drüber gucken? Und das ist ganz, bis zur Fischerei ging das schon. Das ist irgendwie ganz lustig manchmal. Dann lernt man auch viel über den Tellerrand hinaus. Ja, und ich habe jetzt die Freude gehabt, mit Arne quasi die letzten, weiß nicht, drei Jahre oder so zusammenzuarbeiten am KI-Gesetz, am Artificial Intelligence Act, weil... Ja, da kommen wir später zu. Die Details dazu spreche ich mir für nachher. Aber warum das ein gemeinsames Ausschussverfahren mit dem Binnenmarkt und dem Innenausschuss war, das war eine lustige Geschichte. Es gibt noch Axel Voss-Witze später.

Tim Pritlove
0:07:58
Ralf Bendrath
0:08:05
Tim Pritlove
0:08:48
Ralf Bendrath
0:09:01
Tim Pritlove
0:09:14
Ralf Bendrath
0:09:16
Arnika Zinke
0:09:36
Ralf Bendrath
0:10:15
Tim Pritlove
0:10:53
Ralf Bendrath
0:10:57
Tim Pritlove
0:11:03
Ralf Bendrath
0:11:25

Ja, das ist so ein bisschen eine Digitalwoche hier im Plenum gerade. Deswegen ist Annika ja auch gerade in Straßburg, weil gerade Plenarsitzung des Europäischen Parlaments in Straßburg ist. Und zwei, was heißt kleinere, die nicht so viel Aufsehen erregt haben, Sachen sind mir hier noch aufgefallen. Das ist einmal die Produkthaftungsrichtlinie, die revidiert wurde und der Cyber Resilience Act. Und die führen beide Sachen ein, für die wir damals mit Jan-Philipp Albrecht noch und so schon seit teilweise zehn Jahren gekämpft haben. Wo man also auch mal schön sehen kann, Politik ist manchmal echt das langsame Bohren dicker Bretter. Als wir damals angefangen haben, mit Jan-Philipp Albrecht uns um Produktsicherheit, also Quatsch, IT-Sicherheit mal zu kümmern, kam man ziemlich schnell drauf, auch natürlich durch Gespräche mit Linus und anderen vom CCC und so. Es gibt keine guten Anreizstrukturen bisher für die Hersteller, sich ernsthaft um IT-Sicherheit zu kümmern. Es gibt keine Produkthaftung für Software, es gibt keine Verpflichtung, Sicherheitsupdates zu liefern oder irgendwas. Software kommt immer mit dieser allgemeinen Terms of Service zum Anklicken, ich akzeptiere die Software so, wie sie ist. Und keiner ist verantwortlich. Das hat sich jetzt geändert, nach diesen zehn Jahren oder wie lange da andere Leute schon drüber nachgedacht haben. Und das eine ist die Product Liability Directive, die Produkthaftungsrichtlinie, die gibt es schon ewig, die ist dieses Jahr 39 geworden, wurde 1999 mal kurz ein bisschen gänzt, um landwirtschaftliche und Fischereiprodukte mit abzudecken. Und sie sagt im Prinzip, wenn du ein schadhaftes Produkt verkaufst und Leute nehmen deswegen Schaden daran, das kann auch mentalen Schaden beinhalten, dann bist du verantwortlich und musst dafür haften und im Zweifelsfall Schadensersatz und sowas zahlen. Und jetzt mit der neuen Revision, die gerade gestern angenommen wurde, ist endlich auch Produkthaftung für Software mit dabei. Das heißt, wenn du eine schadhafte Software in den Markt bringst, kommerziell, das ist immer nur kommerziell, dann bist du haftbar. Das heißt, damit hast du natürlich jetzt als Hersteller einen starken Anreiz, dich mal ernsthaft um IT-Sicherheit zu kümmern. Was wichtig ist, da gab es auch zwischendurch immer wieder mal Fragen aus der Community, die, Wenn du ein freier Softwareentwickler bist, der nur zu Hause so ein bisschen vor sich hin frickelt und das Zeugs irgendwo auf GitHub hochlädt oder so, aber das nicht geschäftlich macht, dann bist du nicht in der Verantwortung. Wenn jemand jetzt dein freies Softwaremodul nimmt und ein kommerzielles Produkt einbaut, dann ist der dafür verantwortlich und nicht du als Entwickler von dem kleinen Open-Source-Software-Tool. Das war also ganz wichtig, das haben wir da auch gewonnen. Was sonst? Ja, ich glaube, das waren so die wesentlichen Elemente.

Thomas Lohninger
0:14:06
Ralf Bendrath
0:14:56
Thomas Lohninger
0:15:04
Tim Pritlove
0:15:05
Ralf Bendrath
0:15:15
Tim Pritlove
0:15:20
Ralf Bendrath
0:15:24
Tim Pritlove
0:15:30
Ralf Bendrath
0:15:43
Tim Pritlove
0:15:51
Ralf Bendrath
0:15:52
Tim Pritlove
0:15:59
Ralf Bendrath
0:16:05
Tim Pritlove
0:16:08
Ralf Bendrath
0:16:12
Tim Pritlove
0:16:21
Ralf Bendrath
0:16:40
Arnika Zinke
0:16:43
Ralf Bendrath
0:17:10
Tim Pritlove
0:17:25
Ralf Bendrath
0:17:29
Tim Pritlove
0:17:31
Ralf Bendrath
0:17:34
Tim Pritlove
0:17:46
Ralf Bendrath
0:17:47
Tim Pritlove
0:17:52
Arnika Zinke
0:18:04
Tim Pritlove
0:18:21
Ralf Bendrath
0:18:28

Genau, das ist ein neues Gesetz. Das ist eine Verordnung, gilt also unmittelbar, nachdem sie jetzt veröffentlicht wird und dann in Kraft tritt. Und da geht es sozusagen nochmal härter wirklich in die Pflicht für Anbieter von elektronischen Endgeräten. Das kann auch Software beinhalten oder andere digitale Devices. Das ist so ein bisschen ähnlich aufgehängt wie das KI-Gesetz, der AI-Act im Rahmen dieses sogenannten New Legislative Framework, wo noch so ein ganzer Rattenschwarz von Marktaufsichtsbehörden dranhängt und so und am Ende das CE-Label rauskommt, was man so kennt als Label für Produktsicherheit in Europa. Ja. Die Hersteller von solchen Produkten, also das ist eine relativ allgemein gehaltene Regelung, Artikel 13, Obligations of Manufacturers, also Auflagen für Hersteller, die müssen sich an die essentiellen, ich weiß immer nicht, was du auf Deutsch hast, wir machen alles auf Englisch hier, Essential Requirements, essentielle Anforderungen, danke, in Annex 1 halten. Und Teil 1 von Antrag 1 ist über Cyber Security. Und da steht dann ganz klar drin, Produkte mit digitalen Elementen sollen designt, entwickelt und hergestellt werden, sodass sie ein angemessenes Level von Cybersicherheit basierend der jeweiligen Risiken liefern. Und sie sollen zum Beispiel auf den Markt gebracht werden ohne bekannte Sicherheitslücken. Also versteckte Backdoors, die der Hersteller kennt, aber nicht angibt beim Verkauf, sind jetzt damit verboten offiziell. Sie müssen bei Default einer sicheren Konfiguration ausgeliefert werden. Sie müssen Sicherheitsupdates kriegen können. Sie müssen vor ungesichertem Zugriff geschützt sein und wenn es einen Zugriff geben sollte, müssen Sie es berichten. Und jetzt steht sogar noch drin, Sie müssen die Vertraulichkeit von gespeicherter oder übertragener Daten, egal ob persönliche Daten oder andere, sicherstellen, unter anderem durch Verschlüsselung, Speicher und auch Transit. Ja. Und die Sicherheitsupdates müssen mindestens für fünf Jahre bereitgestellt werden. Außer das Produkt hat absehbar eine deutlich geringere Lebenszeit, dann reicht es auch kürzer. Aber mindestens sind erstmal normalerweise fünf Jahre müssen verpflichtende Sicherheitsupdates geliefert werden.

Tim Pritlove
0:20:56
Ralf Bendrath
0:20:59
Thomas Lohninger
0:21:02
Ralf Bendrath
0:21:07
Tim Pritlove
0:22:06
Arnika Zinke
0:22:08
Thomas Lohninger
0:22:19
Ralf Bendrath
0:22:32
Thomas Lohninger
0:22:34
Ralf Bendrath
0:23:11
Thomas Lohninger
0:23:26
Ralf Bendrath
0:23:42
Thomas Lohninger
0:23:48
Ralf Bendrath
0:23:52
Arnika Zinke
0:24:13
Tim Pritlove
0:24:27
Arnika Zinke
0:24:29
Tim Pritlove
0:24:31
Ralf Bendrath
0:24:33
Tim Pritlove
0:25:01
Thomas Lohninger
0:25:28
Ralf Bendrath
0:25:52
Tim Pritlove
0:26:18
Thomas Lohninger
0:26:34
Tim Pritlove
0:26:38
Ralf Bendrath
0:26:38
Arnika Zinke
0:26:47
Ralf Bendrath
0:27:38
Tim Pritlove
0:28:05
Ralf Bendrath
0:28:07
Thomas Lohninger
0:28:13
Ralf Bendrath
0:28:36
Thomas Lohninger
0:28:38
Ralf Bendrath
0:28:39

Genau. Es gibt jetzt auch seit dieser Woche eine Plattform, die wurde nicht im Plenum abgestimmt, sondern die war schon im Februar ausverhandelt und war bisher aber im Rat blockiert. Und gerade jetzt vorgestern am Montag hat wieder der Ministerrat für Beschäftigung, Soziales, Gesundheit und Verbraucherschutz getagt. Und da gab es bisher eine Sperrminorität, bestehend aus Estland, Griechenland, Frankreich und Deutschland, mal wieder die FDP. Und Estland und Griechenland haben jetzt sich von der Enthaltung zu einem Vote, zu einer Abstimmung dafür durchgerungen. Deswegen gab es jetzt nur noch mit Frankreich und Deutschland alleine keine Sperrminorität mehr. Und deswegen kommt jetzt die Platform Workers Directive, die erstmals sozusagen die Arbeitsbedingungen regelt für Leute, die über Plattformen, was weiß ich, wie Uber Eats oder Deliveroo oder sowas arbeiten, aber auch zum Beispiel Mechanical Turk von Amazon oder so Zeug. Weil da bisher immer noch ganz oft unklar war, sind das Angestellte, sind das Freelancer, welche Rechte haben die gegenüber dem Quote-unquote Arbeitgeber und so. Und diese Plattform Worker's Direct, soweit ich es verstanden habe, wie gesagt, das war Beschäftigungsausschuss, ich habe es auch nur von der Seite mitverfolgt, die macht jetzt vor allem zwei Sachen, die... Sagt eben, dass sozusagen erst mal die Annahme gilt, wenn man so ein Plattform-Worker ist, ist man Angestellter. Und die Beweislast, dass das nicht der Fall ist, hat der Arbeitgeber sozusagen oder die Plattform. Das heißt, damit gelten dann die ganzen Rechte als Arbeitgeber wie Recht auf bezahlten Urlaub, Recht auf Streik und alles mögliche andere, Krankengeld und so weiter. Und wie gesagt, wenn die Plattform meint, nee, aber in dem Fall ist das doch ganz klar nur ein Freelancer, der macht nur ab und zu mal hier was, wenn er Bock drauf hat, dann muss sie das eben nachweisen. Und dann ist sie raus aus den Arbeitgeberverpflichtungen. Und das Zweite ist, dass es jetzt zum ersten Mal Regeln gibt für algorithmisches Management von Arbeitern oder Arbeitenden. Das heißt, wenn man ernsthafte Entscheidungen trifft über so einen Plattformarbeiter oder eine Arbeiterin, zum Beispiel Beendigung des Vertrages oder so, das darf auf keinen Fall von einem Algorithmus gemacht werden, das muss immer ein Mensch entscheiden.

Tim Pritlove
0:30:49
Ralf Bendrath
0:31:03
Tim Pritlove
0:31:07
Ralf Bendrath
0:31:16
Tim Pritlove
0:31:22
Ralf Bendrath
0:31:40
Thomas Lohninger
0:31:46
Ralf Bendrath
0:33:16
Tim Pritlove
0:33:32
Ralf Bendrath
0:33:36
Tim Pritlove
0:33:55
Ralf Bendrath
0:34:05
Tim Pritlove
0:34:07
Thomas Lohninger
0:34:37
Tim Pritlove
0:34:41
Thomas Lohninger
0:34:44
Ralf Bendrath
0:34:46
Tim Pritlove
0:34:50
Thomas Lohninger
0:34:56
Ralf Bendrath
0:35:48
Tim Pritlove
0:36:51
Ralf Bendrath
0:36:52
Tim Pritlove
0:37:04
Ralf Bendrath
0:37:10
Tim Pritlove
0:37:57
Arnika Zinke
0:37:59
Ralf Bendrath
0:38:29
Thomas Lohninger
0:38:33
Ralf Bendrath
0:39:22
Tim Pritlove
0:39:33
Thomas Lohninger
0:39:52
Tim Pritlove
0:39:54
Thomas Lohninger
0:39:57
Ralf Bendrath
0:40:03

Ja, das ist auch wieder ein Gesetzesvorschlag, der in zwei Ausschüssen gleichberechtigt verhandelt wird. In meinem Ausschuss Liebe, also Civil Liberties, Justice and Home Affairs, wegen der Datenschutzkomponente und Gesundheit- und Umweltausschuss wegen Gesundheit, Gesundheitsdaten. Und das ist kurz vorm Abschluss. Morgen Nacht soll der letzte Trilog, also die letzte Verhandlungsrunde zwischen Rat, Parlament und Kommission stattfinden. Das Ding hat im Prinzip zwei Elemente. Ist natürlich viel komplizierter, aber hat im Prinzip zwei Elemente. Das eine ist Regeln für primäre Nutzung von Gesundheitsdaten und das andere ist für sekundäre Nutzung. Primäre Nutzung heißt, wenn mein Arzt meine Patientenakte Akte irgendwie lokal auf dem Rechner schon elektronisch vorhält, dann soll er oder sie die in der Regel auch vernetzt bereitstellen, damit wenn ich dann zu einem anderen Arzt gehe oder zu einer anderen Ärztin oder ins Krankenhaus oder so, die auch Zugriff auf die gesamte Akte haben und das eben besser nutzen können, um mich besser zu behandeln, weil die dann auch Vorerkrankungen und vorherige Behandlungen und sowas direkt sehen können. Macht irgendwie Sinn, das gibt es hier zum Beispiel in Belgien auch. Da Da sind viele Leute auch ganz glücklich drüber. Da kann man auch selber mit der App auf dem Smartphone irgendwie gucken, was ist eigentlich gerade in meiner Patientenakte so los? Dann kann ich die Sachen auch selber mal rauspulen und angucken und so. Da war lange der Streit, braucht es dazu ein Opt-in? Also müssen die Leute einwilligen, damit es elektronisch vernetzt verfügbar gemacht wird? Oder ist es generell bei Default so und man soll vielleicht nur widersprechen können? In Deutschland ist, glaube ich, aktuell der Stand, dass es immer noch ein Opt-in ist, aber das soll jetzt umgestellt werden auf Opt-out unter lauter Wacht, damit mehr Leute die elektronische Patientenakte nutzen. Und das Gesundheitswesen sozusagen effektiver ist. Das Ergebnis hier ist im Prinzip das gleiche. Es bleibt erstmal so vorgesehen, dass es per Default in eine vernetzte elektronische Gesundheitsakte kommt. Die Mitgliedstaaten können dann selber aber noch entscheiden, ob sie ein Opt-out ermöglichen wollen oder nicht. So, das ist eigentlich noch relativ unproblematisch. Da gab es dann so ein bisschen Missverständnisse in den Verhandlungen, weil die Leute, die Belgier hier von der Ratspräsidentschaft, haben erst gedacht, wenn man da widerspricht, heißt das, dass der Arzt gar nicht mehr meine Akten elektronisch führen kann, sondern wieder auf Papier zurück muss. Das war natürlich dann so, nee, Quatsch. Natürlich kann der Arzt seinen lokalen Rechner haben. Wir sind 2024 heutzutage. Nur die sollen nicht vernetzt sein. Wenn man als Patient vielleicht besondere Sicherheitsbedürfnisse hat, weil man auch mal eine psychologische Behandlung hatte oder andere Sachen oder eine Abtreibung oder so, will man einfach, dass das nur beim Arzt in der Praxis liegt und nicht vernetzt ist. Nicht irgendwie vielleicht auch sogar Angreifer da rangehen können oder so mit IT-Sicherheitslücken. Obwohl, die sind ja jetzt alle weg mit dem Cyber-Resilienz-Experiment.

Tim Pritlove
0:42:48
Ralf Bendrath
0:42:49

So, das ist das erste, primäre Nutzung. Das zweite ist die sekundäre Nutzung und das ist für uns das Riesenproblem, weil es gibt eigentlich jetzt seit über 2400 Jahren den hypokratischen Eid, den Ärzte ablegen müssen und der beinhaltet unter anderem die ärztliche Schweigepflicht oder das Patientengeheimnis. Dass einfach das, was ich mit meinem Arzt bespreche, zwischen uns bleibt und ich darauf vertrauen kann. Was jetzt hier vorgesehen ist, ist, dass die Gesundheitsdaten, sofern sie vernetzt verfügbar sind, auch für andere Zwecke genutzt werden können. Das geht dann vor allem um Forschung. Natürlich Big Pharma hat da auch ein Rieseninteresse dran, aber auch öffentliches Gesundheitsmanagement, zum Beispiel in Zeiten von Pandemien, Infektionstracing, solche Geschichten, was ja teilweise die Gesundheitsämter auch heute schon machen. Es gibt ja Sachen, wo die ärztliche Schweigepflicht unterbunden wird durch Gesetz, bei meldepflichtigen Krankheiten und so, wie es zum Beispiel Corona auch war. Und da war jetzt aber die Riesenfrage bis zum Schluss oder ist immer noch, das Parlament wollte hier aber dann mindestens sagen, dann sollen die Leute aber zumindest ein Widerspruchsrecht haben. Dass ich sagen kann, meine Patientendaten sollen bitte für Forschung oder so nicht bereitgestellt werden. Die Mitgliedstaaten haben jetzt, die belgische Ratspräsidentschaft hat wirklich versucht, das irgendwie zu berücksichtigen. Das war für das Parlament sozusagen die eine große rote Linie die ganze Zeit. Wir haben ganz viele andere kleinere Sachen aufgegeben, um dieses Opt-out zu kriegen für sekundäre Nutzung. Aber die Mitgliedstaaten stellen sich jetzt auf stur und sagen, nö, wir wollen einfach alle Daten und man kann gerne ein Opt-out machen, aber dann gibt es für die Mitgliedstaaten dann das Recht, wieder das Opt-out zu überschreiben. Also das gilt dann einfach nicht. Und das sind dann auch für Zwecke, wo ich mich frage, braucht es dazu wirklich immer alle Daten? Unter anderem für öffentliche Institutionen, die ein Mandat im Bereich der öffentlichen Gesundheit haben oder sogar private Institutionen, die eine Aufgabe im Bereich der öffentlichen Gesundheit haben. Gut, da könnte man vielleicht noch drüber streiten, ob man das ein bisschen enger fasst und dann ist es vielleicht noch akzeptabel. Der Parlamentsvorschlag war jetzt, dass man das nur in Situationen von öffentlicher medizinischer Notlage oder Notlage der öffentlichen Gesundheit machen kann. So eine ähnliche Regelung haben wir schon im Data Act zum Beispiel. Dann wollen sie aber auch noch alle möglichen Research, medizinische Produktentwicklung medizinische Geräteentwicklung also die haben sie bisher auch so entwickeln können ohne dass man von allen Patienten die Daten abgegriffen hat und das letzte ist auch Statistiken. Nationale, multinationale und EU-Level offizielle Statistiken ich meine Statistiker können seit über 100 Jahren mit unvollständigen Datensätzen umgehen, das ist deren Job da dann irgendwie die Bias so rauszurechnen, Ja, so sieht es aus. Das ist das letzte Angebot, was die Kommission jetzt auf den Tisch vorgelegt hat als Quote-Unquote-Kompromiss. Das geht morgen Abend in den letzten Trilog. Heute war nochmal ein Treffen der Schattenberichterstatter vom Parlament von den verschiedenen Fraktionen. Und es sieht so aus, dass die Mehrheit, zumindest eine Mehrheit aus EVP, EKR, also die europakritischeren Konservativen und Sozialdemokraten, das so akzeptieren will. Und im Prinzip alles aufgibt, was wir die ganze Zeit gesagt haben. Hier, wir geben euch die ganzen anderen Sachen nur, wenn wir dieses eine Opt-out kriegen, aber dann auch richtig. Und am Ende werden wohl nur die Grünen und die Linken dagegen stimmen. ID ist noch ein bisschen unklar. Die würden normalerweise als gute Populisten auch irgendwie auf den Zug aufspringen und sagen, da sind wir dagegen. Wir verkaufen nicht unsere Gesundheitsdaten an Big Pharma. Aber die haben zufälligerweise die Berichterstatterin, Liebe Ausschuss, weil das sonst niemand wollte. Und das ist per Dehont bei denen gelandet. Und da sehe ich jetzt nicht, dass die da großen Rückzieher macht, wenn sie selber Co-Berichterstatterin ist. ist. Aber verhandelt wurde es im Prinzip alles von dem EVP Berichterstatter im Umwelt- und Gesundheitsausschuss. Ja, das ist das. Morgen Abend geht das den Bach runter.

Thomas Lohninger
0:46:49

Ja, noch nicht. Also gibt man einen Brief, aber ich wiederhole jetzt nochmal oder fasse zusammen. Also wir haben ein EU-Gesetz, das die Digitalisierung von allen Patientinnenakten und wahrscheinlich auch sonstigen. Gesundheitsbezogenen Daten aus dem in Krankenhäusern, Arztpraxen und sonstigen Einrichtungen miteinander vernetzt. Opt-out oder Opt-in kann es geben, wenn der Mitgliedstaat das vorsieht für diese Primärnutzung. Aber bei der Sekundärnutzung, die eigentlich ja die kritischere ist, weil da geht es nicht nur um das Gesundheitssystem, sondern da geht es um Forschung. Und das heißt auch pharmakologische Forschung. Das heißt auch, dass hier ganz viele andere Interessenträger auf einmal Zugriff auf sehr sensible Daten bekommen. Wir haben auch schon mehrmals diskutiert, dass solche Gesundheitsdaten sehr schwer bis gar nicht zu anonymisieren sind, weil das ist einfach sehr einzigartig bei Menschen. Wenn ich als Arbeitgeber weiß, wenn du im Krankenstand bist, wenn du geimpft wurdest oder du das auf Social Media postest, finde ich dich wieder in diesen Datensets. Es gibt dazu auch eine Klage meines Wissens von der GFF, die da auch in Deutschland höchstgerichtlich dagegen vorgehen, gegen diese Sekundärnutzung anhand von einem Menschen, der halt sehr einzigartige Blutwerte oder sonstige Werte hat und da auch sehr leicht zu reidentifizieren ist. Das halte ich für eine ganz große Gefahr. Das ist vielleicht auch nochmal zu sagen, das hier ist so eine sogenannte Lex Spezialis zur DSGVO, oder? Das etabliert eine Ausnahme von unserem Grundrecht auf Datenschutz für diesen eigenen Bereich hier. Und ich meine... Also morgen wird das sozusagen, kannst du da vielleicht auch mal aus dem Nähkästchen plaudern, wie läuft denn sowas ab, so eine Trilog-Sitzung, also wie viele Leute sind da im Raum, wie lange wird da verhandelt, was erwartet dich da morgen?

Ralf Bendrath
0:48:47

Morgen könnte es relativ schnell gehen. Also der letzte Trilog letzten Donnerstagabend, der hat um 18 Uhr angefangen, war ungefähr morgens um fünf zu Ende ohne Ergebnis, weil das Parlament da noch die Linie gehalten hat. Und jetzt haben aber alle Fraktionen intern nochmal geguckt, sind wir noch ein bisschen flexibler oder so. Die Mitgliedstaaten dagegen haben nicht geguckt. Es gab heute noch mal Sitzung der Botschafter. Da war das Thema gar nicht auf der Tagesordnung. Also die Belgier haben gar nicht erst versucht, noch mehr Flexibilität für sich selber zu kriegen, sondern haben nur gesagt, hier, liebes Parlament, wenn ihr noch mal flexibler werdet, dann können wir es nächste Woche noch mal versuchen. Weil morgen ist sozusagen die letzte Deadline, um vor der Europawahl noch ein Gesetz abzuschließen. Weil das dann alles noch irgendwie sprachlich aufgeräumt werden und noch abgestimmt werden muss und so weiter. Also morgen kann es relativ schnell gehen. Da sitzt dann normalerweise der belgische Minister, Gesundheitsminister, die Berichterstatter vom Parlament, vielleicht noch ein Vorsitzender oder Vize-Vorsitzender vom Umweltausschuss. Der Vorsitzende vom Innenausschuss kommt zu solchen Verhandlungen nie, obwohl das könnte. Das ist aber ganz gut so, weil der ist immer so ein bisschen verwirrt. Der könnte da nur Unsinn reinbringen. Und dann sitzen da halt noch die Kommission, das ist dann wahrscheinlich die Kommissarin, Kiria Kiedis, die Gesundheitskommissarin, und alle Fraktionen, manche mit Abgeordneten richtig vertreten, viele aber, weil jetzt gerade Straßburg-Woche war und die schon längst ihre Flüge nach Hause gebucht hatten in die ganzen Mitgliedstaaten und so, die werden jetzt nicht morgen alle nach Brüssel fahren. Also von uns wird auch keiner dabei sein, weil die alle Verpflichtungen schon woanders hatten. Aber dann sitze halt ich da mit meiner Kollegin aus dem Umwelt- und Gesundheitsausschuss, unserem digitalen Koordinator, der Nachfolger von Arneka an dem Job, Francesco, noch ein paar Abgeordneten, Mitarbeitende. Juristische Dienste sind da immer vertreten, oft auch die Sprachjuristen. Das sind dann so... 20 bis 30 Leute vielleicht in so einem Setting. Und reden tun aber eigentlich nur der Rapporteur, also der Berichterstatter, in diesem Fall eigentlich in der Regel der ENVI, also Gesundheits- und Umweltausschuss-Rapporteur von den Konservativen, der belgische Minister und die Kommissarin. darin. Und dann gibt es manchmal so Punkte, wo man dann sagt, okay, das Parlament muss sich mal kurz zurückziehen, dann gibt es nebenan irgendeinen sogenannten Breakout-Room, wo dann sogar so ein Patrick Breyer zum Beispiel, der das für uns auf der Datenschutzseite macht, sich online dazuschalten kann und dann wird halt intern in einer Parlamentsdelegation beraten, okay, Leute, wir haben jetzt hier ein neues Angebot von den Belgiern, können wir das irgendwie mittragen oder ist das immer noch nicht gut genug, können wir einen Gegenvorschlag machen oder so. Und dann müssen halt sozusagen die Fraktionen der Reihe nach sagen, wie weit sie gehen können. Und dann muss der Berichterstatter gucken, wie er damit umgeht, ob er jetzt eine Mehrheit findet für den Kompromiss oder nicht. Manchmal gibt es auch Situationen, wo der Berichterstatter einfach sagt, ich habe jetzt hier keine klare Mehrheit, ich lasse es einfach darauf ankommen. Wir nehmen das Ding jetzt mal so an und gehen damit in die Ausschüsse und dann ins Plenum und gucken, ob wir eine Mehrheit kriegen. Das ist aber eher selten. Das kann aber teilweise bei komplexeren Gesetzen, hier sind jetzt noch ein paar Fragen offen, unter anderem auch die Frage der Lokalisierung, weil das EP die Daten in Europa speichern wollte und nicht irgendwo auswärts. Und der Rat sagt aber, nee, nach DSPVO kann man die doch auch in den USA transferieren, weil da gibt es ja eine Angemessenheitsentscheidung und so. Also das sind aber nur vier, fünf Punkte, die noch offen sind. Die kann man morgen relativ schnell abkaspern, weil eigentlich fast alle außer uns und den Linken schon angedeutet haben heute Morgen, dass sie da mitgehen können. Es gibt auch andere Beispiele. Da können wir vielleicht gleich zum AI-Act noch was zu erzählen, weil da haben wir, glaube ich, den bisher längsten Trilog gehabt. Der hat insgesamt 39 Stunden gedauert.

Thomas Lohninger
0:52:25
Ralf Bendrath
0:52:46
Tim Pritlove
0:53:07
Ralf Bendrath
0:53:11
Tim Pritlove
0:53:14
Ralf Bendrath
0:53:17

Das war eher so, dass man irgendwie dann aus Verhandlerkreisen im Rat hört, dass die deutschen Vertreter oder Vertreterinnen einer Ratsarbeitsgruppe, das ist ja SPD, Lauterbach, Gesundheitsminister, dass die sich dann abschätzig über den Bundesdatenschutzbeauftragten Ulrich Kelber äußern, der auch SPD-Mitglied ist, weil die sich anscheinend mit dem inzwischen so überworfen haben, dass sie über ihn nur noch schlecht reden können. Also unsäglich. Vielleicht noch kurz eine Klarstellung, damit das nicht in den falschen Hals kommt. Es ist schon so, das muss man auch anerkennen, dass die Daten, wenn sie für sekundäre Nutzung freigegeben werden, da muss erst ein Antrag gestellt werden und die sogenannten Health Data Access Bodies, also in der Regel irgendwelche Abteilungen im Gesundheitsministerium oder so, müssen das dann genehmigen. Die Daten werden dann nicht einfach an Big Pharma übermittelt, so als riesengroßer Patentendatensatz, sondern die werden nur von dem Health Data Access Body in einem sicheren Processing, in einer sicheren, Datenverarbeitungsumgebung, Secure Processing Environment, bereitgestellt und da muss sozusagen dann der Antragsteller kommen und seinen Algorithmus zu den Daten bringen. Der kriegt aber die Daten nicht mit nach Hause geliefert. Also die Daten gehen sozusagen nicht raus, Aber es sind natürlich trotzdem meine Daten und ich als Patient will selber entscheiden können, ob die irgendjemand für Forschungszwecke oder so verarbeiten kann, egal wo und unter welchen Umständen.

Tim Pritlove
0:54:41
Arnika Zinke
0:55:21
Ralf Bendrath
0:55:37

Das fing schon vor ein paar Jahren an, ich glaube nach einer letzten Legislatur sogar, da gab es einen Initiativbericht im Rechtsausschuss von Mehdi Delvaux aus Irland, der hieß zu Robotics and Civil Liability. Da wurde unter anderem diskutiert, ob wenn ein Roboter oder eine KI selbstständig Entscheidungen trifft, ob die dann nicht auch selber wie eine Art juristische Person werden sollte, die dann auch Verantwortlichkeit dafür kriegt und sowas. Wo dann zum Glück am Ende der Diskussion rauskam, nein, ganz klar, die Verantwortung liegt immer bei einem Menschen. Eine KI kann nicht für irgendwas verantwortlich gemacht werden. Die kann ja auch nicht in den Knast gehen oder so. Jemand würde das nichts ausmachen. Aber die hatte einen ganz schönen Einstieg damals in ihren Erwägungsgründen. Da stand dann unter anderem drin, dass vom klassischen Pygmalion-Mythos der Antike über Frankensteins Monster von Mary Shelley und der Prager Golem-Legende bis zum Roboter von Karel Čapek, der dieses Wort geprägt hat, Menschen über die Möglichkeit fantasiert haben, intelligente Maschinen zu bauen. In den meisten Fällen Androiden mit menschlichen Zügen. Fand ich mal einen schönen Einstieg in so einen Initiativbericht, so ein bisschen poetischer als normal. So, und dann ging so ein bisschen hier überall, das hieß damals teilweise noch Big Data, wurde überall darüber diskutiert, dass man jetzt Möglichkeiten hat, mit den großen Datenmengen auch viele Maschinen zu trainieren und damit lustige Sachen zu machen. Und dann hat die Kommission, die hatte vorher noch so eine High-Level-Expert-Group eingerichtet und so weiter, dann hat die Kommission angekündigt, sie werden ein Gesetz vorlegen zum Thema KI-Regulierung, das erste weltweit. Und dann wurde hier plötzlich hektische Betriebsamkeit ausgelöst. Da haben, glaube ich, in sieben Ausschüssen wurden dann Initiativberichte gemacht, also von Grundrechteaspekten über Bildung bis hin zu Sicherheit und Verteidigung und so, wo überall KI vielleicht eine Rolle spielen könnte und was man da machen sollte. Und parallel gab es noch einen Sonderausschuss zum Thema KI, wo Axel Voss von der CDU Berichterstatter war. Auch ein bisschen bescheuerte Doppelarbeit. Da macht man sieben Initiativberichte parallel und noch einen Sonderausschuss parallel. Aber irgendwie wollte die Mehrheit im Haus das so. Und Axel Voss hat dann in seinem Berichtsentwurf versucht, so ein bisschen auch Mady Delvaux mit ihrem Roboterbericht zu imitieren, in dem auch ein bisschen poetisch wurde. Aber der hat dann einfach nur Unsinn reingeschrieben. Da stand dann zum Beispiel drin, dass KI das fünfte Element sein wird, neben Erde, Wind, Feuer und Wasser, was uns immer umgeben wird und so.

Thomas Lohninger
0:58:05
Ralf Bendrath
0:58:09
Arnika Zinke
0:58:18
Ralf Bendrath
0:58:21
Tim Pritlove
0:59:34
Ralf Bendrath
1:00:18
Tim Pritlove
1:00:45
Ralf Bendrath
1:01:57
Arnika Zinke
1:01:59
Tim Pritlove
1:02:55
Arnika Zinke
1:03:31
Ralf Bendrath
1:03:53
Arnika Zinke
1:04:23

Noch nachgeschöpft werden muss. Also es gab quasi ein eigenes Kapitel für Measures for Innovation, um eben auch die quasi so ein bisschen industriepolitisch auch zu mehr KI-Systeme in Europa zu generieren. Weil im Vergleich dazu zum Beispiel die Systeme, die verboten werden, im Kommissionsvorschlag ja eigentlich sehr dünn waren. Also es gab ein Verbot für biometrische Massenüberwachung in Echtzeit, aber dann auch wieder mit ziemlich großen Ausnahmen. Unter anderem, wenn man zum Beispiel Missing Children, also Kinder sucht. Es gab ein Verbot für Social Scoring, das aber so limitiert geschrieben war, dass es eigentlich wirklich nicht wirklich was anwendbar gewesen wäre. Wäre, klingt aber gut, wenn man eine PR-Mitteilung dazu macht. Und dann das, was die KI-Provider, also die Hersteller, danke. Es ist wirklich manchmal schwierig, wenn man immer in Englisch arbeitet und dann versucht, alles auf Deutsch zu übersetzen. Genau, also dass die Hersteller einfach eigentlich nur dann etwas zu erfüllen hatten, wenn sie als Hochrisiko eingestuft wurden. Das heißt, es gab zwar diese Pyramide, die vielleicht auch einige schon gesehen haben, quasi welche Bereiche das KI-Gesetz quasi umfasst. Und oben auf der Pyramide sind die verbotenen KI-Systeme, was ja eigentlich de facto so gut wie nichts ist. Dann gibt es quasi einen mittleren Bereich mit Hochrisiko, wo dann alles, was quasi zu erfüllen ist im KI-Gesetz, quasi nur in diesem Bereich fällt und alle Regelungen quasi nur in dem Bereich zu erfüllen sind. Und dann gibt es noch einen untersten Bereich, das ist Low-Risk oder Minimum-Risk, also quasi die wenigst Risiko-KI-Systeme, die ein paar Transparenzpflichten erfüllen mussten. Das heißt, diese Pyramide, die die Kommission da quasi auch vorgestellt hat, ist eigentlich recht verwirrend, weil letztlich ist es ein Gesetz für ein paar Pseudoverbotene KI-Systeme gewesen und das, was sie als Hochrisiko begriffen haben. Und der Begriff Hochrisiko ist ja auch eigentlich recht problematisch, weil da will ja auch kein Hersteller eigentlich reinfallen. Also kein Hersteller, der sein KI-System irgendwie schon verkaufen will, außer es ist wirklich für einen Bereich, der hochproblematisch ist, möchte wirklich in den Hochrisikobereich fallen. Und das ist, glaube ich, auch ein Begriff, der uns negativ durch die ganzen Verhandlungen verfolgt hat. Genau, nur um das fertig zu erklären, was Hochrisiko ist und was nicht, ist in dem sogenannten Annex Free, wenn ich das richtig im Kopf habe, festgeschrieben, das sind quasi verschiedene Bereiche, die von Bildung bis Migration, Arbeitsverhältnisse gehen, wo verschiedene Kaisersysteme, Strafverfolgung genau, reingegeben wurden, die potenziell in diesen Hochrisikobereich fallen könnten. Und genau, also das ist so mal ein bisschen die Logik und auch nochmal darauf zurückzukommen, was Ralf vorhin gesagt hat, es ist eben in diesem Produktsicherheitsgesetzesrahmen eingebettet worden. Das heißt, KI wird als Produkt begriffen, was auch schon nicht ganz unproblematisch ist. Und das wurde auch, also man munkelt, dass es auch deswegen gemacht wurde, damit das Gesetz eben nicht nur im Justizausschuss landet, sondern eben auch im Binnenmarktausschuss, wo ja alles, was Produktsicherheit betrifft, behandelt wird. Also das ist auch schon bewusst von der Kommission so gewählt worden, nicht unbedingt, weil sie KI unbedingt als Produkte sehen wollten, sondern auch, weil man dann vielleicht, und das sieht man auch bei anderen Gesetzen, schon beeinflussen will, in welchem Ausschuss das Gesetz landet, was dann ja auch wiederum Einfluss darauf hat, wie die Parlamentsposition aussehen wird. Also wenn es nur im Liebe landet, dann wird die Parlamentsposition relativ hohe Wahrscheinlichkeit progressiver ausfallen, als wenn es nur im Idre landet, was der Industrie- und Wissenschaftsausschuss ist, der traditionell immer recht konservativ, liberal und wirtschaftsfreundlich ist.

Tim Pritlove
1:08:12
Arnika Zinke
1:08:29
Tim Pritlove
1:09:02
Thomas Lohninger
1:09:06
Ralf Bendrath
1:10:20
Arnika Zinke
1:11:42

Ja, um jetzt auf die Frage zurückzukommen, was ändert sich quasi oder was wird jetzt besser? Also es ist quasi schon so, dass wir natürlich im Vergleich zur Parlamentsposition, die in vielen Fällen besser ist, als das, was dann beim Trilog rauskommt, natürlich nicht alles drin haben, was wir als Parlament angesehen haben als problematisch und zu verbietende KI und als Hochrisiko-KI. Also nur, weil du vorher noch angesprochen hattest, Emotionserkennung, Massenüberwachung mit Biometrie, die Polygraphen, das waren alles Punkte, die wir in unserer Parlamentsposition komplett verbannt hätten, also quasi verboten hätten. Und von denen wir nicht alle, aber einige in gewissen Bereichen geschafft haben, zu verbieten. Das eine ist eben die Emotionskennung, also quasi die basiert darauf, dass man denkt, dass wenn eine Person lacht, dass man davon ableiten kann, dass die Person quasi glücklich ist. Und es ist mittlerweile eindeutig bewiesen, dass das nicht funktioniert und dass es auch gegen Menschen, die zum Beispiel neuroatypisch sind, glaube ich ist das richtige Wort. Einfach auch falsch Emotionen erkennt und dass Emotionen einfach sich nicht leicht so ableiten lassen. Deswegen hat zum Beispiel auch Microsoft Emotionserkennung komplett aus dem Sortiment sozusagen genommen. Also die entwickeln in dem Bereich auch nicht mehr, weil sie erkannt haben, dass es Pseudowissenschaft ist. Wir haben es zwar nicht ganz durchbekommen, aber wir haben zumindest im Bereich am Arbeitsplatz und im schulischen Bereich Emotionserkennung komplett verboten. Was ein großer Gewinn für uns vor allem als Grüne war, wo man aber Emotionserkennung zum Beispiel noch verwenden darf. Und um ein Beispiel zu nennen, ist eben im Migrationsbereich, also zum Beispiel an Grenzen, was weiterhin hochproblematisch ist, weil die Probleme bestehen ja weiterhin. Es ist zwar Hochrisiko, aber Hochrisiko heißt halt, du musst einige weitere Regeln erfüllen. Das heißt, die KI muss Cybersecurity Standards erfüllen, es müssen gewisse Dokumentationen gemacht werden und jetzt in dem spezifischen Fall ist wahrscheinlich auch eine Grundrechteabschätzung notwendig, also das sogenannte Fundamental Rights Impact Assessment. Das war auch ein großer Gewinn für unsere Fraktion, das mit reinzukriegen. Dass eben nicht nur der Hersteller, sondern auch der Benutzer, also der, der das System quasi kauft, sondern wirklich anwendet, sich auch anschauen muss, was macht die KI eigentlich mit den Personen, auf denen ich das anwende. Das ist ein bisschen eine Weiterleitung von dem, was schon in den Datenschutzfolgeabschätzungen gemacht wird, aber eben speziell auf KI umgemünzt. Und das war für uns insofern ein großer Erfolg, weil das bedeutet, dass eben nicht nur der Hersteller, der spezifisch und kontextbasierte Anwendungen überhaupt nicht abschätzen kann, dass sich wirklich der Benutzer hinsetzen muss und sich mit der KI auseinandersetzen muss. Und ich glaube, dass es auch eben daraufhin, wie wir KI verstehen und wie wir generell, wie viel Bedeutung und können wir KI zumessen, sehr wichtig ist. Weil wenn das zum Beispiel von Schulen verwendet wird oder auch von Behörden, die vielleicht einen Datenschutzbeauftragten haben und dann das jemandem geben und sagen, sagen, ja, verwende das halt, um zum Beispiel Schülern zu helfen, in welche Fächer oder in welche Berufe sie sich dann einordnen. Dass es nicht einfach so angewendet wird, sondern die Personen wirklich wissen, okay, welche möglichen Folgen könnte das haben, wenn wir das jetzt mit unseren Schülern gemeinsam verwenden. Und ich glaube schon, dass das auch im Laufe der Zeit auch wirklich dazu führen wird, dass Menschen einfach besser verstehen, wie KI funktioniert und wo auch die Limits von KI sind, was letztlich auch eine Möglichkeit ist, rechtliche Folgen abzuschätzen. So haben wir es auch mal ein bisschen versucht zu verkaufen, das natürlich auch für Unternehmen, das relevant ist, abzuschätzen, wo sind die rechtlichen Folgen, die ich möglicherweise habe, wenn ich KI verwende, die nicht so gescheit ist, wie ich eigentlich glaube, dass sie ist.

Thomas Lohninger
1:15:27
Arnika Zinke
1:15:47
Thomas Lohninger
1:16:32
Ralf Bendrath
1:16:43
Thomas Lohninger
1:17:20
Ralf Bendrath
1:17:29
Arnika Zinke
1:17:30
Ralf Bendrath
1:17:57
Arnika Zinke
1:18:05
Thomas Lohninger
1:18:11
Ralf Bendrath
1:18:36
Tim Pritlove
1:18:56
Ralf Bendrath
1:19:05

Es gibt zwei Ebenen oder sogar drei teilweise, weil die Datenschutzbehörden, wenn es um personenbezogene Daten geht, auch immer noch eine Rolle haben dabei. Aber dann gibt es die Marktaufsichtsbehörden, Market Surveillance Authorities, die sozusagen die Standardbehörden sind in diesem ganzen Produktsicherheits-CE-Label-Rahmenwerk. Und dann gibt es aber, da kann Arneka mehr zu sagen, das ist mal diese ganze Marktüberwachung, das ist alles Imco-Committee-Territorium, da halte ich mich raus, das wissen die viel besser. Aber es gibt dann eben auch noch das AI-Office in der Kommission. Das, warte mal kurz, genau, das ist im Prinzip ein nettes Label für eine neue Abteilung in der Kommission. Also in der Definition steht da, das AI-Office means the commission's function of contributing to the implementation, monitoring and supervision of AI systems and AI governance. Das ist auch schon etabliert. Das wurde durch die Kommissionsentscheidung vom 24.01.2024 schon eingerichtet. Die Kommission kann ja ihre eigene interne Organisationsstruktur selber entscheiden, auch wenn das Gesetz noch gar nicht da ist. Aber die fangen jetzt sozusagen schon mal langsam an, Leute anzuheuern und das ganze Ding aufzubauen und so. Zu den Aufgaben steht in dem einen Artikel zum AI-Office eigentlich gar nichts drin. Da steht nur, das soll irgendwie das alles irgendwie koordinieren und helfen. Aber da muss man sich so ein bisschen durch den Text wühlen. In den einzelnen Punkten kommt dann sowas wie zum Beispiel die Entwicklung für Modellverträge zwischen KI, Hochrisiko-KI-Anbietern und Drittparteien, die irgendwie Komponenten und andere Unterstützungs-Sachen liefern. Dann, was heißt Template nochmal?

Tim Pritlove
1:20:47
Ralf Bendrath
1:20:47
Arnika Zinke
1:21:39
Ralf Bendrath
1:21:40
Tim Pritlove
1:22:38
Arnika Zinke
1:22:40

Ja, ich wollte nur noch mal sagen, dass das AI-Office auch schon eine Aufsichtsfunktion bei den General Purpose AI-Modellen hat. Und das war ein Zusatzbereich, den es im Kommissionsvorschlag nicht gegeben hat, nämlich diese Allzweck-Modelle. Und das war ein spezifischer Bereich, wo das Parlament ein komplettes Kapitel quasi hinzugefügt hat, weil das Parlament eben gesagt hat, okay, es ist so schön, dass wir KI-Systeme regulieren, aber es gibt ja ein Modell, das vor dem KI-System kommt, auf dem das KI-System oft basiert, wo quasi die Regeln eigentlich jetzt nicht da sind, vor allem, weil das ja alles auf dieses Hochrisiko zugemünzt ist. Von grüner Seite, unsere Idee war ursprünglich, dass wir sagen, alle Allzweckmodelle sollten alle Hochrisikoanforderungen eigentlich auch erfüllen. Das ging aber nicht durch und deswegen haben wir eben einen Kompromiss gefunden, verschiedene Anforderungen, die quasi auf den Hochrisikoregelungen basieren, aber quasi hochrisikoleit auch für diese Allzweckmodelle umzusetzen. Und da hat das KI-Büro jetzt die Funktion. Zu unterscheiden, welche der Modelle quasi nur die einfachen Dokumentations- und Transparenzpflichten erfüllen müssen oder welche Modelle quasi extra Anforderungen erfüllen müssen, also quasi in den Top-Tier fallen. Also es gibt zwei Stufen für die Modelle und Modelle, wer zum Beispiel eben GPT-free, worauf jetzt Chat-GPT basiert oder ja, also verschiedene Large-Language-Models zum Beispiel, aber auch, was auch immer in der Zukunft kommen mag, Und die stärkeren Regeln wären dann zum Beispiel Red Teaming, also interne Risikoanalyse bzw. Risikotesten von möglichen Problemen innerhalb des Modells. Und das war eben ein komplett neuer Bereich, den das KI-Gesetz selbst und die Kommission überhaupt nicht vorhergesehen hatte. Und die jetzt der Kommission deutlich mehr Macht geben, als eigentlich auch vorhergesehen war. Weil eigentlich war es wirklich gedacht, dass es national eben über die Market Surveillance Authorities und die Data Protection Authorities in jedem Mitgliedstaat einzeln die KI-Systeme überwacht werden. Und jetzt sind die ganzen Modelle ausgelagert zu dem AI-Office, das eben nicht nur eben die ganzen Punkte erfüllen kann, die Ralf vorhin schon erwähnt hat, sondern eben auch einteilen kann, wer das quasi Modell leiht und wer das Modell, das quasi einen höheren Impact hat und deswegen weitere Anforderungen erfüllen muss. Und das ist auch insofern interessant, weil in der Zukunft das AI-Office auch weitere problematische oder impactful Modelle hinzufügen kann in den Top Tier und deswegen ja relativ viel Macht bekommt.

Ralf Bendrath
1:25:28
Thomas Lohninger
1:25:32

Bevor wir dazu kommen, die generelle Struktur davon, dass wir das mal wiederholen. Also an sich war gedacht, die ganze Rechtsdurchsetzung über diese nationalen Marktaufsichtsbehörden zu machen. Und jetzt ist sozusagen auf Bestreben des Parlaments hin, dieses AI-Office bei der Kommission mächtiger geworden in Bezug auf das Einstufen von konkreten KI-Systemen gemäß ihrem Risikogehalt. Halt dieser generellen Modelle, General Purpose Modelle, da kann man sich wahrscheinlich so die klassischen Large Language Models vorstellen, oder? Ja? Unique. Und du hast dann aber am Ende eigentlich so welche Auflagen, weil für mich ist so, das habe ich auch mit Kolleginnen schon diskutiert aus der Zivilgesellschaft, es ist so ein bisschen sehr weird, jetzt zu sehen, dass eine Marktaufsicht auf einmal Grundrechte einhalten soll. Also wo sind wir denn jetzt mal so ein Testcase von, ich weiß nicht, Clearview AI haben wir vorher gesagt, das ist sowieso ganz verboten, aber was gibt es denn so für Beispiele, die ihr nennen könnt, wo nach eurer Lesart des Gesetzes einem Unternehmen auch Konsequenzen drohen, wenn durch die eigenen Systeme wirklich Schaden auftritt bei Menschen. Ist das alles nur eine theoretische Sache, wo ich eine Abschätzung irgendwo hinterlegen muss? Oder kann ich da zum Beispiel auch als Betroffener klagen? Wir haben ja, glaube ich, auch in der Sendung zuletzt schon diesen British Post Office Scandal diskutiert, wo aufgrund eines Fehlers eines Computersystems hunderte Menschen fälschlicherweise deren Existenzen zerstört wurden. Ja, hätte man vielleicht im Vorhinein auch nicht gesagt, dass es ein Hochrisikosystem sein soll. War es dann aber am Ende? Also würde der AI-Act bei solchen Fällen helfen und wenn ja, wie?

Arnika Zinke
1:27:26
Thomas Lohninger
1:28:22
Ralf Bendrath
1:28:53
Tim Pritlove
1:29:59
Arnika Zinke
1:30:47
Tim Pritlove
1:31:47
Arnika Zinke
1:31:55
Tim Pritlove
1:31:58
Ralf Bendrath
1:32:10
Tim Pritlove
1:32:15
Ralf Bendrath
1:33:04
Tim Pritlove
1:33:10
Arnika Zinke
1:33:15
Tim Pritlove
1:33:39
Arnika Zinke
1:34:58
Tim Pritlove
1:35:28
Thomas Lohninger
1:35:34
Arnika Zinke
1:36:20
Ralf Bendrath
1:37:11
Thomas Lohninger
1:37:48
Ralf Bendrath
1:37:51
Thomas Lohninger
1:38:29
Ralf Bendrath
1:38:46
Tim Pritlove
1:39:22
Arnika Zinke
1:39:34
Thomas Lohninger
1:40:50
Arnika Zinke
1:40:52
Thomas Lohninger
1:41:59
Arnika Zinke
1:42:23
Ralf Bendrath
1:43:21
Thomas Lohninger
1:43:35
Ralf Bendrath
1:43:40
Thomas Lohninger
1:43:41
Ralf Bendrath
1:43:42
Thomas Lohninger
1:44:01
Ralf Bendrath
1:44:46

Das übernehme ich mal, ja. Das ist eher mein Blutfallbereich. Ja, es steht jetzt in Artikel 5, Paragraph 1.h. Also Paragraph 1 ist, die folgenden KI-Praktiken sind verboten. Paragraph h, die Nutzung von Echtzeit-biometrischen Identifikationssystemen auf Entfernung in öffentlich zugänglichen Räumen für die Zwecke der Strafverfolgung. Ist verboten, steht so drin, aber leider ist der Satz dann noch nicht zu Ende. Der geht nämlich dann weiter, außer und insoweit, als solche Benutzung strikt notwendig ist für eines der folgenden Zwecke. Und dann kommen sozusagen die Ausnahmen, wo es dann doch erlaubt ist, die gezielte Suche nach spezifischen Opfern von Entführung oder Human Trafficking oder so. Zweitens die Verhinderung einer spezifischen, substanziellen und unmittelbar bevorstehenden Bedrohung für das Leben oder die physische Sicherheit von natürlichen Personen oder einer genuinen und gegenwärtigen oder vorhersehbaren Bedrohung einer terroristischen Attacke. Und drittens die Identifizierung und Lokalisierung von einer Person, die verdächtig ist, eine Straftat begangen zu haben, die mit einer Höchststrafe von mindestens vier Jahren Gefängnis bestraft werden kann. Also für die Zwecke wäre es noch erlaubt. Also die Idee war sozusagen dahinter dann am allerletzten Kompromiss, Donnerstag, Freitagnacht oder wann, kurz vor Weihnachten, dass wenn irgendwo jemand eine Tankstelle ausgeraubt hat und davonrennt oder davonfährt auf dem Motorrad oder so und vielleicht keinen Helm auf hat, dass man dann schnell in Echtzeit die Kameras, die es da in der Gegend gibt, wenn die sozusagen verbunden sind und Gesichtserkennung überhaupt können und sowas, einschaltet und sagt, hier, den finden wir mal diesen einen Räuber hier. Damit wir, solange der noch in der Nachbarschaft ist, irgendwie grob eine Chance haben, dass der irgendwie noch gefasst wird. Das war sozusagen die Idee. Da kann man dann sagen, ja, ist total offen und weit. Das hat aber bestimmte weitere Voraussetzungen noch. Das soll autorisiert werden von einer Justizbehörde oder einer anderen Behörde, die binnen der Entscheidungen treffen können, also de facto Staatsanwaltschaft dann wird das sein in der Praxis.

Thomas Lohninger
1:47:03
Ralf Bendrath
1:47:04
Tim Pritlove
1:48:12
Ralf Bendrath
1:48:28
Tim Pritlove
1:48:38
Thomas Lohninger
1:48:43
Tim Pritlove
1:48:48
Thomas Lohninger
1:48:49
Ralf Bendrath
1:48:57

Die Privaten sind nicht erfasst und auch sowas wie Grenzkontrollübergänge sind nicht erfasst. Das ist von der Datenschutzgrundverordnung geregelt. Da gibt es zum Beispiel auch schon Entscheidungen der Datenschutzbehörden, wenn irgendwelche Fußballstadien ein Verbot hatten von Hooligans, dann haben sie teilweise Gesichtserkennung eingesetzt, um die einzelnen Hooligans, die ein Stadionverbot hatten, zu finden. Da gibt es Entscheidungen der Datenschutzbehörden, sozusagen außerhalb dieser Regelung hier. Was es aber auch noch gibt, ist eine Regelung zu retrograder biometrischer Gesichtserkennung, also Post-RBI, eben nicht in Echtzeit. Und da ist eben die Idee, dass das nicht mehr verboten ist, sondern nur noch Hochrisiko, was für uns ein super, super dicke Kröte war, das zu schlucken. Könnt ihr euch vorstellen. Wir wollten komplett verabredet von allem. Wir haben jetzt schon in Echtzeit da irgendwie ein paar Ausnahmen drin reingekriegt, die aber, wie gesagt, für spezifische Verdächtige und so nur greifen. Und für retrograde KI-Echtzeit, nein, für retrograde Gesichtserkennung im öffentlichen Raum, da brauchst du erstmal die Aufnahmen, sonst kannst du es nicht machen. Und da gibt es dann eben unter Datenschutzrecht schon Regeln, wie lange dürfen Videokameras die Daten speichern und so und nach wie vielen Stunden müssen sie gelöscht werden oder überschrieben werden. Und wenn du diese Daten noch hast, wenn die mal gespeichert sind und auch legal noch gespeichert waren, dann kannst du die jetzt für ähnliche Fälle benutzen, nämlich für eine gezielte Suche nach einer Person, die auch wieder einer Straftat verdächtig ist, in dem Fall nicht mal eine schwere Straftat, sondern generelle Straftaten, wiederum mit Autorisierung eines Gerichts oder einer Staatsanwaltschaft. Limitiert auf das, was strikt notwendig ist für die Ermittlung in einem spezifischen Strafverfahren, also kannst du die einfach allgemein erstmal alle so abscannen, ohne Anlass, In keinem Fall soll so ein Hochrisiko-KI-System genutzt werden für Strafverfolgungszwecke in einer ungezielten Art, untargeted way, ohne Link zu einer spezifischen Straftat oder einem Strafverfahren oder eben einer spezifischen drohenden Gefahr oder so. Und solche Nutzungen müssen dann zumindest in der relevanten Polizeiakte dokumentiert werden und auch den Marktaufsichtsbehörden und Datenschutzbehörden verfügbar gemacht werden auf Nachfrage. Und wir sind uns, glaube ich, alle echt einig, dass das nicht gut ist. Das ist irgendwie viel, viel offener und viel weiter, als wir es uns gewünscht hätten. Das war am Ende sozusagen der Kompromiss, der auch noch total verfahrensmäßig richtig übel gelaufen ist. Wir hatten am letzten Abend des Trilogs, das war das 12., 10. Dezember oder so, hatten wir noch keinen finalen Text zu dieser retrograden Gesichtserkennung. Wir hatten aber vorher einen Text von einer spanischen Ratspräsidentschaft bekommen, der irgendwie in die richtige Richtung ging. ging. Da war noch eine limitierte Liste mit Straftaten, wo das genutzt werden kann und so weiter. Aber irgendwie ist es dann nicht mehr dazu gekommen, noch einen finalen Text auszufaden in der Nacht. Und dann sind alle nach Hause und ins Wochenende und am Montag oder Dienstag haben wir noch mal wieder ein paar Aufräumtermine gehabt auf technischer Ebene, also Mitarbeiterebene. Und dann kriegen wir plötzlich von den Spaniern da einen Text präsentiert, der einfach komplett anders war als das, was wir gedacht hatten, wie die Einigung ist. Und dann ging es wirklich noch zwei Wochen hin und her. Die letzte Woche war dann irgendwie die die Sitzungsfeierwoche vor Weihnachten, wo alle schon im Urlaub waren. Ich saß da irgendwie an der Nordsee im Ferienhaus und habe mir noch E-Mails hin und her geschickt. Und dann ist am Ende das hier rausgekommen, wo dann auch irgendwie jetzt sozusagen keiner mehr das Fass nochmal komplett aufmachen wollte. Der Trilog war sozusagen schon fertig und dann wurde diese Kröte geschluckt. Muss man nicht gut finden, überhaupt nicht. Und die Bundesregierung hat, glaube ich, schon entschieden, dass sie es auf jeden Fall enger ziehen will, wenn es überhaupt in Deutschland irgendwie Gesetzesgrundlage dafür geben wird. Und wir werden natürlich weiter dafür kämpfen, wenn das Ding mal wieder renoviert wird oder andere Gesetzesvorschläge kommen, die das irgendwie berühren könnten, dass das auf jeden Fall enger gezogen wird, ganz klar. Aber an dem Punkt jetzt den ganzen AI-Act scheitern zu lassen, war es uns auch nicht wert genug, weil da einfach so viele Sachen drin sind, die einfach jetzt mal gut sind, dass sie an den Start kommen.

Thomas Lohninger
1:53:07
Arnika Zinke
1:54:25

Ich fange mal an. Also ich glaube, dass so ein bisschen das, was quasi immer unter diesem Begriff vertrauenswürdige KI, made in Europe, quasi gedacht wird, dem quasi ein bisschen ein Gesetz dahinter gelegt wird, was das eigentlich bedeutet. Das heißt, welche konkreten Anforderungen haben wir an die zukünftigen KI-Systeme, die in Europa auf den Markt gebracht werden? Was sind sozusagen die Mindestanforderungen, die das erfüllen muss? Und das Gleiche für die Modelle. Also es ist quasi eine Mindestanforderung, ein bisschen eine Ausdeklinierung dessen, was wir quasi unter schönen Worten die ganze Zeit erzählen, wie wir das gerne hätten. Und ein paar Systeme sind eben komplett verboten, aber es sind eben viel weniger, als wir eigentlich für notwendig gehalten hätten. Also es ist nicht der große Wurf, den sich manche erhofft hatten, aber ich glaube, wenn man sich das Gesetz anschaut und auch wie das Gesetz gemacht ist, dann konnte dieses Gesetz auch nie diese Erwartungshaltung erfüllen, auch weil KI und automated decision making so viele Bereiche umfasst. Das geht eben von biometrischer Massenüberwachung bis KI-Systeme, die kreativ verwendet werden oder die sagen, zu welcher Schule du gehen sollst. Und den Bereich so groß zu spannen, heißt halt auch, man kann nicht ganz oben anfangen, sondern es ist quasi ein Minimalkonsens darüber, wie KI-Systeme in Zukunft gemacht werden sollen. Aber gerade auch darauf basierend, welche KI-Systeme jetzt schon am Markt sind, ist es extrem schwierig zu sagen, weil auch da die Anforderungen ja auch viel später erst in Kraft treten werden.

Ralf Bendrath
1:56:04
Tim Pritlove
1:56:50
Ralf Bendrath
1:56:57
Tim Pritlove
1:57:05
Thomas Lohninger
1:57:13
Ralf Bendrath
1:57:30
Thomas Lohninger
1:57:30

Genau, statt nur dabei und habe da ja auch wirklich auch, es heißt ja irgendwie so schön, dass das Herstellen von Würsten, von Sausages und das Gesetze machen, da will man nicht so genau wissen, wie es wirklich passiert und gleichzeitig ist die EU auch gerade am Ende ihrer Legislaturperiode, im Juni sind Wahlen. Man hat auch, glaube ich, gesehen, dass ganz viele netzpolitische Themen dann am Ende an den Mehrheitsverhältnissen im Parlament und natürlich auch in den nationalen Regierungen hängen. Und ja, nach allen Vorhersagen wird es einen Rechtsrott geben im Europaparlament. Das heißt, es wird eine Mehrheit geben aus den Fraktionen ID, was AfD, FPÖ ist, ECR, also die europaskeptischen Konservativen bis Rechtsextreme in manchen Fällen. Und halt auch der Europäischen Volkspartei. Und das wird natürlich, glaube ich, dann auch so diese Schlagzahl der Gesetze, vor allem wenn es darum geht, Harmonisierungen durchzuführen. Wahrscheinlich reduzieren. Was manchmal vielleicht sogar ganz gut wäre, wenn man sich mehr Zeit nimmt für die Gesetze, schaut, dass man wirklich eine breite Mehrheit hat. Insgesamt ist mein Eindruck, auch wenn ich euch heute so zugehört habe, dass ganz viel am Zeitdruck liegt. Dass etwas unbedingt bis dahin fertig werden muss und dann sind halt irgendwie drei Viertel der Leute schon auf Urlaub und Ralf muss irgendwie aus dem Ferienhaus heraus dann das fertig verhandeln. Das kann es ja nicht sein. Also ich meine, wenn sich Europa ernst nimmt, dann muss man den Gesetzestext vor sich haben ausverhandelt und dann entscheiden, ob der eine Mehrheit hat. Also ganz oft tut einem das ja schon beim Zuhören und Zuschauen weh, wie dann wirklich diese Entscheidungen, wie stümperhaft diese Entscheidungen zustande kommen. Aber ja, wie geht es euch damit und wie schaut ihr jetzt so auf die Zeit nach der Wahl?

Ralf Bendrath
1:59:28

Vielleicht zu der ersten Frage, wie laufen sozusagen diese Trilogverhandlungen? Ist das wirklich immer so schlimm? Als wir die Datenschutz-Grundverordnung damals verhandelt haben, haben wir wirklich den Text vor uns gehabt. Der wurde auf meinem Laptop mitprotokolliert, je nach Verhandlungsstand. Und am Ende des letzten Triloges, das war auch so nachts um elf, aber immer noch eine halbwegs menschenwürdige Zeit, hatten wir einen fertigen Text. Text, der muss dann ein paar Mal noch horizontal angepasst werden, das haben wir dann noch kurz danach noch gemacht in meinem Büro und der konnte dann direkt an die Mitgliedstaaten rausgehen und auch an alle Abgeordneten, die beteiligt waren. Das habe ich jetzt ein paar Mal erlebt, dass das nicht so gelaufen ist. Mal gucken, wie es morgen Nacht wird bei den Gesundheitsdaten, ob wir da einen finalen Text haben, da ist es zumindest ein bisschen besser, dass jetzt schon mal Textentwürfe vorher flottieren. Beim AI-Hack war es einfach wirklich chaotisch, wir hatten beim letzten Trilog, als der anfing, noch 22 Punkte offen, haben dann wirklich von Nachmittags um drei die ganze Nacht durch bis zum nächsten Mittag um eins verhandelt, dann eine Pause gemacht, einmal schlafen können die Nacht dann und am Freitag um acht Uhr morgens ging es schon wieder weiter bis nach Mitternacht. Und da gab es dann einfach teilweise keine Texte. Ich habe von anderen Trilogen gehört, wo es teilweise nur so Bullet-Point-Listen gab, auf was man sich jetzt geeinigt hat, wo dann die technische Ebene hinterher noch einen Monat beschäftigt war, das auszuformulieren. Da hat, glaube ich, die Qualität echt ein bisschen gelitten in letzter Zeit, ist so mein Eindruck. Da gibt es aber jetzt auch schon eine Reaktion drauf und zumindest vom Parlament aus gibt es jetzt offenbar Bestrebungen, ein interinstitutionelles Abkommen zu verhandeln mit dem Rat und der Kommission, wie genau so Triloge eigentlich geführt werden müssen. Weil das oft immer noch sehr informell ist, die sind ja auch in den Verträgen irgendwo vorgesehen. Ich bin trotzdem der Meinung, man braucht so einen geschützten Raum, wenn man sich auf irgendwelche Texte einigen will. Da muss man halt die Köpfe zusammenstecken mit Ausschluss der Öffentlichkeit. Aber das braucht zumindest ein paar Regeln. Und da soll jetzt hoffentlich nach der Wahl mit den anderen Institutionen daran gearbeitet werden.

Thomas Lohninger
2:01:22
Arnika Zinke
2:01:24

Ich glaube, das Problem war auch jetzt beim KI-Gesetz die einfache Unmenge an Gesetzen, die jetzt noch verabschiedet werden sollten vor Ende der Legislaturperiode. Und die Angst, die halt irgendwo immer auch mitgeschwungen ist, ist, was, wenn wir dieses Gesetz eben nicht, dieses Mandat fertig kriegen. Was bedeutet das dann mit einem deutlich rechteren Parlament? Kriegen wir da noch die Punkte, die uns wirklich wichtig sind, durch? Und vor allem auch im Hinblick darauf, dass eben Ungarn auch die nächste Ratspräsidentschaft nach Belgien jetzt hat und damit dann viele von den Prioritäten, die wir hatten, was Menschenrechte betrifft, sehr unwahrscheinlich gewesen wären. Das heißt, es hätte sich noch weiter verzögert und dann wären wir im Jahr 2025 gewesen, wo wir dann wieder angefangen hätten, an KI-Gesetzen zu arbeiten und dann sind wir halt auch keine Vorreiter mehr. Also dann hätten wir eigentlich vielleicht sogar das Gesetz nochmal komplett neu machen müssen. Also das ist halt immer mit geschwungen, aber ich gebe grundsätzlich recht, dass die Tatsache, dass wir keinen finalen Text hatten, das war einfach unglaublich. Und wir haben auch wirklich drum gebettelt. Und das war einfach dann auch vielleicht der Zeit geschuldet, die wir da gesessen sind, ist dann einfach ausgerufen worden, dass es einen Deal gibt und dann haben sich halt auch Politiker mitreißen lassen. Diesen Deal einfach dann festzusetzen. Und ja, ich finde das auch super problematisch und ich hoffe auch, dass es in Zukunft besser läuft. Ich weiß auch, dass wir uns in dem Ausschuss, der sich eben mit den ganzen Prozessen beschäftigt und den Rules of Procedure dafür einsetzen, dass es eben auch bessere Regeln in den Trilogen gibt, dass es auch etwas mehr Transparenz gibt. Also es muss nicht unbedingt einen Livestream geben, aber dass gewisse Dokumente auch etwas transparenter sind. Und das hoffe ich mir für die Zukunft auch eben auch, um das Vertrauen in die EU-Institutionen auch zu verbessern. Absolut.

Thomas Lohninger
2:03:09
Ralf Bendrath
2:03:57
Tim Pritlove
2:03:59
Thomas Lohninger
2:04:23
Arnika Zinke
2:04:25
Tim Pritlove
2:05:01
Ralf Bendrath
2:05:43
Tim Pritlove
2:05:57
Arnika Zinke
2:06:27
Thomas Lohninger
2:06:29
Tim Pritlove
2:06:35