WEBVTT

NOTE
Podcast: Logbuch:Netzpolitik
Episode: LNP486 Das fünfte Element
Publishing Date: 2024-03-14T13:01:22+01:00
Podcast URL: https://logbuch-netzpolitik.de
Episode URL: https://logbuch-netzpolitik.de/lnp486-das-fuenfte-element

00:00:00.005 --> 00:00:01.405
<v Tim Pritlove>Guten Morgen Thomas.

00:00:01.965 --> 00:00:02.865
<v Thomas Lohninger>Guten Morgen Tim.

00:00:03.205 --> 00:00:05.165
<v Tim Pritlove>Sag mal, wie ist eigentlich das Wetter in Brüssel?

00:00:05.505 --> 00:00:08.485
<v Thomas Lohninger>Das muss noch abgestimmt werden. Wir haben noch kein Tredo-Gergebnis.

00:00:29.105 --> 00:00:35.765
<v Tim Pritlove>Logbuch Netzpolitik Nummer 486 vom 13. März 2024. 2024.

00:00:37.745 --> 00:00:44.025
<v Tim Pritlove>Und ja, den Linus, den habe ich mal kurz weggeschickt, damit wir hier uns mal

00:00:44.025 --> 00:00:46.205
<v Tim Pritlove>um die seriösen Themen kümmern können.

00:00:47.565 --> 00:00:51.185
<v Tim Pritlove>Und begrüßen natürlich erstmal Thomas. Habt ihr schon gehört? Hallo Thomas.

00:00:51.285 --> 00:00:52.205
<v Thomas Lohninger>Hallo. Genau.

00:00:52.445 --> 00:00:58.565
<v Tim Pritlove>Und heute haben wir eine große Runde, nämlich eine große EU-Runde und begrüßen

00:00:58.565 --> 00:01:01.025
<v Tim Pritlove>außerdem noch den Ralf, Ralf Benrath. Hallo.

00:01:01.705 --> 00:01:01.905
<v Ralf Bendrath>Hallo.

00:01:01.905 --> 00:01:07.025
<v Tim Pritlove>Hallo, du warst ja schon mal bei uns und ganz frisch neu mit dabei,

00:01:07.265 --> 00:01:09.745
<v Tim Pritlove>grüße ich auch noch die Annika, hallo.

00:01:10.865 --> 00:01:11.825
<v Arnika Zinke>Hallo, servus.

00:01:13.505 --> 00:01:18.685
<v Tim Pritlove>Ja, Annika, Annika Zinke, fangen wir doch mal mit dir kurz an.

00:01:18.905 --> 00:01:25.225
<v Tim Pritlove>Stell dich doch mal bitte kurz vor, dass wir mal wissen, was du so machst und was dich zu uns führt.

00:01:26.525 --> 00:01:29.885
<v Arnika Zinke>Ja, hallo, freut mich sehr dabei zu sein. Genau, also ich bin Annika,

00:01:29.985 --> 00:01:31.385
<v Arnika Zinke>ich komme ursprünglich aus Wien.

00:01:31.405 --> 00:01:35.145
<v Arnika Zinke>Also jetzt haben wir heute zwei Quoten Österreicher quasi im Podcast.

00:01:36.025 --> 00:01:39.545
<v Arnika Zinke>Das kommt wahrscheinlich auch nicht so oft vor. Genau, ich war ursprünglich

00:01:39.545 --> 00:01:44.385
<v Arnika Zinke>Journalistin in Wien und bin dann über Umwege in Brüssel gelandet.

00:01:44.385 --> 00:01:50.885
<v Arnika Zinke>War dann bei Alexandra Gese als Praktikantin im Office und habe dort auch begonnen,

00:01:50.885 --> 00:01:52.465
<v Arnika Zinke>an Digital Services Act zu arbeiten.

00:01:52.465 --> 00:01:58.425
<v Arnika Zinke>Und bin dann in die Fraktion gewechselt, vor zweieinhalb Jahren in der Fraktion

00:01:58.425 --> 00:02:04.365
<v Arnika Zinke>der Grünen und war dort zuerst Beraterin für horizontale Digital-Koordinierung.

00:02:04.625 --> 00:02:08.565
<v Arnika Zinke>Das heißt quasi über die verschiedenen Ausschüsse übergreifend alles,

00:02:08.625 --> 00:02:10.345
<v Arnika Zinke>was Digitalpolitik trifft, zu

00:02:10.345 --> 00:02:14.965
<v Arnika Zinke>koordinieren und im Rahmen dessen auch recht stark KI-Gesetz gearbeitet,

00:02:15.265 --> 00:02:18.905
<v Arnika Zinke>weil das natürlich über sehr viele verschiedene Ausschüsse drübergegangen ist,

00:02:18.905 --> 00:02:23.305
<v Arnika Zinke>weil das ein Thema ist, das nicht unbedingt in einen Ausschuss gut reinpasst.

00:02:24.045 --> 00:02:28.425
<v Arnika Zinke>Und bin seit gut einem Jahr jetzt im Binnenmarktausschuss, was einer der zwei

00:02:28.425 --> 00:02:32.705
<v Arnika Zinke>federführenden Ausschüsse im KI-Gesetz auch ist, über das wir heute noch sprechen werden.

00:02:33.285 --> 00:02:36.705
<v Arnika Zinke>Genau, und habe aber unter anderem auch an anderen Files gearbeitet,

00:02:36.705 --> 00:02:41.905
<v Arnika Zinke>wie zum Beispiel im European Media Freedom Act, der heute auch im Plenum abgestimmt wurde.

00:02:42.105 --> 00:02:44.865
<v Arnika Zinke>Im Cyber Resilience Act habe ich auch ein bisschen mitgearbeitet.

00:02:45.145 --> 00:02:49.225
<v Arnika Zinke>Genau, also alles, was quasi Digitalpolitik betrifft und Binnenmarkt irgendwie

00:02:49.225 --> 00:02:52.045
<v Arnika Zinke>betrifft, fällt in meinen Ressort.

00:02:52.977 --> 00:02:56.557
<v Tim Pritlove>Was war denn so uninteressant am Journalismus, dass du die Politik gewechselt bist?

00:02:57.897 --> 00:03:02.817
<v Arnika Zinke>Es war nicht unbedingt uninteressant, aber zum einen, wie es für viel bewusst

00:03:02.817 --> 00:03:05.957
<v Arnika Zinke>ist, ist der Journalismus ein recht prekäres Arbeitsumfeld.

00:03:07.457 --> 00:03:10.837
<v Arnika Zinke>Das war also einer der Hauptgründe. Und der andere Grund war auch,

00:03:10.937 --> 00:03:13.277
<v Arnika Zinke>dass dadurch, dass wir sehr viel online gearbeitet haben,

00:03:13.457 --> 00:03:18.177
<v Arnika Zinke>ich großes Interesse daran hatte, besser nachzuvollziehen, beziehungsweise mehr

00:03:18.177 --> 00:03:21.077
<v Arnika Zinke>daran zu arbeiten, wie Plattformen eigentlich Inhalte verbreiten,

00:03:21.097 --> 00:03:25.517
<v Arnika Zinke>verbreiten, mehr Richtung eben Empfehlungsalgorithmen zu arbeiten.

00:03:25.857 --> 00:03:28.337
<v Arnika Zinke>Und deswegen habe ich dann auch, ja, war ich sehr interessiert,

00:03:28.337 --> 00:03:31.597
<v Arnika Zinke>am Digital Services Act zu arbeiten, habe dazu auch meine zwei Masterarbeiten geschrieben.

00:03:32.597 --> 00:03:36.717
<v Arnika Zinke>Also die Digitalpolitik hat mich im Rahmen meiner journalistischen Karriere

00:03:36.717 --> 00:03:39.917
<v Arnika Zinke>quasi immer mehr begleitet, sodass ich dann so interessiert daran war,

00:03:39.997 --> 00:03:42.197
<v Arnika Zinke>dass ich mir dachte, okay, ich möchte hauptberuflich daran arbeiten.

00:03:42.477 --> 00:03:44.457
<v Tim Pritlove>Okay. Masterarbeit in was?

00:03:46.057 --> 00:03:50.417
<v Arnika Zinke>Also es waren zwei zum Digital Services Act, weil ich habe dann schon nicht genug davon bekommen.

00:03:51.097 --> 00:03:55.377
<v Arnika Zinke>Also beim einen ging es darum, wie Initiativberichte im EU-Parlament,

00:03:55.417 --> 00:03:59.537
<v Arnika Zinke>ob die eine Auswirkung auf die Kommissionsvorschläge haben können.

00:03:59.917 --> 00:04:03.017
<v Arnika Zinke>Und das habe ich im Rahmen des Digital Services Act gemacht.

00:04:03.277 --> 00:04:08.217
<v Arnika Zinke>Und bei dem anderen ging es mehr um Empfehlungsalgorithmen und wie die Digital

00:04:08.217 --> 00:04:10.037
<v Arnika Zinke>Services Act reguliert werden.

00:04:10.317 --> 00:04:12.277
<v Tim Pritlove>Und das war dann für Politikwissenschaft?

00:04:12.797 --> 00:04:15.697
<v Arnika Zinke>Genau, Politikwissenschaften und internationale Beziehungen.

00:04:16.297 --> 00:04:16.737
<v Tim Pritlove>Okay.

00:04:17.697 --> 00:04:21.617
<v Thomas Lohninger>Wir haben heute ja sehr viele EU-Themen. Da können wir gleich einsteigen.

00:04:21.637 --> 00:04:25.197
<v Thomas Lohninger>Ein Initiativbericht, weil das ist auch ein Begriff, der gerade gefallen ist.

00:04:25.277 --> 00:04:29.457
<v Thomas Lohninger>Das sind einfach nicht bindende Resolutionen, könnte man sagen,

00:04:29.577 --> 00:04:31.057
<v Thomas Lohninger>die das Parlament erlässt.

00:04:31.197 --> 00:04:35.817
<v Thomas Lohninger>Also das sind fast die einzige Sache, die das Europaparlament von sich aus machen

00:04:35.817 --> 00:04:41.057
<v Thomas Lohninger>kann und initiieren kann, die halt zur Meinungsbildung dienen sollen.

00:04:41.277 --> 00:04:44.797
<v Thomas Lohninger>Was hat denn deine Masterarbeit ergeben? Haben sie einen Impact gehabt?

00:04:46.037 --> 00:04:49.217
<v Arnika Zinke>Genau, es ist so, dass das Parlament ja kein Vorschlagsrecht hat,

00:04:49.297 --> 00:04:52.197
<v Arnika Zinke>im Gegensatz zur Kommission, die die Gesetze ja vorschlagen darf.

00:04:52.557 --> 00:04:55.617
<v Arnika Zinke>Und von allein hat am Anfang ihres Mandats

00:04:55.617 --> 00:04:59.537
<v Arnika Zinke>angekündigt, dass sie die Initiativberichte mehr ernst nehmen wird.

00:05:00.177 --> 00:05:05.137
<v Arnika Zinke>Und das, was meine Forschung ergeben hat, ist, dass es zwar...

00:05:06.727 --> 00:05:11.807
<v Arnika Zinke>In der Theorie nicht übernommen werden muss, in der Praxis es aber schon der

00:05:11.807 --> 00:05:18.027
<v Arnika Zinke>Kommission etwas bringt, wenn die Mehrheiten in den Initiativberichten geformt

00:05:18.027 --> 00:05:20.787
<v Arnika Zinke>werden, auch berücksichtigt werden im Vorschlag.

00:05:21.367 --> 00:05:24.787
<v Arnika Zinke>Das heißt natürlich, wenn man möchte, dass der Vorschlag in irgendeiner Weise

00:05:24.787 --> 00:05:29.147
<v Arnika Zinke>Erfolg hat, ist es nicht dumm, sich anzusehen, wie Mehrheiten im Parlament gebildet werden.

00:05:29.327 --> 00:05:33.447
<v Arnika Zinke>Und natürlich, wenn das Parlament dann genau zu einem bestimmten Bereich etwas

00:05:33.447 --> 00:05:35.967
<v Arnika Zinke>veröffentlicht, dann schon einen Einfluss.

00:05:36.167 --> 00:05:39.967
<v Arnika Zinke>Aber grundsätzlich ist es halt schon so, dass viele von den Initiativberichten

00:05:39.967 --> 00:05:44.287
<v Arnika Zinke>auch nicht, vor allem Initiativberichte, die jetzt nicht unbedingt auf ein Gesetz

00:05:44.287 --> 00:05:48.527
<v Arnika Zinke>spezifisch ausgerichtet sind, nicht unbedingt den Erfolg haben,

00:05:48.687 --> 00:05:50.647
<v Arnika Zinke>den sich manche Politiker inne erhoffen.

00:05:50.947 --> 00:05:53.727
<v Arnika Zinke>Also man muss da schon auch ein bisschen differenzieren und es ist nicht so,

00:05:53.747 --> 00:05:56.987
<v Arnika Zinke>dass jeder Initiativbericht mit dem Strichpunkt übernommen worden ist.

00:05:57.107 --> 00:06:00.647
<v Arnika Zinke>Aber gerade beim Digital Services Act, was ja auch ein sehr großes Gesetz war,

00:06:00.807 --> 00:06:04.367
<v Arnika Zinke>war das ein bisschen anders, würde ich sagen.

00:06:04.487 --> 00:06:08.507
<v Arnika Zinke>Aber vielleicht mal greife ich noch, was zu sagen, weil Ralf schon länger im Parlament ist als ich.

00:06:10.587 --> 00:06:14.687
<v Tim Pritlove>Ja, genau, Ralf, sag doch mal was. Du darfst dich auch noch mal vorstellen.

00:06:16.227 --> 00:06:20.567
<v Ralf Bendrath>Ja, danke auch noch mal für die Einladung. Ich bin, genau wie Annika,

00:06:20.707 --> 00:06:23.787
<v Ralf Bendrath>Fraktionsreferent der Grünen-EFA-Fraktion im Europäischen Parlament.

00:06:24.067 --> 00:06:27.967
<v Ralf Bendrath>Ich bin für den Ausschuss für Bürgerliche Freiheiten, Justiz und Inneres zuständig

00:06:27.967 --> 00:06:31.927
<v Ralf Bendrath>und mache da vor allem Datenschutz.

00:06:32.007 --> 00:06:34.847
<v Ralf Bendrath>Das ist der Ausschuss, der auch federführend für Datenschutz zuständig ist.

00:06:35.427 --> 00:06:38.627
<v Ralf Bendrath>Nebenbei aber alles, was an anderen Digitalsachen so anfällt,

00:06:38.727 --> 00:06:44.007
<v Ralf Bendrath>inklusive auch Polizeiinformationsaustausch, polizeiliche und justizielle Zusammenarbeit und solche Sachen.

00:06:44.467 --> 00:06:49.627
<v Ralf Bendrath>Ich mache aber inzwischen relativ viel auch ausschussüberschreitende Arbeit,

00:06:49.747 --> 00:06:52.307
<v Ralf Bendrath>weil jetzt inzwischen die Kollegen alle mitgeschnitten haben,

00:06:52.407 --> 00:06:54.267
<v Ralf Bendrath>dass ich hier der Onkel Ralf von der DSGVO bin.

00:06:54.387 --> 00:06:57.087
<v Ralf Bendrath>Ich habe früher für den Berichterstatter Jan-Philipp Albrecht bearbeitet,

00:06:57.127 --> 00:07:00.427
<v Ralf Bendrath>als das Ding verhandelt wurde und habe seitdem sogar einen IMDb-Eintrag.

00:07:02.127 --> 00:07:08.127
<v Ralf Bendrath>Und jetzt kommen die Kollegen immer und haben irgendwas zu europäischer Sozialversicherungskarte

00:07:08.127 --> 00:07:14.467
<v Ralf Bendrath>im Beschäftigungsausschuss oder zu Veröffentlichung von Agrarzuschüssen im Agrarausschuss

00:07:14.467 --> 00:07:16.207
<v Ralf Bendrath>oder zu irgendwelchen anderen Themen,

00:07:16.347 --> 00:07:18.567
<v Ralf Bendrath>wo es irgendwie dann auch Datenschutzfragen plötzlich gibt.

00:07:18.567 --> 00:07:23.587
<v Ralf Bendrath>Ich gehe jetzt zum Financial Information Access Geschichte, Finanzdatenraum

00:07:23.587 --> 00:07:25.887
<v Ralf Bendrath>und komme immer, Ralf, kannst du hier mal drüber gucken?

00:07:27.187 --> 00:07:30.447
<v Ralf Bendrath>Und das ist ganz, bis zur Fischerei ging das schon. Das ist irgendwie ganz lustig

00:07:30.447 --> 00:07:32.487
<v Ralf Bendrath>manchmal. Dann lernt man auch viel über den Tellerrand hinaus.

00:07:33.607 --> 00:07:36.067
<v Ralf Bendrath>Ja, und ich habe jetzt die Freude gehabt, mit Arne quasi die letzten,

00:07:36.147 --> 00:07:39.587
<v Ralf Bendrath>weiß nicht, drei Jahre oder so zusammenzuarbeiten am KI-Gesetz,

00:07:39.627 --> 00:07:42.507
<v Ralf Bendrath>am Artificial Intelligence Act, weil...

00:07:44.128 --> 00:07:47.028
<v Ralf Bendrath>Ja, da kommen wir später zu. Die Details dazu spreche ich mir für nachher.

00:07:47.148 --> 00:07:51.088
<v Ralf Bendrath>Aber warum das ein gemeinsames Ausschussverfahren mit dem Binnenmarkt und dem

00:07:51.088 --> 00:07:53.328
<v Ralf Bendrath>Innenausschuss war, das war eine lustige Geschichte.

00:07:54.808 --> 00:07:56.588
<v Ralf Bendrath>Es gibt noch Axel Voss-Witze später.

00:07:58.488 --> 00:08:03.368
<v Tim Pritlove>Das sind immer die besten. Und hast du auch schon einen Initiativbericht mal angestoßen?

00:08:05.168 --> 00:08:06.608
<v Ralf Bendrath>Angestoßen selber nicht.

00:08:33.648 --> 00:08:40.028
<v Ralf Bendrath>Verdoppelt. Wie viel davon jetzt in der KI- Verordnung im IAI-Act gelandet ist,

00:08:41.188 --> 00:08:44.368
<v Ralf Bendrath>ich glaube ehrlich gesagt gar nicht so viel, weil die Kommission da einen sehr

00:08:44.368 --> 00:08:47.568
<v Ralf Bendrath>strikten Rahmen gesetzt hat, aber da gehen wir später noch an die Details.

00:08:48.388 --> 00:08:51.868
<v Tim Pritlove>Nur mal um so ein Gefühl dafür zu bekommen, weil ich habe diesen Begriff Initiativbericht

00:08:51.868 --> 00:08:57.008
<v Tim Pritlove>ehrlich gesagt noch nie gehört, aber wie viele werden denn da so pro Jahr von gemacht?

00:08:57.188 --> 00:09:00.608
<v Tim Pritlove>Ist das so ab und zu mal einer oder passiert das am laufenden Meter?

00:09:01.188 --> 00:09:04.468
<v Ralf Bendrath>Nee, das passiert viel viel am Anfang der Legislaturperiode,

00:09:04.488 --> 00:09:08.448
<v Ralf Bendrath>wenn die neue Kommission erst anfängt, ihr Arbeitsprogramm abzuarbeiten und

00:09:08.448 --> 00:09:10.908
<v Ralf Bendrath>bis dann die ersten Gesetzesvorschläge kommen, dauert es meistens eine Weile

00:09:10.908 --> 00:09:14.588
<v Ralf Bendrath>und dann sind die Leute noch übermotiviert und wollen selber was machen.

00:09:14.868 --> 00:09:16.828
<v Tim Pritlove>Hast du so Beschäftigungstherapie fürs Parlament?

00:09:16.848 --> 00:09:19.608
<v Ralf Bendrath>So ein bisschen. Die Abgeordneten wollen mal irgendwas sagen,

00:09:19.728 --> 00:09:22.688
<v Ralf Bendrath>ohne dass es gleich ein Gesetz ist und dann schreibt man halt so einen Initiativbericht.

00:09:24.988 --> 00:09:28.188
<v Ralf Bendrath>Das ist quotiert. Das können nicht beliebig viele werden.

00:09:28.368 --> 00:09:31.348
<v Ralf Bendrath>Ich weiß nicht, ob das in allen Ausschüssen so ist. Bei uns im Innenausschuss

00:09:31.348 --> 00:09:34.828
<v Ralf Bendrath>ist es so, dass dass, glaube ich, parallel immer nur sechs gleichzeitig verhandelt werden dürfen?

00:09:36.788 --> 00:09:40.368
<v Arnika Zinke>Ich glaube, die Kapazität hätten wir gar nicht, sechs gleichzeitig zu verhandeln.

00:09:40.788 --> 00:09:46.488
<v Arnika Zinke>Also ich glaube, daran scheitert es schon, aber normalerweise kann man die vorschlagen

00:09:46.488 --> 00:09:48.288
<v Arnika Zinke>und das ist in der Menge begrenzt.

00:09:48.448 --> 00:09:52.528
<v Arnika Zinke>Aber wir hatten zum Beispiel im Binnenmarktausschuss gegen Ende noch einen sehr erfolgreichen,

00:09:53.288 --> 00:09:57.748
<v Arnika Zinke>Initiativbericht zu Addictive Design, also Abhängigkeit machendem Design,

00:09:57.748 --> 00:10:01.388
<v Arnika Zinke>sein, hört sich in Deutsch nicht so gut an, wo wir das Feedback auch von der

00:10:01.388 --> 00:10:03.828
<v Arnika Zinke>Kommission bekommen haben, dass das eins der Top-Themen ist,

00:10:03.848 --> 00:10:06.928
<v Arnika Zinke>an dem die jetzt auch für die nächste Legislaturperiode arbeiten.

00:10:07.608 --> 00:10:11.468
<v Arnika Zinke>Also es kommt auch ein bisschen darauf an, in welcher, ob man quasi so ein bisschen

00:10:11.468 --> 00:10:14.888
<v Arnika Zinke>das Gefühl hat, in die richtige Richtung quasi zu stechen mit dem Thema.

00:10:15.911 --> 00:10:18.611
<v Ralf Bendrath>Also Initiativberichte sind so ein bisschen strikter reguliert.

00:10:18.651 --> 00:10:22.151
<v Ralf Bendrath>Die müssen von der Konferenz der Fraktionsvorsitzenden bewilligt werden.

00:10:22.371 --> 00:10:25.391
<v Ralf Bendrath>Wie gesagt, es darf nur sechs parallel laufen, zumindest in meinem Ausschuss.

00:10:26.211 --> 00:10:29.511
<v Ralf Bendrath>Andere Ausschüsse können aber noch eine Beteiligung einfordern und dazu noch

00:10:29.511 --> 00:10:32.711
<v Ralf Bendrath>Opinions machen, die dann irgendwie berücksichtigt werden müssen oder auch nicht.

00:10:33.031 --> 00:10:35.591
<v Ralf Bendrath>Das ist ein bisschen mühsam. In meinem Ausschuss ist es eher so,

00:10:35.631 --> 00:10:38.491
<v Ralf Bendrath>wenn wir irgendwie eine Stellungnahme raushauen wollen, dann machen wir eine Resolution.

00:10:39.531 --> 00:10:41.931
<v Ralf Bendrath>Die wird einfacher verhandelt, die muss nicht genehmigt werden.

00:10:42.051 --> 00:10:44.391
<v Ralf Bendrath>Da gibt es auch keine anderen Ausschüsse, die mit reinquatschen wollen.

00:10:44.671 --> 00:10:47.631
<v Ralf Bendrath>Und die wird dann quasi vom Liebeausschuss, also Civil Liberties,

00:10:47.691 --> 00:10:51.411
<v Ralf Bendrath>Justice, Non-Fers, direkt im Plenum getabelt. Und dann ist sie meistens nach

00:10:51.411 --> 00:10:52.151
<v Ralf Bendrath>einem Monat schon durch.

00:10:53.251 --> 00:10:57.951
<v Tim Pritlove>Verstehe. Es gibt also sozusagen auch noch kleinere Einheiten von Schlussfassungen.

00:10:57.951 --> 00:11:01.571
<v Ralf Bendrath>Ich entdecke nach 15 Jahren hier immer noch Sachen in der Geschäftsordnung,

00:11:01.651 --> 00:11:02.771
<v Ralf Bendrath>die ich bisher noch nicht kannte.

00:11:03.491 --> 00:11:08.531
<v Tim Pritlove>Na gut, aber wir wollen uns ja heute nicht so sehr mit der Bürokratie an sich beschäftigen,

00:11:08.611 --> 00:11:13.311
<v Tim Pritlove>sondern mal konkret reinschauen, was derzeit denn eigentlich so alles in der

00:11:13.311 --> 00:11:16.851
<v Tim Pritlove>Pipeline ist, beziehungsweise jetzt gerade beschlossen worden ist oder unmittelbar

00:11:16.851 --> 00:11:19.951
<v Tim Pritlove>vor dem Beschluss steht, unter anderem den AI-Act.

00:11:20.051 --> 00:11:23.631
<v Tim Pritlove>Aber du, Ralf, hast ja noch ein paar andere Themen auch noch,

00:11:23.651 --> 00:11:24.791
<v Tim Pritlove>die du mitgebracht hast.

00:11:25.691 --> 00:11:28.551
<v Ralf Bendrath>Ja, das ist so ein bisschen eine Digitalwoche hier im Plenum gerade.

00:11:29.831 --> 00:11:32.891
<v Ralf Bendrath>Deswegen ist Annika ja auch gerade in Straßburg, weil gerade Plenarsitzung des

00:11:32.891 --> 00:11:34.511
<v Ralf Bendrath>Europäischen Parlaments in Straßburg ist.

00:11:34.891 --> 00:11:39.051
<v Ralf Bendrath>Und zwei, was heißt kleinere, die nicht so viel Aufsehen erregt haben,

00:11:39.191 --> 00:11:40.731
<v Ralf Bendrath>Sachen sind mir hier noch aufgefallen.

00:11:40.751 --> 00:11:46.771
<v Ralf Bendrath>Das ist einmal die Produkthaftungsrichtlinie, die revidiert wurde und der Cyber Resilience Act.

00:11:47.622 --> 00:11:52.362
<v Ralf Bendrath>Und die führen beide Sachen ein, für die wir damals mit Jan-Philipp Albrecht

00:11:52.362 --> 00:11:55.242
<v Ralf Bendrath>noch und so schon seit teilweise zehn Jahren gekämpft haben.

00:11:55.362 --> 00:11:59.962
<v Ralf Bendrath>Wo man also auch mal schön sehen kann, Politik ist manchmal echt das langsame Bohren dicker Bretter.

00:12:00.542 --> 00:12:04.262
<v Ralf Bendrath>Als wir damals angefangen haben, mit Jan-Philipp Albrecht uns um Produktsicherheit,

00:12:04.302 --> 00:12:08.162
<v Ralf Bendrath>also Quatsch, IT-Sicherheit mal zu kümmern, kam man ziemlich schnell drauf,

00:12:08.282 --> 00:12:11.262
<v Ralf Bendrath>auch natürlich durch Gespräche mit Linus und anderen vom CCC und so.

00:12:11.682 --> 00:12:15.482
<v Ralf Bendrath>Es gibt keine guten Anreizstrukturen bisher für die Hersteller,

00:12:15.542 --> 00:12:17.482
<v Ralf Bendrath>sich ernsthaft um IT-Sicherheit zu kümmern.

00:12:17.622 --> 00:12:20.402
<v Ralf Bendrath>Es gibt keine Produkthaftung für Software, es gibt keine Verpflichtung,

00:12:20.442 --> 00:12:22.062
<v Ralf Bendrath>Sicherheitsupdates zu liefern oder irgendwas.

00:12:22.602 --> 00:12:26.682
<v Ralf Bendrath>Software kommt immer mit dieser allgemeinen Terms of Service zum Anklicken,

00:12:26.722 --> 00:12:28.742
<v Ralf Bendrath>ich akzeptiere die Software so, wie sie ist.

00:12:29.482 --> 00:12:33.362
<v Ralf Bendrath>Und keiner ist verantwortlich. Das hat sich jetzt geändert, nach diesen zehn

00:12:33.362 --> 00:12:35.582
<v Ralf Bendrath>Jahren oder wie lange da andere Leute schon drüber nachgedacht haben.

00:12:35.582 --> 00:12:42.162
<v Ralf Bendrath>Und das eine ist die Product Liability Directive, die Produkthaftungsrichtlinie,

00:12:42.302 --> 00:12:45.742
<v Ralf Bendrath>die gibt es schon ewig, die ist dieses Jahr 39 geworden,

00:12:46.102 --> 00:12:53.062
<v Ralf Bendrath>wurde 1999 mal kurz ein bisschen gänzt, um landwirtschaftliche und Fischereiprodukte mit abzudecken.

00:12:53.062 --> 00:12:57.622
<v Ralf Bendrath>Und sie sagt im Prinzip, wenn du ein schadhaftes Produkt verkaufst und Leute

00:12:57.622 --> 00:13:01.402
<v Ralf Bendrath>nehmen deswegen Schaden daran, das kann auch mentalen Schaden beinhalten,

00:13:01.542 --> 00:13:03.702
<v Ralf Bendrath>dann bist du verantwortlich und

00:13:03.702 --> 00:13:07.402
<v Ralf Bendrath>musst dafür haften und im Zweifelsfall Schadensersatz und sowas zahlen.

00:13:08.322 --> 00:13:12.502
<v Ralf Bendrath>Und jetzt mit der neuen Revision, die gerade gestern angenommen wurde,

00:13:12.582 --> 00:13:15.242
<v Ralf Bendrath>ist endlich auch Produkthaftung für Software mit dabei.

00:13:16.422 --> 00:13:20.042
<v Ralf Bendrath>Das heißt, wenn du eine schadhafte Software in den Markt bringst,

00:13:20.062 --> 00:13:24.042
<v Ralf Bendrath>kommerziell, das ist immer nur kommerziell, dann bist du haftbar.

00:13:24.402 --> 00:13:27.542
<v Ralf Bendrath>Das heißt, damit hast du natürlich jetzt als Hersteller einen starken Anreiz,

00:13:27.542 --> 00:13:29.842
<v Ralf Bendrath>dich mal ernsthaft um IT-Sicherheit zu kümmern.

00:13:30.462 --> 00:13:34.662
<v Ralf Bendrath>Was wichtig ist, da gab es auch zwischendurch immer wieder mal Fragen aus der Community, die,

00:13:35.431 --> 00:13:39.951
<v Ralf Bendrath>Wenn du ein freier Softwareentwickler bist, der nur zu Hause so ein bisschen

00:13:39.951 --> 00:13:42.991
<v Ralf Bendrath>vor sich hin frickelt und das Zeugs irgendwo auf GitHub hochlädt oder so,

00:13:43.131 --> 00:13:46.571
<v Ralf Bendrath>aber das nicht geschäftlich macht, dann bist du nicht in der Verantwortung.

00:13:47.131 --> 00:13:50.731
<v Ralf Bendrath>Wenn jemand jetzt dein freies Softwaremodul nimmt und ein kommerzielles Produkt

00:13:50.731 --> 00:13:54.651
<v Ralf Bendrath>einbaut, dann ist der dafür verantwortlich und nicht du als Entwickler von dem

00:13:54.651 --> 00:13:58.411
<v Ralf Bendrath>kleinen Open-Source-Software-Tool.

00:13:58.891 --> 00:14:00.711
<v Ralf Bendrath>Das war also ganz wichtig, das haben wir da auch gewonnen.

00:14:03.111 --> 00:14:06.491
<v Ralf Bendrath>Was sonst? Ja, ich glaube, das waren so die wesentlichen Elemente.

00:14:06.491 --> 00:14:10.231
<v Thomas Lohninger>Ja, vielleicht bei dem Punkt. Das war auch etwas, das wirklich gerade bei der

00:14:10.231 --> 00:14:12.871
<v Thomas Lohninger>Free Software Foundation Europe ein riesiges Thema war.

00:14:13.071 --> 00:14:18.091
<v Thomas Lohninger>Also in der gesamten Community der freien und offenen Software hat man sich

00:14:18.091 --> 00:14:20.751
<v Thomas Lohninger>da große Sorgen gemacht rund um Cyber Resilience Act.

00:14:20.931 --> 00:14:26.131
<v Thomas Lohninger>Und es ist gut, wenn da jetzt eine Lösung gefunden wurde, die einfach gemeinwohlorientierte,

00:14:26.131 --> 00:14:29.291
<v Thomas Lohninger>nicht kommerzielle Produkte ausnimmt. Und ich frage mich dann immer so,

00:14:29.351 --> 00:14:32.631
<v Thomas Lohninger>wie stabil sind die Definitionen? Ist das wirklich gut abgegrenzt?

00:14:33.171 --> 00:14:37.831
<v Thomas Lohninger>Und de facto, was du damit natürlich dann auch hast, ist, dass die Person,

00:14:37.951 --> 00:14:42.971
<v Thomas Lohninger>die daraus ein Geschäft macht, auf einmal natürlich auch alle etwaige Haftung

00:14:42.971 --> 00:14:45.471
<v Thomas Lohninger>übernimmt und die nicht weitergeben kann an irgendwen.

00:14:45.891 --> 00:14:49.911
<v Thomas Lohninger>Was, glaube ich ja auch, wenn wir so beim ersten drüber nachdenken,

00:14:49.911 --> 00:14:51.931
<v Thomas Lohninger>eine brauchbare Lösung ist.

00:14:52.571 --> 00:14:56.751
<v Thomas Lohninger>Ein anderes Thema, was beim Cyber Resilience Act noch ganz… Thomas.

00:14:56.831 --> 00:14:59.711
<v Ralf Bendrath>Wir waren noch bei der Produkthaftungsrichtlinie. Cyber Resilience Act habe

00:14:59.711 --> 00:15:03.071
<v Ralf Bendrath>ich mir gar nicht vorgestellt. Aber es geht sehr ineinander über.

00:15:04.171 --> 00:15:04.911
<v Thomas Lohninger>All the same.

00:15:05.211 --> 00:15:09.131
<v Tim Pritlove>Also kurze Anmerkung dazu. Also diese Product Liability Directive,

00:15:09.131 --> 00:15:11.231
<v Tim Pritlove>die gibt es ja im Prinzip schon.

00:15:11.251 --> 00:15:14.551
<v Tim Pritlove>Die ist bloß 40 Jahre alt und seitdem nicht wirklich angefasst worden,

00:15:14.631 --> 00:15:15.431
<v Tim Pritlove>wenn ich das richtig sehe.

00:15:15.911 --> 00:15:20.831
<v Ralf Bendrath>Doch, es wurden 1999 landwirtschaftliche und Fischereiprodukte mit reingetan.

00:15:20.891 --> 00:15:21.171
<v Tim Pritlove>Aha.

00:15:22.386 --> 00:15:24.126
<v Tim Pritlove>Deine neue Kernkompetenz sozusagen.

00:15:24.646 --> 00:15:26.266
<v Ralf Bendrath>Aber sonst nichts. Und jetzt die

00:15:26.266 --> 00:15:29.646
<v Ralf Bendrath>große Neuerung ist eben, dass jetzt auch digitale Produkte mit drin sind.

00:15:30.066 --> 00:15:33.106
<v Tim Pritlove>Ah, okay. Und was heißt das dann konkret? Also ich meine, wenn ich jetzt sozusagen

00:15:33.106 --> 00:15:37.946
<v Tim Pritlove>Windows benutze und dann mentalen Schaden davon trage, was ich durchaus für

00:15:37.946 --> 00:15:41.786
<v Tim Pritlove>wahrscheinlich halte, dann kann ich dann sozusagen Bill Gates anrufen und der

00:15:41.786 --> 00:15:42.886
<v Tim Pritlove>muss mir dann Rente zahlen.

00:15:43.106 --> 00:15:46.066
<v Ralf Bendrath>Naja, wenn dann die entsprechenden Gerichte, wo das wahrscheinlich landen wird,

00:15:46.126 --> 00:15:50.206
<v Ralf Bendrath>entscheiden, dass das Produkt schadhaft war und du deswegen einen mentalen Schaden

00:15:50.206 --> 00:15:51.346
<v Ralf Bendrath>davon getragen hast, dann ja.

00:15:51.646 --> 00:15:52.046
<v Tim Pritlove>Verstehe.

00:15:52.046 --> 00:15:56.366
<v Ralf Bendrath>Halte ich aber den Fall eher für unwahrscheinlich. Es gibt sozusagen kaputte

00:15:56.366 --> 00:15:58.826
<v Ralf Bendrath>Software, die einfach Sicherheitslücken und ähnliches hat.

00:15:59.146 --> 00:16:05.026
<v Tim Pritlove>Ja, und das heißt, hat das den Status einer Verordnung? Gilt das sozusagen unmittelbar dann?

00:16:05.286 --> 00:16:08.286
<v Ralf Bendrath>Das ist eine Richtlinie, die muss durch nationales Recht umgesetzt werden.

00:16:08.646 --> 00:16:11.886
<v Tim Pritlove>Okay, und das heißt, das kann auch noch ein bisschen dauern, sozusagen.

00:16:12.806 --> 00:16:16.306
<v Ralf Bendrath>Ja, da fragst du mal die FDP, wie lange die wieder auf die Bremse treten will.

00:16:18.346 --> 00:16:21.066
<v Ralf Bendrath>Das ist ja hier inzwischen ein Running Gag, hätte, hätte Lieferkette.

00:16:21.066 --> 00:16:26.346
<v Tim Pritlove>Ja, genau. Okay, gut, aber nehmen wir jetzt mal an, es sei im Sinne des Gesetzes

00:16:26.346 --> 00:16:29.366
<v Tim Pritlove>in eine Richtlinie überführt worden bereits.

00:16:31.026 --> 00:16:35.026
<v Tim Pritlove>Kannst du mal so einen typischen Fall aufmachen, den ihr sozusagen bei dem Design

00:16:35.026 --> 00:16:38.786
<v Tim Pritlove>im Sinn hattet und wie sich das dann äußern könnte konkret?

00:16:40.026 --> 00:16:42.906
<v Ralf Bendrath>Annika, hast du da mehr mit zu tun gehabt? Weil das ja euer Ausschuss war.

00:16:43.686 --> 00:16:46.686
<v Arnika Zinke>Es war mein Ausschuss, aber es war mein Kollege, der daran gearbeitet hat.

00:16:46.846 --> 00:16:50.646
<v Arnika Zinke>Aber es ist zum Beispiel jetzt nicht KI, nur um das ganz kurz zu sagen,

00:16:50.826 --> 00:16:55.826
<v Arnika Zinke>weil für KI war eigentlich ein Schwestergesetz vorgesehen, nämlich die KI-Haftungsrichtlinie.

00:16:56.126 --> 00:17:01.386
<v Arnika Zinke>Die steckt aber momentan im Justizausschuss fest, da ist der Berichterstatter Axel Voss.

00:17:02.365 --> 00:17:06.185
<v Arnika Zinke>Also da gab es etwas Ungereimtheiten, was die Ausrichtung des Gesetzes betrifft.

00:17:06.665 --> 00:17:10.665
<v Arnika Zinke>Aber ja, ich habe nicht in der plattbaren Produkthaftungsrichtlinie gearbeitet.

00:17:10.985 --> 00:17:13.885
<v Ralf Bendrath>Ja, ich habe die jetzt auch nicht im Detail verfolgt. Ich habe vor allem das

00:17:13.885 --> 00:17:16.205
<v Ralf Bendrath>Briefing von unserem Kollegen dazu gelesen.

00:17:16.905 --> 00:17:19.865
<v Ralf Bendrath>Also auch nicht den ganzen Gesetzestext. Aber so ein Beispiel,

00:17:20.005 --> 00:17:24.025
<v Ralf Bendrath>was ich mir jetzt da vorstellen würde, ist, wenn du dir einen Smart Thermostat

00:17:24.025 --> 00:17:25.545
<v Ralf Bendrath>kaufst für deine Heizung.

00:17:25.745 --> 00:17:28.345
<v Tim Pritlove>Ja, habe ich gerade gemacht. Sehr gut. Viel Spaß.

00:17:29.045 --> 00:17:31.185
<v Ralf Bendrath>Wer klemmt denn bitte sein Haus ans Internet?

00:17:31.965 --> 00:17:33.825
<v Tim Pritlove>Dann mit dem Internet hat das einfach nichts zu tun.

00:17:34.085 --> 00:17:37.925
<v Ralf Bendrath>Ach so, okay. Aber wenn das Ding sozusagen Internet-Konnektivität hat und sich

00:17:37.925 --> 00:17:41.045
<v Ralf Bendrath>da jemand reinhackt und irgendwie deine Heizung so hoch dreht,

00:17:41.065 --> 00:17:46.105
<v Ralf Bendrath>dass der Boiler kaputt geht oder sowas, dann wäre der Thermostat-Hersteller dafür haftbar.

00:17:46.665 --> 00:17:47.105
<v Tim Pritlove>Wow.

00:17:47.285 --> 00:17:52.085
<v Ralf Bendrath>Wenn sozusagen dem nachzuweisen ist, dass er hier ein schadhaftes Produkt auf den Markt gebracht hat.

00:17:52.405 --> 00:17:55.385
<v Tim Pritlove>Aber mit dem Nachweis, das könnte natürlich dann nochmal so ein Ding werden.

00:17:55.385 --> 00:17:59.625
<v Tim Pritlove>Das muss sich dann erst mal noch zeigen vor den Gerichten, was für Nachweise

00:17:59.625 --> 00:18:00.585
<v Tim Pritlove>dort erbracht werden müssen.

00:18:00.625 --> 00:18:04.345
<v Tim Pritlove>Oder gibt es dafür auch dann schon eine Maßgabe, wie das zu erfolgen hat?

00:18:04.845 --> 00:18:08.565
<v Arnika Zinke>Es gibt bei bestimmten Fällen eine Umkehrung von der Beweislast.

00:18:08.625 --> 00:18:11.185
<v Arnika Zinke>Die bestimmten Fälle müsste ich aber nachschauen. Aber es gibt Fälle,

00:18:11.265 --> 00:18:14.885
<v Arnika Zinke>wo es für den Konsumenten sehr schwierig nachzuweisen ist, wo das umgekehrt

00:18:14.885 --> 00:18:19.905
<v Arnika Zinke>wird und auch in Fällen, wo es eben besonders schwer der Schaden wäre.

00:18:21.245 --> 00:18:25.865
<v Tim Pritlove>All right, gut. Dann können wir ja auf den Cyber Resilience Act kommen,

00:18:26.025 --> 00:18:28.325
<v Tim Pritlove>Ralf. Was hat es denn damit auf sich?

00:18:28.765 --> 00:18:33.745
<v Ralf Bendrath>Genau, das ist ein neues Gesetz. Das ist eine Verordnung, gilt also unmittelbar,

00:18:33.865 --> 00:18:36.145
<v Ralf Bendrath>nachdem sie jetzt veröffentlicht wird und dann in Kraft tritt.

00:18:36.705 --> 00:18:40.925
<v Ralf Bendrath>Und da geht es sozusagen nochmal härter wirklich in die Pflicht für Anbieter

00:18:40.925 --> 00:18:46.665
<v Ralf Bendrath>von elektronischen Endgeräten. Das kann auch Software beinhalten oder andere digitale Devices.

00:18:48.365 --> 00:18:51.925
<v Ralf Bendrath>Das ist so ein bisschen ähnlich aufgehängt wie das KI-Gesetz,

00:18:51.925 --> 00:18:55.045
<v Ralf Bendrath>der AI-Act im Rahmen dieses sogenannten New Legislative Framework,

00:18:55.125 --> 00:18:58.725
<v Ralf Bendrath>wo noch so ein ganzer Rattenschwarz von Marktaufsichtsbehörden dranhängt und

00:18:58.725 --> 00:19:03.965
<v Ralf Bendrath>so und am Ende das CE-Label rauskommt, was man so kennt als Label für Produktsicherheit in Europa. Ja.

00:19:05.124 --> 00:19:09.584
<v Ralf Bendrath>Die Hersteller von solchen Produkten,

00:19:09.724 --> 00:19:12.984
<v Ralf Bendrath>also das ist eine relativ allgemein gehaltene Regelung, Artikel 13,

00:19:13.384 --> 00:19:18.764
<v Ralf Bendrath>Obligations of Manufacturers, also Auflagen für Hersteller, die müssen sich

00:19:18.764 --> 00:19:21.444
<v Ralf Bendrath>an die essentiellen, ich weiß immer nicht, was du auf Deutsch hast,

00:19:21.504 --> 00:19:23.684
<v Ralf Bendrath>wir machen alles auf Englisch hier, Essential Requirements,

00:19:24.024 --> 00:19:30.604
<v Ralf Bendrath>essentielle Anforderungen, danke, in Annex 1 halten.

00:19:30.604 --> 00:19:34.024
<v Ralf Bendrath>Und Teil 1 von Antrag 1 ist über Cyber Security.

00:19:34.564 --> 00:19:39.624
<v Ralf Bendrath>Und da steht dann ganz klar drin, Produkte mit digitalen Elementen sollen designt,

00:19:39.624 --> 00:19:44.564
<v Ralf Bendrath>entwickelt und hergestellt werden, sodass sie ein angemessenes Level von Cybersicherheit

00:19:44.564 --> 00:19:47.784
<v Ralf Bendrath>basierend der jeweiligen Risiken liefern.

00:19:48.704 --> 00:19:54.624
<v Ralf Bendrath>Und sie sollen zum Beispiel auf den Markt gebracht werden ohne bekannte Sicherheitslücken.

00:19:54.824 --> 00:19:58.584
<v Ralf Bendrath>Also versteckte Backdoors, die der Hersteller kennt, aber nicht angibt beim

00:19:58.584 --> 00:20:00.724
<v Ralf Bendrath>Verkauf, sind jetzt damit verboten offiziell.

00:20:02.944 --> 00:20:07.744
<v Ralf Bendrath>Sie müssen bei Default einer sicheren Konfiguration ausgeliefert werden.

00:20:09.064 --> 00:20:15.944
<v Ralf Bendrath>Sie müssen Sicherheitsupdates kriegen können. Sie müssen vor ungesichertem Zugriff

00:20:15.944 --> 00:20:19.904
<v Ralf Bendrath>geschützt sein und wenn es einen Zugriff geben sollte, müssen Sie es berichten.

00:20:20.344 --> 00:20:25.644
<v Ralf Bendrath>Und jetzt steht sogar noch drin, Sie müssen die Vertraulichkeit von gespeicherter

00:20:25.644 --> 00:20:27.824
<v Ralf Bendrath>oder übertragener Daten,

00:20:28.564 --> 00:20:33.404
<v Ralf Bendrath>egal ob persönliche Daten oder andere, sicherstellen, unter anderem durch Verschlüsselung,

00:20:33.424 --> 00:20:36.244
<v Ralf Bendrath>Speicher und auch Transit. Ja.

00:20:38.595 --> 00:20:46.535
<v Ralf Bendrath>Und die Sicherheitsupdates müssen mindestens für fünf Jahre bereitgestellt werden.

00:20:46.635 --> 00:20:49.535
<v Ralf Bendrath>Außer das Produkt hat absehbar eine deutlich geringere Lebenszeit,

00:20:49.655 --> 00:20:51.315
<v Ralf Bendrath>dann reicht es auch kürzer.

00:20:52.175 --> 00:20:55.775
<v Ralf Bendrath>Aber mindestens sind erstmal normalerweise fünf Jahre müssen verpflichtende

00:20:55.775 --> 00:20:56.935
<v Ralf Bendrath>Sicherheitsupdates geliefert werden.

00:20:56.955 --> 00:20:59.475
<v Tim Pritlove>Fünf Jahre ab was? Ab was gerechnet?

00:20:59.655 --> 00:21:02.155
<v Ralf Bendrath>Ab Verkauf. Ab Verkauf. Verstehe ich zumindest so.

00:21:02.395 --> 00:21:05.935
<v Thomas Lohninger>Also das ist wirklich so wie ein Mindesthaltbarkeitsdatum, nur diesmal wirklich

00:21:05.935 --> 00:21:07.775
<v Thomas Lohninger>für Sicherheitsupdates. Genau.

00:21:07.895 --> 00:21:10.715
<v Ralf Bendrath>Und die sagen auch ganz deutlich da, ich glaube in einem Erwägungsgrund,

00:21:10.775 --> 00:21:12.415
<v Ralf Bendrath>ich finde den Teil gerade jetzt nicht mehr sofort,

00:21:12.655 --> 00:21:18.015
<v Ralf Bendrath>wenn klar ist, dass das Gerät eine längere Lebenszeit hat, zum Beispiel Router

00:21:18.015 --> 00:21:21.635
<v Ralf Bendrath>oder andere Sachen, die normalerweise länger laufen als fünf Jahre,

00:21:21.835 --> 00:21:26.755
<v Ralf Bendrath>dann müssen die Sicherheitsupdates auch jetzt für die erwartbare Lebenszeit geliefert werden.

00:21:28.295 --> 00:21:31.475
<v Ralf Bendrath>Was da jetzt noch nicht drin ist, das hatten wir mit Linus damals mal diskutiert

00:21:31.475 --> 00:21:36.255
<v Ralf Bendrath>bei einer Anhörung unserer Fraktion zur IoT-Sicherheit, kurz nach dem WannaCry-Unglück.

00:21:36.795 --> 00:21:39.835
<v Ralf Bendrath>Was passiert, wenn diese Lebenszeit erreicht ist, End of Life,

00:21:40.015 --> 00:21:43.135
<v Ralf Bendrath>und die keine Sicherheitsupdates mehr liefern? Wann müssen sie dann sozusagen

00:21:43.135 --> 00:21:47.575
<v Ralf Bendrath>dem Nutzer es ermöglichen, das Produkt selber up-to-date, wenn zum Beispiel

00:21:47.575 --> 00:21:51.195
<v Ralf Bendrath>die Software unter freie Lizenzen gestellt werden muss oder so. Das ist hier noch offen.

00:21:51.295 --> 00:21:54.475
<v Ralf Bendrath>Das ist nicht geklärt. Du hast einfach nur jetzt mindestens fünf Jahre die Updates.

00:21:55.095 --> 00:21:57.275
<v Ralf Bendrath>Wenn das Produkt absehbar länger hält, dann auch noch länger.

00:21:58.735 --> 00:22:02.435
<v Ralf Bendrath>Ja, und danach kannst du es dann wegschmeißen oder auf eigenes Risiko weiter benutzen.

00:22:03.295 --> 00:22:06.815
<v Ralf Bendrath>Aber das ist wirklich ein ziemlicher Durchbruch, finde ich. Das muss man echt mal anerkennen.

00:22:06.935 --> 00:22:07.815
<v Tim Pritlove>Das würde ich auch meinen.

00:22:08.775 --> 00:22:12.195
<v Arnika Zinke>Es war tatsächlich ein Änderungsantrag im Binnenmarktausschuss,

00:22:12.255 --> 00:22:15.415
<v Arnika Zinke>das unter einer freien Lizenz zu veröffentlichen, wenn es nicht mehr am Markt

00:22:15.415 --> 00:22:17.475
<v Arnika Zinke>ist. Leider hat es keine Mehrheit bekommen.

00:22:19.295 --> 00:22:23.655
<v Thomas Lohninger>Ja, solche Sachen werden nie verstanden. Aber jetzt mal praktisch gefragt,

00:22:23.735 --> 00:22:28.355
<v Thomas Lohninger>wenn du sagst Mindeststandards bei IT-Sicherheit, so peinliche Dinge wie ungehäschte

00:22:28.355 --> 00:22:31.755
<v Thomas Lohninger>Passwörter, das dürfte es dann nicht mehr geben, oder?

00:22:32.535 --> 00:22:33.275
<v Ralf Bendrath>Nee. Nee.

00:22:34.510 --> 00:22:39.070
<v Thomas Lohninger>Und etwas, an das ich mich auch noch erinnere, wir haben am Anfang an dem Gesetz gearbeitet,

00:22:39.250 --> 00:22:44.310
<v Thomas Lohninger>da gab es ja auch diese Meldung von Sicherheitslücken, wenn ein Hersteller jetzt etwas findet,

00:22:44.450 --> 00:22:49.110
<v Thomas Lohninger>eine Lücke in der eigenen Software oder in den eigenen Geräten,

00:22:49.190 --> 00:22:54.070
<v Thomas Lohninger>dass diese Lücken dann auch an staatlichen Stellen unmittelbar gemeldet werden

00:22:54.070 --> 00:22:59.310
<v Thomas Lohninger>müssen, auch noch bevor die Sicherheitslücke behoben wurde.

00:22:59.310 --> 00:23:05.570
<v Thomas Lohninger>Wo es dann ja auch die Sorge gab, dass dieses Wissen um etwaige Einfallstore

00:23:05.570 --> 00:23:09.450
<v Thomas Lohninger>dann von staatlichen Stellen vielleicht sogar auch missbraucht würde für zum

00:23:09.450 --> 00:23:10.390
<v Thomas Lohninger>Beispiel Staatstreuer.

00:23:11.550 --> 00:23:15.170
<v Ralf Bendrath>Ja, ich habe den Text jetzt nicht vor mir, aber wie ich den Briefing vom Kollegen

00:23:15.170 --> 00:23:21.090
<v Ralf Bendrath>Christian entnehme, gibt es jetzt anscheinend eine neue Stelle bei der EU-IT-Sicherheitsagentur

00:23:21.090 --> 00:23:24.410
<v Ralf Bendrath>Enisa, die genau diese Sicherheitslücken bekommen soll.

00:23:26.110 --> 00:23:29.010
<v Thomas Lohninger>Ja, das war nämlich wirklich ein bisschen problematisch, weil damit natürlich,

00:23:29.070 --> 00:23:33.090
<v Thomas Lohninger>wenn du konkret den Weg, wie deine Software aufgemacht werden kann,

00:23:33.290 --> 00:23:36.010
<v Thomas Lohninger>sofort melden musst, noch bevor du es geschlossen hast.

00:23:36.270 --> 00:23:40.850
<v Thomas Lohninger>Also das widerstößt dann ein bisschen gegen, Sponsor-Predisclosure ist das jetzt

00:23:40.850 --> 00:23:42.670
<v Thomas Lohninger>nicht, aber es öffnet gewisse Gefahren.

00:23:42.990 --> 00:23:45.650
<v Ralf Bendrath>Okay, ob man die bevor man es gepatcht hat schon melden muss,

00:23:45.730 --> 00:23:47.890
<v Ralf Bendrath>weiß ich jetzt nicht. Das müsste man im Detail nochmal nachgucken.

00:23:47.970 --> 00:23:48.690
<v Ralf Bendrath>Das habe ich jetzt nicht vor mir.

00:23:48.690 --> 00:23:51.810
<v Thomas Lohninger>Das war zumindest früher mal ein Problem. Ab wann gelten denn diese Gesetze?

00:23:52.630 --> 00:23:56.530
<v Ralf Bendrath>Der Cyber Resilience Act, wie gesagt, ist eine Verordnung, die gilt unmittelbar.

00:23:56.730 --> 00:24:00.450
<v Ralf Bendrath>Die ist jetzt quasi heute, gestern angenommen worden im Plenum.

00:24:00.510 --> 00:24:03.750
<v Ralf Bendrath>Das muss jetzt der Rat formal noch annehmen, weil wir noch im ersten Lesungsverfahren sind.

00:24:04.330 --> 00:24:08.410
<v Ralf Bendrath>Dann wird es im Amtsblatt der EU veröffentlicht. Und dann weiß ich nicht,

00:24:08.410 --> 00:24:11.210
<v Ralf Bendrath>ob es irgendwelche Übergangsfristen gibt oder ob das dann sofort gilt.

00:24:12.010 --> 00:24:13.230
<v Ralf Bendrath>Steht jetzt hier nicht im Briefing drin.

00:24:13.410 --> 00:24:16.670
<v Arnika Zinke>Also meines Wissens nach gibt es relativ lange Übergangsfristen.

00:24:16.670 --> 00:24:22.430
<v Arnika Zinke>Also zumindest nachdem es aus dem Parlament kam, haben wir sehr große Probleme

00:24:22.430 --> 00:24:25.810
<v Arnika Zinke>gehabt, die Fristen nicht allzu lange zu haben.

00:24:27.373 --> 00:24:29.573
<v Tim Pritlove>Also ein paar Jahre, oder was muss man sich da jetzt vorstellen?

00:24:29.573 --> 00:24:30.293
<v Arnika Zinke>Ja, genau, ein paar Jahre.

00:24:31.313 --> 00:24:33.473
<v Tim Pritlove>Okay, das tropft also so langsam rein.

00:24:33.953 --> 00:24:39.073
<v Ralf Bendrath>Okay, ich sehe gerade Artikel 14, Reporting Obligations of Manufacturers.

00:24:39.533 --> 00:24:44.253
<v Ralf Bendrath>Da geht es offenbar nur um Verwundbarkeiten, die aktuell aktiv ausgenutzt werden.

00:24:45.193 --> 00:24:50.833
<v Ralf Bendrath>Wenn also gerade irgendwie Angriffe laufen, dass dann die nationalen C-Cert-Koordinatoren

00:24:50.833 --> 00:24:54.373
<v Ralf Bendrath>und Enisa benachrichtigt werden sollen, damit die Schritte ergreifen können.

00:24:54.433 --> 00:24:56.293
<v Ralf Bendrath>Wenn gerade ein Angriff läuft, macht das ja auch Sinn.

00:24:58.013 --> 00:25:00.493
<v Ralf Bendrath>Aber darüber hinaus sehe ich jetzt keine Verpflichtungen.

00:25:01.813 --> 00:25:05.413
<v Tim Pritlove>Zumindest gibt es jetzt erstmal nicht mehr das Admin-Admin-Standardpasswort

00:25:05.413 --> 00:25:07.573
<v Tim Pritlove>bei irgendwelchen Routern.

00:25:07.853 --> 00:25:14.993
<v Tim Pritlove>Das ist schon mal wichtig, dass mal überhaupt so eine Linie da gezogen wird mit so Leuten.

00:25:15.073 --> 00:25:20.253
<v Tim Pritlove>Also wenn ihr hier irgendwie mitspielen wollt, dann ist einfach mal ein gewisses

00:25:20.253 --> 00:25:23.493
<v Tim Pritlove>Minimum jetzt auch definiert und nicht nur so der Markt macht das schon.

00:25:23.813 --> 00:25:27.193
<v Tim Pritlove>Und ich denke, das ist dann doch schon ein wichtiger Schritt nach vorne.

00:25:28.693 --> 00:25:33.033
<v Thomas Lohninger>Ja, und vor allem auch, Ralf hat ja schon die Analogie mit dem CE-Label genannt.

00:25:33.493 --> 00:25:37.153
<v Thomas Lohninger>Genauso wie man sich darauf verlassen muss, dass ein Gerät, das an Strom hängt,

00:25:37.173 --> 00:25:41.113
<v Thomas Lohninger>nicht zum Rauchen anfängt und explodiert, es hat auch bei der Netzwerkverbindung

00:25:41.113 --> 00:25:45.013
<v Thomas Lohninger>ein gewisses Mindestmaß an Sorgfalt einfach geboten.

00:25:45.113 --> 00:25:47.993
<v Thomas Lohninger>Also ob dieses Gesetz wirklich in allem perfekt ist, wird man sehen,

00:25:48.093 --> 00:25:51.493
<v Thomas Lohninger>aber die Richtung ist da schon die richtige, glaube ich.

00:25:52.133 --> 00:25:54.773
<v Ralf Bendrath>Und hier gab es natürlich auch wieder die Frage, was ist mit Open Source?

00:25:55.193 --> 00:25:58.553
<v Ralf Bendrath>Der gleiche Ansatz wieder bei der Produkthaftungsrichtlinie.

00:25:58.933 --> 00:26:02.813
<v Ralf Bendrath>Wenn man Software nicht kommerziell auf den Markt bringt, ist man raus.

00:26:04.623 --> 00:26:07.803
<v Ralf Bendrath>Also der kleine Open-Source-Entwickler, der irgendwelche Tools baut,

00:26:07.843 --> 00:26:11.883
<v Ralf Bendrath>die dann andere kommerzielle Hersteller nehmen, der ist raus und die kommerziellen

00:26:11.883 --> 00:26:13.383
<v Ralf Bendrath>Hersteller sind in der Pflicht.

00:26:13.663 --> 00:26:15.983
<v Ralf Bendrath>Und die müssen dann sozusagen auch für die Sicherheitsupdates sorgen,

00:26:16.143 --> 00:26:18.803
<v Ralf Bendrath>nicht der kleine Bastler in der Kellerwerkstatt oder so.

00:26:18.803 --> 00:26:23.803
<v Tim Pritlove>Aber was definiert denn dann kommerziell? Also es gibt ja auch oft so Leute,

00:26:23.803 --> 00:26:27.783
<v Tim Pritlove>die Open Source machen und dann quasi selber kommerziell sind,

00:26:27.903 --> 00:26:30.723
<v Tim Pritlove>weil sie dann Beratungen dafür machen.

00:26:31.123 --> 00:26:34.023
<v Tim Pritlove>Damit wären sie ja sozusagen im kommerziellen Spiel.

00:26:34.983 --> 00:26:37.043
<v Thomas Lohninger>Oder um Spenden bitten für ihre Software.

00:26:38.063 --> 00:26:38.583
<v Tim Pritlove>Graubereich.

00:26:38.923 --> 00:26:42.003
<v Ralf Bendrath>Puh, das weiß ich nicht. Annika, das ist wahrscheinlich in deinem Ausschuss

00:26:42.003 --> 00:26:45.283
<v Ralf Bendrath>schon besser ausdiskutiert. Das wüsste ich jetzt nicht. Gibt es bestimmt irgendwo

00:26:45.283 --> 00:26:46.683
<v Ralf Bendrath>schon Standarddefinitionen?

00:26:47.363 --> 00:26:50.763
<v Arnika Zinke>Es gab dazu lange, ich weiß, es gab dazu sehr lange Diskussionen,

00:26:50.763 --> 00:26:54.903
<v Arnika Zinke>gab auch beim Cyber Veselians Act und auch gerade was Spenden betrifft,

00:26:54.943 --> 00:27:00.643
<v Arnika Zinke>vor allem Spenden, die immer wieder über einen längeren Zeitraum passieren,

00:27:00.723 --> 00:27:01.883
<v Arnika Zinke>auch von größeren Entitäten.

00:27:02.223 --> 00:27:05.203
<v Arnika Zinke>Ich weiß jetzt aber auch nicht, was genau das Endresultat war,

00:27:05.283 --> 00:27:09.263
<v Arnika Zinke>weil wir natürlich, wenn es noch im Parlament ist, relativ viel eingebunden sind.

00:27:09.383 --> 00:27:12.603
<v Arnika Zinke>Aber wenn das dann final in den Trilog geht, vor allem war das auch zu einer

00:27:12.603 --> 00:27:16.683
<v Arnika Zinke>Zeit, wo das KI-Gesetz gerade im Trilog war, Da sind wir dann auch als nicht

00:27:16.683 --> 00:27:18.223
<v Arnika Zinke>federführende Ausschüsse ein bisschen raus.

00:27:18.743 --> 00:27:24.283
<v Arnika Zinke>Aber an sich wurde sich jetzt auf eine Definition geeinigt, mit der meines Wissens

00:27:24.283 --> 00:27:27.163
<v Arnika Zinke>die Open-Source-Community recht zufrieden ist und die jetzt eigentlich auch

00:27:27.163 --> 00:27:32.543
<v Arnika Zinke>in den meisten neuen Digitalgesetzen verwendet worden ist, wo relativ klar ist,

00:27:32.643 --> 00:27:35.723
<v Arnika Zinke>was ist wirklich auf den Markt bringen und was ist, wenn man es nur eben zum

00:27:35.723 --> 00:27:36.963
<v Arnika Zinke>Beispiel bei GitHub hochlädt.

00:27:38.003 --> 00:27:41.523
<v Ralf Bendrath>Ich habe hier gerade herausgefunden, Erwägungsgrund 15, da steht was drin,

00:27:41.763 --> 00:27:46.523
<v Ralf Bendrath>die, ich muss jetzt sozusagen live vom Englischen ins Deutsche übersetzen,

00:27:46.623 --> 00:27:53.323
<v Ralf Bendrath>die Lieferung im Kurs einer kommerziellen Aktivität kann charakterisiert werden,

00:27:53.443 --> 00:27:59.623
<v Ralf Bendrath>nicht nur indem ein Preis für ein Produkt mit digitalen Elementen verlangt wird, sondern auch,

00:27:59.743 --> 00:28:03.383
<v Ralf Bendrath>wenn man einen Preis verlangt für technische Unterstützungsdienste.

00:28:05.989 --> 00:28:07.669
<v Tim Pritlove>Das würde das dann mit einschließen.

00:28:07.969 --> 00:28:11.789
<v Ralf Bendrath>Well, this does not serve only the recuperation of actual costs.

00:28:13.489 --> 00:28:17.649
<v Thomas Lohninger>In einer der letzten Folgen haben wir Gesetze durch JGPT analysieren lassen.

00:28:17.789 --> 00:28:22.249
<v Thomas Lohninger>Diesmal lassen wir sie durch die Verhandler selbst interpretieren. Ein Fortschritt.

00:28:24.889 --> 00:28:28.789
<v Thomas Lohninger>Aber das ist auch passend irgendwie zu dem nächsten Gesetz, das wir noch kurz

00:28:28.789 --> 00:28:30.109
<v Thomas Lohninger>ansprechen wollten, Ralf.

00:28:30.269 --> 00:28:33.889
<v Thomas Lohninger>Das ist auch etwas, was du uns mitgebracht hast. Das hat ja fast schon irgendwie

00:28:33.889 --> 00:28:35.649
<v Thomas Lohninger>den guten Nachrichtsjingel verdient.

00:28:36.369 --> 00:28:37.829
<v Ralf Bendrath>Die Plattform-Workers, ne?

00:28:38.309 --> 00:28:38.809
<v Thomas Lohninger>Ja, genau.

00:28:39.089 --> 00:28:42.829
<v Ralf Bendrath>Genau. Es gibt jetzt auch seit dieser Woche eine Plattform, die wurde nicht

00:28:42.829 --> 00:28:47.669
<v Ralf Bendrath>im Plenum abgestimmt, sondern die war schon im Februar ausverhandelt und war

00:28:47.669 --> 00:28:49.269
<v Ralf Bendrath>bisher aber im Rat blockiert.

00:28:49.609 --> 00:28:53.949
<v Ralf Bendrath>Und gerade jetzt vorgestern am Montag hat wieder der Ministerrat für Beschäftigung,

00:28:54.049 --> 00:28:56.349
<v Ralf Bendrath>Soziales, Gesundheit und Verbraucherschutz getagt.

00:28:56.809 --> 00:28:59.689
<v Ralf Bendrath>Und da gab es bisher eine Sperrminorität, bestehend aus Estland,

00:28:59.789 --> 00:29:02.709
<v Ralf Bendrath>Griechenland, Frankreich und Deutschland, mal wieder die FDP.

00:29:04.249 --> 00:29:09.129
<v Ralf Bendrath>Und Estland und Griechenland haben jetzt sich von der Enthaltung zu einem Vote,

00:29:09.349 --> 00:29:11.509
<v Ralf Bendrath>zu einer Abstimmung dafür durchgerungen.

00:29:11.629 --> 00:29:15.149
<v Ralf Bendrath>Deswegen gab es jetzt nur noch mit Frankreich und Deutschland alleine keine Sperrminorität mehr.

00:29:15.589 --> 00:29:19.949
<v Ralf Bendrath>Und deswegen kommt jetzt die Platform Workers Directive,

00:29:20.109 --> 00:29:24.549
<v Ralf Bendrath>die erstmals sozusagen die Arbeitsbedingungen regelt für Leute,

00:29:24.569 --> 00:29:28.529
<v Ralf Bendrath>die über Plattformen, was weiß ich, wie Uber Eats oder Deliveroo oder sowas

00:29:28.529 --> 00:29:31.689
<v Ralf Bendrath>arbeiten, aber auch zum Beispiel Mechanical Turk von Amazon oder so Zeug.

00:29:32.729 --> 00:29:36.609
<v Ralf Bendrath>Weil da bisher immer noch ganz oft unklar war, sind das Angestellte,

00:29:36.669 --> 00:29:42.389
<v Ralf Bendrath>sind das Freelancer, welche Rechte haben die gegenüber dem Quote-unquote Arbeitgeber und so.

00:29:43.989 --> 00:29:47.009
<v Ralf Bendrath>Und diese Plattform Worker's Direct, soweit ich es verstanden habe,

00:29:47.109 --> 00:29:49.369
<v Ralf Bendrath>wie gesagt, das war Beschäftigungsausschuss, ich habe es auch nur von der Seite

00:29:49.369 --> 00:29:53.089
<v Ralf Bendrath>mitverfolgt, die macht jetzt vor allem zwei Sachen, die...

00:29:53.785 --> 00:29:58.205
<v Ralf Bendrath>Sagt eben, dass sozusagen erst mal die Annahme gilt, wenn man so ein Plattform-Worker

00:29:58.205 --> 00:29:59.385
<v Ralf Bendrath>ist, ist man Angestellter.

00:30:00.025 --> 00:30:05.265
<v Ralf Bendrath>Und die Beweislast, dass das nicht der Fall ist, hat der Arbeitgeber sozusagen oder die Plattform.

00:30:05.745 --> 00:30:08.885
<v Ralf Bendrath>Das heißt, damit gelten dann die ganzen Rechte als Arbeitgeber wie Recht auf

00:30:08.885 --> 00:30:11.605
<v Ralf Bendrath>bezahlten Urlaub, Recht auf Streik und alles mögliche andere,

00:30:11.865 --> 00:30:14.005
<v Ralf Bendrath>Krankengeld und so weiter.

00:30:15.865 --> 00:30:18.965
<v Ralf Bendrath>Und wie gesagt, wenn die Plattform meint, nee, aber in dem Fall ist das doch

00:30:18.965 --> 00:30:21.645
<v Ralf Bendrath>ganz klar nur ein Freelancer, der macht nur ab und zu mal hier was,

00:30:21.665 --> 00:30:24.445
<v Ralf Bendrath>wenn er Bock drauf hat, dann muss sie das eben nachweisen.

00:30:24.545 --> 00:30:26.745
<v Ralf Bendrath>Und dann ist sie raus aus den Arbeitgeberverpflichtungen.

00:30:27.905 --> 00:30:32.005
<v Ralf Bendrath>Und das Zweite ist, dass es jetzt zum ersten Mal Regeln gibt für algorithmisches

00:30:32.005 --> 00:30:34.285
<v Ralf Bendrath>Management von Arbeitern oder Arbeitenden.

00:30:35.845 --> 00:30:40.685
<v Ralf Bendrath>Das heißt, wenn man ernsthafte Entscheidungen trifft über so einen Plattformarbeiter

00:30:40.685 --> 00:30:44.705
<v Ralf Bendrath>oder eine Arbeiterin, zum Beispiel Beendigung des Vertrages oder so,

00:30:44.865 --> 00:30:47.205
<v Ralf Bendrath>das darf auf keinen Fall von einem Algorithmus gemacht werden,

00:30:47.305 --> 00:30:48.465
<v Ralf Bendrath>das muss immer ein Mensch entscheiden.

00:30:49.525 --> 00:30:54.665
<v Tim Pritlove>Gilt denn, also für welche Unternehmen gilt denn das und für welche Mitarbeiter gilt denn das?

00:30:54.785 --> 00:30:59.905
<v Tim Pritlove>Also inwiefern ist jetzt die Zugehörigkeit oder der Aufenthalt in Europa da

00:30:59.905 --> 00:31:03.345
<v Tim Pritlove>entscheidend oder gilt das dann irgendwie weltweit oder wie ist das gedacht?

00:31:03.445 --> 00:31:07.125
<v Ralf Bendrath>Das gilt immer nur für Europa. Europäische Gesetz gilt nur in Europa.

00:31:07.205 --> 00:31:12.145
<v Tim Pritlove>Klar, aber gilt es auch für einen indischen Plattformarbeiter,

00:31:12.245 --> 00:31:15.005
<v Tim Pritlove>für eine Firma, die in Europa ist?

00:31:16.185 --> 00:31:20.185
<v Ralf Bendrath>Gute Frage. Kann ich jetzt so nicht beantworten. Wie gesagt,

00:31:20.285 --> 00:31:21.745
<v Ralf Bendrath>das habe ich selber nicht verhandelt.

00:31:22.665 --> 00:31:27.385
<v Tim Pritlove>Und gilt es für einen deutschen Mitarbeiter einer indischen Firma zum Beispiel

00:31:27.385 --> 00:31:28.545
<v Tim Pritlove>oder einer amerikanischen?

00:31:28.645 --> 00:31:34.325
<v Tim Pritlove>Also das ist so das, was ich mich frage. Was ist jetzt da sozusagen, wen betrifft das quasi?

00:31:35.305 --> 00:31:37.245
<v Tim Pritlove>Und wann ist man dadurch geschützt?

00:31:38.265 --> 00:31:40.225
<v Tim Pritlove>Weil so viele Plattformen haben wir ja nicht in Europa.

00:31:40.545 --> 00:31:44.065
<v Ralf Bendrath>Muss ich mal kurz gucken, ob das von der Kollegin hier im Briefing irgendwie

00:31:44.065 --> 00:31:46.325
<v Ralf Bendrath>abgedeckt ist, sonst wüsste ich es nicht.

00:31:46.825 --> 00:31:50.725
<v Thomas Lohninger>Also es ist ganz oft so bei diesen grenzüberschreitenden Arbeitsverhältnissen,

00:31:50.785 --> 00:31:54.125
<v Thomas Lohninger>dass es sehr schnell sehr kompliziert wird, auch innerhalb der EU.

00:31:54.805 --> 00:31:58.805
<v Thomas Lohninger>Da gibt es auch recht komplizierte Regelwerke, so Stichwort Entsenderichtlinie.

00:31:58.805 --> 00:32:01.645
<v Thomas Lohninger>Aber wovon man auf jeden Fall ausgehen kann,

00:32:01.885 --> 00:32:08.265
<v Thomas Lohninger>ist, dass die klassischen Essensauslieferer, Leute, die in der Servicebranche

00:32:08.265 --> 00:32:10.285
<v Thomas Lohninger>über Plattformen beschäftigt sind,

00:32:10.445 --> 00:32:17.905
<v Thomas Lohninger>alles, was eben über die klassischen Apps bezogene Arbeitsleistung ist, mehr oder weniger,

00:32:18.105 --> 00:32:20.425
<v Thomas Lohninger>hier auf jeden Fall davon enthalten ist.

00:32:20.425 --> 00:32:22.785
<v Thomas Lohninger>Und die Gewerkschaften jubeln hier auf jeden Fall.

00:32:23.065 --> 00:32:28.025
<v Thomas Lohninger>Man sollte anmerken, dass schon vor dem Konflikt, den Ralf gerade genannt hat,

00:32:28.065 --> 00:32:33.625
<v Thomas Lohninger>es hier eine Abschwächung gab zwischen dem, was das Parlament verabschiedet hat.

00:32:33.825 --> 00:32:37.965
<v Thomas Lohninger>Da hätte es so einheitliche Kriterien gegeben, ab wann du denn jetzt wirklich

00:32:37.965 --> 00:32:42.385
<v Thomas Lohninger>angenommener fixer Angestellter von dieser Plattform bist. ist.

00:32:42.825 --> 00:32:46.525
<v Thomas Lohninger>Und diese Kriterien gibt es jetzt aber leider nicht mehr. Nur noch Prinzipien,

00:32:46.545 --> 00:32:48.745
<v Thomas Lohninger>aber da gibt es dann Umsetzung, Spielraum.

00:32:49.185 --> 00:32:52.625
<v Thomas Lohninger>Das hier ist ja eine Richtlinie, die muss erst in nationales Recht überführt werden.

00:32:52.925 --> 00:32:56.525
<v Thomas Lohninger>Und das wird zu einem Fleckerteppich führen, wo einfach in unterschiedlichen

00:32:56.525 --> 00:32:58.585
<v Thomas Lohninger>Ländern unterschiedliche Kriterien gelten.

00:32:59.145 --> 00:33:03.085
<v Thomas Lohninger>Und das ist für das Land kann das immer noch gut sein, wenn man jetzt hier es

00:33:03.085 --> 00:33:04.185
<v Thomas Lohninger>schafft, Druck zu machen.

00:33:04.825 --> 00:33:09.565
<v Thomas Lohninger>Aber es gibt kein europaeinheitliches Niveau, ab wann der Uber-Treiber,

00:33:09.645 --> 00:33:13.965
<v Thomas Lohninger>der Uber-Fahrer könnte jetzt zum Beispiel in Deutschland Status A haben und

00:33:13.965 --> 00:33:15.725
<v Thomas Lohninger>in Österreich Status B zum Beispiel.

00:33:16.725 --> 00:33:20.725
<v Ralf Bendrath>Es gibt sogar, habe ich jetzt gelernt, keine einheitliche Definition von was

00:33:20.725 --> 00:33:24.825
<v Ralf Bendrath>Work, also Arbeit, eigentlich genau bedeutet, weil das anscheinend EU-weit bisher

00:33:24.825 --> 00:33:28.085
<v Ralf Bendrath>nicht harmonisiert ist und die Mitgliedstaaten wohl darauf bestanden haben,

00:33:28.185 --> 00:33:30.985
<v Ralf Bendrath>dass Arbeitsrecht und sowas weiterhin nationale Kompetenz ist.

00:33:32.225 --> 00:33:34.885
<v Tim Pritlove>Das könnte die Sache ein bisschen schwierig machen, oder?

00:33:36.165 --> 00:33:40.145
<v Ralf Bendrath>Ja, wie Thomas sagt, das wird einen Flickenteppich geben, aber besser so ein

00:33:40.145 --> 00:33:43.005
<v Ralf Bendrath>Flickenteppich als gar keine Rechte für die Plattformarbeiter, ganz klar.

00:33:43.505 --> 00:33:45.885
<v Ralf Bendrath>Was ich gerade noch gesehen habe hier im Briefing der Kollegin ist,

00:33:46.045 --> 00:33:50.085
<v Ralf Bendrath>dass die Plattformen auch jetzt Kommunikationskanäle bereitstellen müssen,

00:33:50.145 --> 00:33:52.965
<v Ralf Bendrath>damit die Plattformarbeitenden untereinander kommunizieren können,

00:33:53.145 --> 00:33:55.225
<v Ralf Bendrath>zum Beispiel um Betriebsräte zu gründen oder sowas.

00:33:55.225 --> 00:33:59.745
<v Tim Pritlove>Ah ja. Okay, aber das sind so einfach mal so die typischen Tages,

00:33:59.805 --> 00:34:03.165
<v Tim Pritlove>weil das erste Beispiel mit diesem Mechanical Turk, da denkt man ja dann gleich

00:34:03.165 --> 00:34:04.985
<v Tim Pritlove>irgendwie Amazon und Ausland und so.

00:34:05.085 --> 00:34:07.965
<v Ralf Bendrath>Aber… Amazon hat eine Niederlassung in Europa.

00:34:07.965 --> 00:34:14.705
<v Tim Pritlove>Ja klar, aber diese Mechanical Turks sind ja sozusagen traditionell sehr weit

00:34:14.705 --> 00:34:16.825
<v Tim Pritlove>über den Planeten verstreut gewesen,

00:34:17.045 --> 00:34:20.605
<v Tim Pritlove>aber es ist natürlich klar, dass jetzt vor allem so Lieferdienste,

00:34:20.605 --> 00:34:23.005
<v Tim Pritlove>was Thomas schon sagte oder eben sowas wie Uber,

00:34:23.245 --> 00:34:26.265
<v Tim Pritlove>davon dann vermutlich auch betroffen sein wird.

00:34:28.694 --> 00:34:32.674
<v Tim Pritlove>Nur, dass man es mal zuordnen kann, was davon wirklich dann tangiert ist.

00:34:32.714 --> 00:34:36.474
<v Tim Pritlove>Weil Plattform ist ja dann ein dehnbarer Begriff.

00:34:37.494 --> 00:34:40.314
<v Thomas Lohninger>Was mal konkret, ist Onlyfans davon betroffen?

00:34:41.934 --> 00:34:43.074
<v Tim Pritlove>Du hast Sorgen.

00:34:44.234 --> 00:34:45.054
<v Thomas Lohninger>Sag ja nur.

00:34:46.014 --> 00:34:50.034
<v Ralf Bendrath>Vermutlich schon. Ich meine, Sexarbeit ist auch Arbeit.

00:34:50.394 --> 00:34:53.154
<v Tim Pritlove>Ja, stimmt. Sind die da nicht alle selbstständig?

00:34:56.714 --> 00:35:00.234
<v Thomas Lohninger>Was man vielleicht einfach noch vermelden sollte oder dazu sagen ist,

00:35:00.354 --> 00:35:02.814
<v Thomas Lohninger>dass das auf jeden Fall ein Schritt in die richtige Richtung ist.

00:35:02.994 --> 00:35:07.314
<v Thomas Lohninger>Und ich glaube auch, dass da die Gewerkschaften schon einen wichtigen Schritt tun,

00:35:07.474 --> 00:35:12.154
<v Thomas Lohninger>weil gerade freie DienstnehmerInnen oder Selbstständige waren ja oft auch bei

00:35:12.154 --> 00:35:16.654
<v Thomas Lohninger>den klassischen Arbeitsrechten diejenigen, die durch die Finger geschaut haben

00:35:16.654 --> 00:35:18.194
<v Thomas Lohninger>und nicht mal repräsentiert wurden.

00:35:18.414 --> 00:35:22.334
<v Thomas Lohninger>Und denen einfach hier zu einem besseren Status zu verhelfen, ist auf jeden Fall gut.

00:35:23.234 --> 00:35:27.034
<v Thomas Lohninger>Und Und zuletzt nochmal jetzt dadurch, dass das auf diese Art jetzt irgendwie

00:35:27.034 --> 00:35:31.614
<v Thomas Lohninger>durchgegangen ist, es zeigt auch irgendwie schön, dass die Achse Deutschland-Frankreich

00:35:31.614 --> 00:35:33.914
<v Thomas Lohninger>alleine dann doch nicht verhindern kann.

00:35:34.474 --> 00:35:38.634
<v Thomas Lohninger>Und dass sich alle anderen Staaten hier schon darauf einigen konnten.

00:35:39.414 --> 00:35:43.474
<v Thomas Lohninger>Also da kann man den Liberalen wahrscheinlich danken, die in Deutschland die.

00:35:43.474 --> 00:35:46.474
<v Thomas Lohninger>Zustimmung verhindern und in Frankreich ja an der Regierung sind.

00:35:48.454 --> 00:35:51.974
<v Ralf Bendrath>Ja, aber das kann man vielleicht nochmal kurz ein bisschen vertiefen,

00:35:51.974 --> 00:35:55.134
<v Ralf Bendrath>Weil das ist echt ein Problem inzwischen mit diesem sogenannten German Vote,

00:35:55.434 --> 00:35:56.814
<v Ralf Bendrath>was in Brüssel hier inzwischen alle kennen.

00:35:57.234 --> 00:36:00.094
<v Ralf Bendrath>Und das ist einfach ein Fehler im Koalitionsvertrag in Berlin.

00:36:00.694 --> 00:36:03.674
<v Ralf Bendrath>Das gibt es ja oft auch in Landesregierungen oder Landeskoalitionsverträgen,

00:36:03.714 --> 00:36:06.834
<v Ralf Bendrath>dass da drin steht, wenn die Regierungsparteien sich nicht einigen können auf

00:36:06.834 --> 00:36:08.674
<v Ralf Bendrath>irgendeine Sache, enthalten sie sich im Bundesrat.

00:36:09.414 --> 00:36:12.634
<v Ralf Bendrath>So, im Bundesrat reicht aber normalerweise eine einfache Mehrheit,

00:36:12.654 --> 00:36:13.594
<v Ralf Bendrath>um ein Gesetz zu beschließen.

00:36:14.174 --> 00:36:19.214
<v Ralf Bendrath>Rat der Minister der Europäischen Union brauchst du eine qualifizierte Mehrheit.

00:36:19.214 --> 00:36:25.894
<v Ralf Bendrath>Da brauchst du irgendwie 72 Prozent der Mitgliedstaaten und die 65 Prozent der

00:36:25.894 --> 00:36:28.674
<v Ralf Bendrath>europäischen Bevölkerung repräsentieren. Ich glaube, so in der Größenordnung.

00:36:29.094 --> 00:36:34.074
<v Ralf Bendrath>Und das heißt aber dann, eine Enthaltung ist dann genauso scheiße wie ein Dagegenstimmen,

00:36:34.194 --> 00:36:36.334
<v Ralf Bendrath>weil einfach diese qualifizierte Mehrheit nicht zustande kommt.

00:36:37.054 --> 00:36:41.014
<v Ralf Bendrath>Das heißt also, wenn die FDP als kleinster 4-Prozent-Koalitionspartner in Berlin

00:36:41.014 --> 00:36:43.414
<v Ralf Bendrath>sagt, wir sind dagegen, dann muss die Regierung sich enthalten,

00:36:43.554 --> 00:36:48.574
<v Ralf Bendrath>laut Koalitionsvertrag, und arbeite dann aber aktiv gegen so ein Gesetz und

00:36:48.574 --> 00:36:50.094
<v Ralf Bendrath>enthält sich nicht nur einfach so, ne?

00:36:51.266 --> 00:36:52.506
<v Tim Pritlove>Das nennt man German Vote?

00:36:52.966 --> 00:36:55.626
<v Ralf Bendrath>Ja, weil das einfach jetzt in ganz vielen Gesetzen passiert,

00:36:55.846 --> 00:36:58.886
<v Ralf Bendrath>dass die Deutschen sich enthalten und damit dazu beitragen, dass vielleicht

00:36:58.886 --> 00:37:02.466
<v Ralf Bendrath>eine qualifizierte Mehrheit nicht zustande kommt, weil die FDP dagegen ist.

00:37:02.546 --> 00:37:03.506
<v Ralf Bendrath>Hätte, hätte, Lieferkette.

00:37:04.526 --> 00:37:08.126
<v Tim Pritlove>Und das ist sozusagen ein Konstruktionsfehler im Koalitionsvertrag,

00:37:08.206 --> 00:37:09.926
<v Tim Pritlove>dass man es für Europa nicht anders geregelt hat.

00:37:10.386 --> 00:37:14.826
<v Ralf Bendrath>Genau. Und das ist auch ein Konstruktionsfehler im Bundeskanzleramt, würde ich mal sagen.

00:37:14.926 --> 00:37:18.386
<v Ralf Bendrath>Also unter Merkel wäre das nicht so durchgegangen, weil das einfach massiv die

00:37:18.386 --> 00:37:21.966
<v Ralf Bendrath>deutsche Rolle auch in der Europäischen Union untergräbt.

00:37:22.086 --> 00:37:25.026
<v Ralf Bendrath>Also Deutschland, auch bis zu Merkel und so, war immer eigentlich dafür bekannt,

00:37:25.206 --> 00:37:28.226
<v Ralf Bendrath>dass man versucht hat, einen Ausgleich zu finden zwischen den Mitgliedstaaten,

00:37:28.246 --> 00:37:31.706
<v Ralf Bendrath>dass man nicht so selber mit dicken, ausgefahrenen Ellenbogen in den Verhandlungen

00:37:31.706 --> 00:37:34.346
<v Ralf Bendrath>reingegangen ist und einfach versucht hat, den Laden zusammenzuhalten.

00:37:35.146 --> 00:37:39.606
<v Ralf Bendrath>Idealerweise gemeinsam mit Frankreich. Und wenn jetzt dank der FDP die Deutschen

00:37:39.606 --> 00:37:41.586
<v Ralf Bendrath>da immer so rumpoltern müssen und immer sagen,

00:37:41.786 --> 00:37:46.446
<v Ralf Bendrath>wir sind aber dagegen de facto und im Zweifelsfall so ein Gesetz blockieren,

00:37:46.486 --> 00:37:49.366
<v Ralf Bendrath>weil dann kommen natürlich viele kleinere Mitgliedstaaten auch oder auch Frankreich

00:37:49.366 --> 00:37:51.106
<v Ralf Bendrath>dann, die sich hinter Deutschland dann verstecken.

00:37:51.426 --> 00:37:53.326
<v Ralf Bendrath>Und das ist einfach echt ziemlich bitter.

00:37:54.626 --> 00:37:57.326
<v Ralf Bendrath>Und wie gesagt, in Brüssel schon bekannt als The German Vote.

00:37:57.826 --> 00:37:59.406
<v Tim Pritlove>Annika, du hast da noch was zu sagen?

00:37:59.406 --> 00:38:03.306
<v Arnika Zinke>Nein, ich wollte nur sagen, dass genau wie Ralf das angesprochen hatte,

00:38:03.706 --> 00:38:07.026
<v Arnika Zinke>wenn natürlich Deutschland und Frankreich beide sagen, sie sind dagegen oder

00:38:07.026 --> 00:38:11.486
<v Arnika Zinke>einer enthält sich, der andere ist dagegen, dann kreiert das einen Effekt auch

00:38:11.486 --> 00:38:12.646
<v Arnika Zinke>bei den anderen Mitgliedstaaten.

00:38:12.766 --> 00:38:15.366
<v Arnika Zinke>Das heißt, die überlegen sich dann schon, vielleicht sollten wir doch dagegen

00:38:15.366 --> 00:38:19.506
<v Arnika Zinke>stimmen oder schauen wir uns das nochmal genauer an, warum denn die zwei Großen da dagegen stimmen.

00:38:19.626 --> 00:38:23.926
<v Arnika Zinke>Und wir hatten das Problem auch in dem KI-Gesetz letztlich, dass wegen Deutschland

00:38:23.926 --> 00:38:28.866
<v Arnika Zinke>und wegen der FDP das Gesetz und die Abstimmung im Rat auf der Kippe gestanden sind.

00:38:29.726 --> 00:38:30.986
<v Ralf Bendrath>Wegen Deutschland und Frankreich.

00:38:33.146 --> 00:38:39.346
<v Thomas Lohninger>Ja, zitiere ich dann nochmal den griechischen Arbeitsminister von den Konservativen.

00:38:39.526 --> 00:38:43.926
<v Thomas Lohninger>Da wir im Geist von Kompromiss und europäischer Einheit arbeiten wollen,

00:38:44.046 --> 00:38:47.666
<v Thomas Lohninger>werden wir die Richtlinie unterstützen. Sehr schön.

00:38:48.886 --> 00:38:53.386
<v Thomas Lohninger>Und ja, das obliegt dann wirklich den Regierungen oder eben den Koalitionsabkommen,

00:38:53.486 --> 00:38:57.506
<v Thomas Lohninger>wie das genau gehandhabt wird. In Österreich ist es zum Beispiel in der aktuellen

00:38:57.506 --> 00:39:00.506
<v Thomas Lohninger>Regierung so, dass man sich da bewusst nicht abstimmt.

00:39:00.566 --> 00:39:06.406
<v Thomas Lohninger>Also hat man auch wegen Klimaschutz gemacht, dass da sozusagen die grüne Klimaministerin

00:39:06.406 --> 00:39:10.926
<v Thomas Lohninger>sich austoben kann, ohne dass hier irgendjemand reinredet, was die Ratspositionen betrifft.

00:39:11.086 --> 00:39:15.906
<v Thomas Lohninger>Ist dann aber zum Beispiel bei Überwachungsthemen unter Umständen sehr negativ,

00:39:15.906 --> 00:39:19.486
<v Thomas Lohninger>wenn du keinen Ausgleich hast und das dann der konservative Innenminister selber

00:39:19.486 --> 00:39:22.506
<v Thomas Lohninger>alles entscheiden kann. Aber ja, das ist Europa.

00:39:22.506 --> 00:39:27.486
<v Ralf Bendrath>In Deutschland ist es so, die SPD-Innenministerin entscheidet das Asylpaket

00:39:27.486 --> 00:39:29.266
<v Ralf Bendrath>mit und die Grünen schlucken es.

00:39:31.095 --> 00:39:32.815
<v Ralf Bendrath>Naja, anderes Thema.

00:39:33.635 --> 00:39:38.855
<v Tim Pritlove>Okay, aber soviel jetzt zur Platform Workers Directive. Jetzt gibt es demnächst

00:39:38.855 --> 00:39:40.915
<v Tim Pritlove>Porno-Betriebsräte, das ist doch super.

00:39:42.195 --> 00:39:48.315
<v Tim Pritlove>So, ein weiteres Thema noch vor dem AI-Act hast du noch für uns,

00:39:48.355 --> 00:39:52.295
<v Tim Pritlove>nämlich die Health-Plattform, nein, wie heißt es, Entschuldigung.

00:39:52.615 --> 00:39:54.215
<v Thomas Lohninger>European Health Data Space.

00:39:54.395 --> 00:39:57.355
<v Tim Pritlove>Der European Health Data Space, korrekt.

00:39:57.355 --> 00:40:00.655
<v Thomas Lohninger>Genau, das hast du verhandelt. Also, worum geht es dabei? Ich glaube,

00:40:00.735 --> 00:40:03.415
<v Thomas Lohninger>das hatten wir in Ansätzen, aber give us the primal.

00:40:03.595 --> 00:40:06.215
<v Ralf Bendrath>Ja, das ist auch wieder ein Gesetzesvorschlag,

00:40:06.275 --> 00:40:09.055
<v Ralf Bendrath>der in zwei Ausschüssen gleichberechtigt verhandelt wird.

00:40:09.255 --> 00:40:12.875
<v Ralf Bendrath>In meinem Ausschuss Liebe, also Civil Liberties, Justice and Home Affairs,

00:40:12.995 --> 00:40:20.575
<v Ralf Bendrath>wegen der Datenschutzkomponente und Gesundheit- und Umweltausschuss wegen Gesundheit, Gesundheitsdaten.

00:40:21.455 --> 00:40:24.675
<v Ralf Bendrath>Und das ist kurz vorm Abschluss. Morgen Nacht soll der letzte Trilog,

00:40:24.795 --> 00:40:28.055
<v Ralf Bendrath>also die letzte Verhandlungsrunde zwischen Rat, Parlament und Kommission stattfinden.

00:40:29.395 --> 00:40:34.515
<v Ralf Bendrath>Das Ding hat im Prinzip zwei Elemente. Ist natürlich viel komplizierter,

00:40:34.595 --> 00:40:38.615
<v Ralf Bendrath>aber hat im Prinzip zwei Elemente. Das eine ist Regeln für primäre Nutzung von

00:40:38.615 --> 00:40:42.115
<v Ralf Bendrath>Gesundheitsdaten und das andere ist für sekundäre Nutzung.

00:40:42.235 --> 00:40:49.215
<v Ralf Bendrath>Primäre Nutzung heißt, wenn mein Arzt meine Patientenakte Akte irgendwie lokal

00:40:49.215 --> 00:40:51.215
<v Ralf Bendrath>auf dem Rechner schon elektronisch vorhält,

00:40:51.415 --> 00:40:57.055
<v Ralf Bendrath>dann soll er oder sie die in der Regel auch vernetzt bereitstellen,

00:40:57.175 --> 00:40:59.495
<v Ralf Bendrath>damit wenn ich dann zu einem anderen Arzt gehe oder zu einer anderen Ärztin

00:40:59.495 --> 00:41:03.335
<v Ralf Bendrath>oder ins Krankenhaus oder so, die auch Zugriff auf die gesamte Akte haben und

00:41:03.335 --> 00:41:06.175
<v Ralf Bendrath>das eben besser nutzen können, um mich besser zu behandeln, weil die dann auch

00:41:06.175 --> 00:41:09.035
<v Ralf Bendrath>Vorerkrankungen und vorherige Behandlungen und sowas direkt sehen können.

00:41:09.755 --> 00:41:12.635
<v Ralf Bendrath>Macht irgendwie Sinn, das gibt es hier zum Beispiel in Belgien auch.

00:41:14.675 --> 00:41:17.655
<v Ralf Bendrath>Da Da sind viele Leute auch ganz glücklich drüber. Da kann man auch selber mit

00:41:17.655 --> 00:41:18.755
<v Ralf Bendrath>der App auf dem Smartphone irgendwie

00:41:18.755 --> 00:41:21.075
<v Ralf Bendrath>gucken, was ist eigentlich gerade in meiner Patientenakte so los?

00:41:21.175 --> 00:41:23.655
<v Ralf Bendrath>Dann kann ich die Sachen auch selber mal rauspulen und angucken und so.

00:41:24.455 --> 00:41:29.175
<v Ralf Bendrath>Da war lange der Streit, braucht es dazu ein Opt-in? Also müssen die Leute einwilligen,

00:41:29.775 --> 00:41:32.995
<v Ralf Bendrath>damit es elektronisch vernetzt verfügbar gemacht wird?

00:41:33.055 --> 00:41:36.835
<v Ralf Bendrath>Oder ist es generell bei Default so und man soll vielleicht nur widersprechen können?

00:41:37.675 --> 00:41:40.435
<v Ralf Bendrath>In Deutschland ist, glaube ich, aktuell der Stand, dass es immer noch ein Opt-in

00:41:40.435 --> 00:41:43.755
<v Ralf Bendrath>ist, aber das soll jetzt umgestellt werden auf Opt-out unter lauter Wacht,

00:41:43.755 --> 00:41:46.195
<v Ralf Bendrath>damit mehr Leute die elektronische Patientenakte nutzen.

00:41:46.882 --> 00:41:51.402
<v Ralf Bendrath>Und das Gesundheitswesen sozusagen effektiver ist. Das Ergebnis hier ist im

00:41:51.402 --> 00:41:55.602
<v Ralf Bendrath>Prinzip das gleiche. Es bleibt erstmal so vorgesehen, dass es per Default in

00:41:55.602 --> 00:41:57.742
<v Ralf Bendrath>eine vernetzte elektronische Gesundheitsakte kommt.

00:41:58.302 --> 00:42:01.022
<v Ralf Bendrath>Die Mitgliedstaaten können dann selber aber noch entscheiden,

00:42:01.202 --> 00:42:04.062
<v Ralf Bendrath>ob sie ein Opt-out ermöglichen wollen oder nicht.

00:42:05.002 --> 00:42:08.302
<v Ralf Bendrath>So, das ist eigentlich noch relativ unproblematisch. Da gab es dann so ein bisschen

00:42:08.302 --> 00:42:11.662
<v Ralf Bendrath>Missverständnisse in den Verhandlungen, weil die Leute, die Belgier hier von

00:42:11.662 --> 00:42:14.382
<v Ralf Bendrath>der Ratspräsidentschaft, haben erst gedacht, wenn man da widerspricht,

00:42:14.382 --> 00:42:17.742
<v Ralf Bendrath>heißt das, dass der Arzt gar nicht mehr meine Akten elektronisch führen kann,

00:42:17.902 --> 00:42:19.602
<v Ralf Bendrath>sondern wieder auf Papier zurück muss.

00:42:19.762 --> 00:42:22.962
<v Ralf Bendrath>Das war natürlich dann so, nee, Quatsch. Natürlich kann der Arzt seinen lokalen

00:42:22.962 --> 00:42:26.982
<v Ralf Bendrath>Rechner haben. Wir sind 2024 heutzutage.

00:42:27.322 --> 00:42:29.462
<v Ralf Bendrath>Nur die sollen nicht vernetzt sein.

00:42:29.962 --> 00:42:32.662
<v Ralf Bendrath>Wenn man als Patient vielleicht besondere Sicherheitsbedürfnisse hat,

00:42:32.662 --> 00:42:35.822
<v Ralf Bendrath>weil man auch mal eine psychologische Behandlung hatte oder andere Sachen oder

00:42:35.822 --> 00:42:39.102
<v Ralf Bendrath>eine Abtreibung oder so, will man einfach, dass das nur beim Arzt in der Praxis

00:42:39.102 --> 00:42:40.462
<v Ralf Bendrath>liegt und nicht vernetzt ist.

00:42:40.582 --> 00:42:44.342
<v Ralf Bendrath>Nicht irgendwie vielleicht auch sogar Angreifer da rangehen können oder so mit

00:42:44.342 --> 00:42:47.082
<v Ralf Bendrath>IT-Sicherheitslücken. Obwohl, die sind ja jetzt alle weg mit dem Cyber-Resilienz-Experiment.

00:42:48.722 --> 00:42:49.442
<v Tim Pritlove>Gott sei Dank.

00:42:49.442 --> 00:42:52.682
<v Ralf Bendrath>So, das ist das erste, primäre Nutzung.

00:42:52.782 --> 00:42:56.702
<v Ralf Bendrath>Das zweite ist die sekundäre Nutzung und das ist für uns das Riesenproblem,

00:42:57.022 --> 00:43:01.722
<v Ralf Bendrath>weil es gibt eigentlich jetzt seit über 2400 Jahren den hypokratischen Eid,

00:43:01.742 --> 00:43:07.462
<v Ralf Bendrath>den Ärzte ablegen müssen und der beinhaltet unter anderem die ärztliche Schweigepflicht

00:43:07.462 --> 00:43:09.022
<v Ralf Bendrath>oder das Patientengeheimnis.

00:43:09.022 --> 00:43:13.102
<v Ralf Bendrath>Dass einfach das, was ich mit meinem Arzt bespreche, zwischen uns bleibt und

00:43:13.102 --> 00:43:14.282
<v Ralf Bendrath>ich darauf vertrauen kann.

00:43:14.602 --> 00:43:18.882
<v Ralf Bendrath>Was jetzt hier vorgesehen ist, ist, dass die Gesundheitsdaten,

00:43:18.882 --> 00:43:23.262
<v Ralf Bendrath>sofern sie vernetzt verfügbar sind, auch für andere Zwecke genutzt werden können.

00:43:23.842 --> 00:43:28.422
<v Ralf Bendrath>Das geht dann vor allem um Forschung. Natürlich Big Pharma hat da auch ein Rieseninteresse

00:43:28.422 --> 00:43:32.982
<v Ralf Bendrath>dran, aber auch öffentliches Gesundheitsmanagement, zum Beispiel in Zeiten von

00:43:32.982 --> 00:43:37.642
<v Ralf Bendrath>Pandemien, Infektionstracing, solche Geschichten, was ja teilweise die Gesundheitsämter

00:43:37.642 --> 00:43:38.442
<v Ralf Bendrath>auch heute schon machen.

00:43:38.522 --> 00:43:42.662
<v Ralf Bendrath>Es gibt ja Sachen, wo die ärztliche Schweigepflicht unterbunden wird durch Gesetz,

00:43:42.902 --> 00:43:45.622
<v Ralf Bendrath>bei meldepflichtigen Krankheiten und so, wie es zum Beispiel Corona auch war.

00:43:47.310 --> 00:43:50.190
<v Ralf Bendrath>Und da war jetzt aber die Riesenfrage bis zum Schluss oder ist immer noch,

00:43:50.310 --> 00:43:53.210
<v Ralf Bendrath>das Parlament wollte hier aber dann mindestens sagen, dann sollen die Leute

00:43:53.210 --> 00:43:54.850
<v Ralf Bendrath>aber zumindest ein Widerspruchsrecht haben.

00:43:55.730 --> 00:43:59.590
<v Ralf Bendrath>Dass ich sagen kann, meine Patientendaten sollen bitte für Forschung oder so

00:43:59.590 --> 00:44:00.590
<v Ralf Bendrath>nicht bereitgestellt werden.

00:44:03.570 --> 00:44:06.610
<v Ralf Bendrath>Die Mitgliedstaaten haben jetzt, die belgische Ratspräsidentschaft hat wirklich

00:44:06.610 --> 00:44:09.050
<v Ralf Bendrath>versucht, das irgendwie zu berücksichtigen.

00:44:09.350 --> 00:44:12.390
<v Ralf Bendrath>Das war für das Parlament sozusagen die eine große rote Linie die ganze Zeit.

00:44:12.410 --> 00:44:15.850
<v Ralf Bendrath>Wir haben ganz viele andere kleinere Sachen aufgegeben, um dieses Opt-out zu

00:44:15.850 --> 00:44:17.730
<v Ralf Bendrath>kriegen für sekundäre Nutzung.

00:44:18.150 --> 00:44:20.730
<v Ralf Bendrath>Aber die Mitgliedstaaten stellen sich jetzt auf stur und sagen,

00:44:20.870 --> 00:44:24.750
<v Ralf Bendrath>nö, wir wollen einfach alle Daten und man kann gerne ein Opt-out machen,

00:44:24.970 --> 00:44:28.990
<v Ralf Bendrath>aber dann gibt es für die Mitgliedstaaten dann das Recht, wieder das Opt-out zu überschreiben.

00:44:29.470 --> 00:44:32.210
<v Ralf Bendrath>Also das gilt dann einfach nicht. Und das sind dann auch für Zwecke,

00:44:32.250 --> 00:44:37.410
<v Ralf Bendrath>wo ich mich frage, braucht es dazu wirklich immer alle Daten?

00:44:37.890 --> 00:44:44.130
<v Ralf Bendrath>Unter anderem für öffentliche Institutionen, die ein Mandat im Bereich der öffentlichen

00:44:44.130 --> 00:44:48.710
<v Ralf Bendrath>Gesundheit haben oder sogar private Institutionen, die eine Aufgabe im Bereich

00:44:48.710 --> 00:44:49.970
<v Ralf Bendrath>der öffentlichen Gesundheit haben.

00:44:50.630 --> 00:44:53.190
<v Ralf Bendrath>Gut, da könnte man vielleicht noch drüber streiten, ob man das ein bisschen

00:44:53.190 --> 00:44:55.030
<v Ralf Bendrath>enger fasst und dann ist es vielleicht noch akzeptabel.

00:44:55.170 --> 00:44:59.150
<v Ralf Bendrath>Der Parlamentsvorschlag war jetzt, dass man das nur in Situationen von öffentlicher

00:44:59.150 --> 00:45:02.810
<v Ralf Bendrath>medizinischer Notlage oder Notlage der öffentlichen Gesundheit machen kann.

00:45:03.450 --> 00:45:05.790
<v Ralf Bendrath>So eine ähnliche Regelung haben wir schon im Data Act zum Beispiel.

00:45:06.610 --> 00:45:11.570
<v Ralf Bendrath>Dann wollen sie aber auch noch alle möglichen Research, medizinische Produktentwicklung

00:45:11.570 --> 00:45:15.170
<v Ralf Bendrath>medizinische Geräteentwicklung also die haben sie bisher auch so entwickeln

00:45:15.170 --> 00:45:20.190
<v Ralf Bendrath>können ohne dass man von allen Patienten die Daten abgegriffen hat und das letzte ist auch Statistiken.

00:45:21.370 --> 00:45:26.330
<v Ralf Bendrath>Nationale, multinationale und EU-Level offizielle Statistiken ich meine Statistiker

00:45:26.330 --> 00:45:30.070
<v Ralf Bendrath>können seit über 100 Jahren mit unvollständigen Datensätzen umgehen,

00:45:30.150 --> 00:45:33.530
<v Ralf Bendrath>das ist deren Job da dann irgendwie die Bias so rauszurechnen,

00:45:35.455 --> 00:45:38.855
<v Ralf Bendrath>Ja, so sieht es aus. Das ist das letzte Angebot, was die Kommission jetzt auf

00:45:38.855 --> 00:45:42.355
<v Ralf Bendrath>den Tisch vorgelegt hat als Quote-Unquote-Kompromiss.

00:45:42.895 --> 00:45:47.635
<v Ralf Bendrath>Das geht morgen Abend in den letzten Trilog. Heute war nochmal ein Treffen der

00:45:47.635 --> 00:45:50.315
<v Ralf Bendrath>Schattenberichterstatter vom Parlament von den verschiedenen Fraktionen.

00:45:50.315 --> 00:45:56.495
<v Ralf Bendrath>Und es sieht so aus, dass die Mehrheit, zumindest eine Mehrheit aus EVP,

00:45:56.795 --> 00:46:02.335
<v Ralf Bendrath>EKR, also die europakritischeren Konservativen und Sozialdemokraten,

00:46:02.335 --> 00:46:04.115
<v Ralf Bendrath>das so akzeptieren will.

00:46:04.675 --> 00:46:07.275
<v Ralf Bendrath>Und im Prinzip alles aufgibt, was wir die ganze Zeit gesagt haben.

00:46:07.435 --> 00:46:10.855
<v Ralf Bendrath>Hier, wir geben euch die ganzen anderen Sachen nur, wenn wir dieses eine Opt-out

00:46:10.855 --> 00:46:11.875
<v Ralf Bendrath>kriegen, aber dann auch richtig.

00:46:12.315 --> 00:46:15.655
<v Ralf Bendrath>Und am Ende werden wohl nur die Grünen und die Linken dagegen stimmen.

00:46:16.435 --> 00:46:20.295
<v Ralf Bendrath>ID ist noch ein bisschen unklar. Die würden normalerweise als gute Populisten

00:46:20.295 --> 00:46:23.135
<v Ralf Bendrath>auch irgendwie auf den Zug aufspringen und sagen, da sind wir dagegen.

00:46:23.375 --> 00:46:25.695
<v Ralf Bendrath>Wir verkaufen nicht unsere Gesundheitsdaten an Big Pharma.

00:46:25.995 --> 00:46:29.395
<v Ralf Bendrath>Aber die haben zufälligerweise die Berichterstatterin, Liebe Ausschuss,

00:46:30.095 --> 00:46:31.275
<v Ralf Bendrath>weil das sonst niemand wollte.

00:46:31.335 --> 00:46:34.375
<v Ralf Bendrath>Und das ist per Dehont bei denen gelandet. Und da sehe ich jetzt nicht,

00:46:34.435 --> 00:46:37.355
<v Ralf Bendrath>dass die da großen Rückzieher macht, wenn sie selber Co-Berichterstatterin ist. ist.

00:46:38.235 --> 00:46:42.655
<v Ralf Bendrath>Aber verhandelt wurde es im Prinzip alles von dem EVP Berichterstatter im Umwelt-

00:46:42.655 --> 00:46:43.735
<v Ralf Bendrath>und Gesundheitsausschuss.

00:46:46.035 --> 00:46:48.635
<v Ralf Bendrath>Ja, das ist das. Morgen Abend geht das den Bach runter.

00:46:49.615 --> 00:46:54.815
<v Thomas Lohninger>Ja, noch nicht. Also gibt man einen Brief, aber ich wiederhole jetzt nochmal oder fasse zusammen.

00:46:55.255 --> 00:47:00.915
<v Thomas Lohninger>Also wir haben ein EU-Gesetz, das die Digitalisierung von allen Patientinnenakten

00:47:00.915 --> 00:47:03.035
<v Thomas Lohninger>und wahrscheinlich auch sonstigen.

00:47:03.935 --> 00:47:08.355
<v Thomas Lohninger>Gesundheitsbezogenen Daten aus dem in Krankenhäusern, Arztpraxen und sonstigen

00:47:08.355 --> 00:47:10.375
<v Thomas Lohninger>Einrichtungen miteinander vernetzt.

00:47:10.855 --> 00:47:16.315
<v Thomas Lohninger>Opt-out oder Opt-in kann es geben, wenn der Mitgliedstaat das vorsieht für diese Primärnutzung.

00:47:16.715 --> 00:47:19.975
<v Thomas Lohninger>Aber bei der Sekundärnutzung, die eigentlich ja die kritischere ist,

00:47:20.095 --> 00:47:24.655
<v Thomas Lohninger>weil da geht es nicht nur um das Gesundheitssystem, sondern da geht es um Forschung.

00:47:24.695 --> 00:47:28.355
<v Thomas Lohninger>Und das heißt auch pharmakologische Forschung. Das heißt auch,

00:47:28.455 --> 00:47:33.795
<v Thomas Lohninger>dass hier ganz viele andere Interessenträger auf einmal Zugriff auf sehr sensible Daten bekommen.

00:47:33.795 --> 00:47:39.615
<v Thomas Lohninger>Wir haben auch schon mehrmals diskutiert, dass solche Gesundheitsdaten sehr

00:47:39.615 --> 00:47:45.895
<v Thomas Lohninger>schwer bis gar nicht zu anonymisieren sind, weil das ist einfach sehr einzigartig bei Menschen.

00:47:46.095 --> 00:47:49.115
<v Thomas Lohninger>Wenn ich als Arbeitgeber weiß, wenn du im Krankenstand bist,

00:47:49.255 --> 00:47:51.655
<v Thomas Lohninger>wenn du geimpft wurdest oder du das auf Social Media postest,

00:47:51.715 --> 00:47:53.675
<v Thomas Lohninger>finde ich dich wieder in diesen Datensets.

00:47:53.675 --> 00:47:58.035
<v Thomas Lohninger>Es gibt dazu auch eine Klage meines Wissens von der GFF,

00:47:58.395 --> 00:48:02.575
<v Thomas Lohninger>die da auch in Deutschland höchstgerichtlich dagegen vorgehen,

00:48:02.655 --> 00:48:07.275
<v Thomas Lohninger>gegen diese Sekundärnutzung anhand von einem Menschen, der halt sehr einzigartige

00:48:07.275 --> 00:48:12.235
<v Thomas Lohninger>Blutwerte oder sonstige Werte hat und da auch sehr leicht zu reidentifizieren ist.

00:48:13.055 --> 00:48:17.115
<v Thomas Lohninger>Das halte ich für eine ganz große Gefahr. Das ist vielleicht auch nochmal zu

00:48:17.115 --> 00:48:22.515
<v Thomas Lohninger>sagen, das hier ist so eine sogenannte Lex Spezialis zur DSGVO, oder?

00:48:22.615 --> 00:48:28.935
<v Thomas Lohninger>Das etabliert eine Ausnahme von unserem Grundrecht auf Datenschutz für diesen eigenen Bereich hier.

00:48:29.595 --> 00:48:31.275
<v Thomas Lohninger>Und ich meine...

00:48:32.849 --> 00:48:37.489
<v Thomas Lohninger>Also morgen wird das sozusagen, kannst du da vielleicht auch mal aus dem Nähkästchen

00:48:37.489 --> 00:48:41.589
<v Thomas Lohninger>plaudern, wie läuft denn sowas ab, so eine Trilog-Sitzung, also wie viele Leute

00:48:41.589 --> 00:48:47.149
<v Thomas Lohninger>sind da im Raum, wie lange wird da verhandelt, was erwartet dich da morgen?

00:48:47.949 --> 00:48:52.349
<v Ralf Bendrath>Morgen könnte es relativ schnell gehen. Also der letzte Trilog letzten Donnerstagabend,

00:48:52.369 --> 00:48:56.029
<v Ralf Bendrath>der hat um 18 Uhr angefangen, war ungefähr morgens um fünf zu Ende ohne Ergebnis,

00:48:56.389 --> 00:48:58.369
<v Ralf Bendrath>weil das Parlament da noch die Linie gehalten hat.

00:48:59.049 --> 00:49:02.349
<v Ralf Bendrath>Und jetzt haben aber alle Fraktionen intern nochmal geguckt,

00:49:02.409 --> 00:49:06.089
<v Ralf Bendrath>sind wir noch ein bisschen flexibler oder so. Die Mitgliedstaaten dagegen haben nicht geguckt.

00:49:06.189 --> 00:49:08.369
<v Ralf Bendrath>Es gab heute noch mal Sitzung der Botschafter.

00:49:09.009 --> 00:49:10.929
<v Ralf Bendrath>Da war das Thema gar nicht auf der Tagesordnung.

00:49:12.109 --> 00:49:15.349
<v Ralf Bendrath>Also die Belgier haben gar nicht erst versucht, noch mehr Flexibilität für sich

00:49:15.349 --> 00:49:17.189
<v Ralf Bendrath>selber zu kriegen, sondern haben nur gesagt, hier, liebes Parlament,

00:49:17.449 --> 00:49:20.129
<v Ralf Bendrath>wenn ihr noch mal flexibler werdet, dann können wir es nächste Woche noch mal versuchen.

00:49:20.249 --> 00:49:25.869
<v Ralf Bendrath>Weil morgen ist sozusagen die letzte Deadline, um vor der Europawahl noch ein Gesetz abzuschließen.

00:49:26.029 --> 00:49:29.249
<v Ralf Bendrath>Weil das dann alles noch irgendwie sprachlich aufgeräumt werden und noch abgestimmt

00:49:29.249 --> 00:49:29.989
<v Ralf Bendrath>werden muss und so weiter.

00:49:30.849 --> 00:49:36.229
<v Ralf Bendrath>Also morgen kann es relativ schnell gehen. Da sitzt dann normalerweise der belgische

00:49:36.229 --> 00:49:40.289
<v Ralf Bendrath>Minister, Gesundheitsminister, die Berichterstatter vom Parlament,

00:49:40.629 --> 00:49:44.629
<v Ralf Bendrath>vielleicht noch ein Vorsitzender oder Vize-Vorsitzender vom Umweltausschuss.

00:49:45.289 --> 00:49:48.989
<v Ralf Bendrath>Der Vorsitzende vom Innenausschuss kommt zu solchen Verhandlungen nie,

00:49:49.249 --> 00:49:52.809
<v Ralf Bendrath>obwohl das könnte. Das ist aber ganz gut so, weil der ist immer so ein bisschen verwirrt.

00:49:53.429 --> 00:49:57.429
<v Ralf Bendrath>Der könnte da nur Unsinn reinbringen. Und dann sitzen da halt noch die Kommission,

00:49:57.589 --> 00:49:58.809
<v Ralf Bendrath>das ist dann wahrscheinlich die Kommissarin,

00:49:59.029 --> 00:50:02.929
<v Ralf Bendrath>Kiria Kiedis, die Gesundheitskommissarin, und alle Fraktionen,

00:50:02.929 --> 00:50:07.709
<v Ralf Bendrath>manche mit Abgeordneten richtig vertreten, viele aber, weil jetzt gerade Straßburg-Woche

00:50:07.709 --> 00:50:10.349
<v Ralf Bendrath>war und die schon längst ihre Flüge nach Hause gebucht hatten in die ganzen

00:50:10.349 --> 00:50:12.789
<v Ralf Bendrath>Mitgliedstaaten und so, die werden jetzt nicht morgen alle nach Brüssel fahren.

00:50:13.509 --> 00:50:16.749
<v Ralf Bendrath>Also von uns wird auch keiner dabei sein, weil die alle Verpflichtungen schon woanders hatten.

00:50:17.129 --> 00:50:21.209
<v Ralf Bendrath>Aber dann sitze halt ich da mit meiner Kollegin aus dem Umwelt- und Gesundheitsausschuss,

00:50:21.209 --> 00:50:25.129
<v Ralf Bendrath>unserem digitalen Koordinator, der Nachfolger von Arneka an dem Job,

00:50:25.269 --> 00:50:28.669
<v Ralf Bendrath>Francesco, noch ein paar Abgeordneten, Mitarbeitende.

00:50:29.869 --> 00:50:35.069
<v Ralf Bendrath>Juristische Dienste sind da immer vertreten, oft auch die Sprachjuristen. Das sind dann so...

00:50:36.491 --> 00:50:41.011
<v Ralf Bendrath>20 bis 30 Leute vielleicht in so einem Setting. Und reden tun aber eigentlich

00:50:41.011 --> 00:50:44.231
<v Ralf Bendrath>nur der Rapporteur, also der Berichterstatter,

00:50:44.411 --> 00:50:49.971
<v Ralf Bendrath>in diesem Fall eigentlich in der Regel der ENVI, also Gesundheits- und Umweltausschuss-Rapporteur

00:50:49.971 --> 00:50:54.491
<v Ralf Bendrath>von den Konservativen, der belgische Minister und die Kommissarin. darin.

00:50:54.991 --> 00:50:58.271
<v Ralf Bendrath>Und dann gibt es manchmal so Punkte, wo man dann sagt, okay,

00:50:58.451 --> 00:51:01.031
<v Ralf Bendrath>das Parlament muss sich mal kurz zurückziehen,

00:51:01.291 --> 00:51:05.091
<v Ralf Bendrath>dann gibt es nebenan irgendeinen sogenannten Breakout-Room, wo dann sogar so

00:51:05.091 --> 00:51:07.711
<v Ralf Bendrath>ein Patrick Breyer zum Beispiel, der das für uns auf der Datenschutzseite macht,

00:51:07.891 --> 00:51:13.151
<v Ralf Bendrath>sich online dazuschalten kann und dann wird halt intern in einer Parlamentsdelegation

00:51:13.151 --> 00:51:16.131
<v Ralf Bendrath>beraten, okay, Leute, wir haben jetzt hier ein neues Angebot von den Belgiern,

00:51:16.271 --> 00:51:19.911
<v Ralf Bendrath>können wir das irgendwie mittragen oder ist das immer noch nicht gut genug,

00:51:20.151 --> 00:51:22.011
<v Ralf Bendrath>können wir einen Gegenvorschlag machen oder so.

00:51:22.011 --> 00:51:24.191
<v Ralf Bendrath>Und dann müssen halt sozusagen die Fraktionen der Reihe nach sagen,

00:51:24.351 --> 00:51:25.891
<v Ralf Bendrath>wie weit sie gehen können.

00:51:26.051 --> 00:51:28.371
<v Ralf Bendrath>Und dann muss der Berichterstatter gucken, wie er damit umgeht,

00:51:28.451 --> 00:51:31.751
<v Ralf Bendrath>ob er jetzt eine Mehrheit findet für den Kompromiss oder nicht.

00:51:32.131 --> 00:51:34.271
<v Ralf Bendrath>Manchmal gibt es auch Situationen, wo der Berichterstatter einfach sagt,

00:51:34.371 --> 00:51:37.911
<v Ralf Bendrath>ich habe jetzt hier keine klare Mehrheit, ich lasse es einfach darauf ankommen.

00:51:38.071 --> 00:51:40.791
<v Ralf Bendrath>Wir nehmen das Ding jetzt mal so an und gehen damit in die Ausschüsse und dann

00:51:40.791 --> 00:51:44.251
<v Ralf Bendrath>ins Plenum und gucken, ob wir eine Mehrheit kriegen. Das ist aber eher selten.

00:51:45.608 --> 00:51:48.988
<v Ralf Bendrath>Das kann aber teilweise bei komplexeren Gesetzen, hier sind jetzt noch ein paar

00:51:48.988 --> 00:51:51.808
<v Ralf Bendrath>Fragen offen, unter anderem auch die Frage der Lokalisierung,

00:51:52.108 --> 00:51:55.588
<v Ralf Bendrath>weil das EP die Daten in Europa speichern wollte und nicht irgendwo auswärts.

00:51:56.128 --> 00:51:59.868
<v Ralf Bendrath>Und der Rat sagt aber, nee, nach DSPVO kann man die doch auch in den USA transferieren,

00:52:00.048 --> 00:52:03.988
<v Ralf Bendrath>weil da gibt es ja eine Angemessenheitsentscheidung und so. Also das sind aber

00:52:03.988 --> 00:52:06.088
<v Ralf Bendrath>nur vier, fünf Punkte, die noch offen sind.

00:52:06.188 --> 00:52:10.068
<v Ralf Bendrath>Die kann man morgen relativ schnell abkaspern, weil eigentlich fast alle außer

00:52:10.068 --> 00:52:13.868
<v Ralf Bendrath>uns und den Linken schon angedeutet haben heute Morgen, dass sie da mitgehen können.

00:52:15.108 --> 00:52:18.928
<v Ralf Bendrath>Es gibt auch andere Beispiele. Da können wir vielleicht gleich zum AI-Act noch

00:52:18.928 --> 00:52:21.748
<v Ralf Bendrath>was zu erzählen, weil da haben wir, glaube ich, den bisher längsten Trilog gehabt.

00:52:21.848 --> 00:52:23.648
<v Ralf Bendrath>Der hat insgesamt 39 Stunden gedauert.

00:52:25.248 --> 00:52:27.908
<v Thomas Lohninger>Darauf kommen wir gleich. Aber ich will nur kurz innehalten,

00:52:28.028 --> 00:52:31.268
<v Thomas Lohninger>dass das so kurz vor einer Europawahl ziemlicher Wahnsinn ist,

00:52:31.268 --> 00:52:35.828
<v Thomas Lohninger>als hier eine Massenenteilung von Gesundheitsdaten irgendwie auf den Weg zu

00:52:35.828 --> 00:52:38.308
<v Thomas Lohninger>bringen. Also eigentlich müsste das doch morgen scheitern.

00:52:39.168 --> 00:52:42.368
<v Thomas Lohninger>Und wenn es das nicht im Trilog tut, dann hätte man nur noch die Chance,

00:52:42.468 --> 00:52:46.268
<v Thomas Lohninger>das im Plenum in zweiter Lesung zu verhindern, oder?

00:52:46.688 --> 00:52:50.308
<v Ralf Bendrath>In erster Lesung. Wir sind noch im First Reading Procedure. Es geht dann also

00:52:50.308 --> 00:52:54.188
<v Ralf Bendrath>jetzt Ende April ins Plenum, ja. Das letzte Plenum vor der Europawahl.

00:52:54.488 --> 00:52:57.188
<v Ralf Bendrath>Da könnte man noch einen Antrag stellen, das muss man gar nicht,

00:52:57.188 --> 00:52:58.248
<v Ralf Bendrath>man kann auch dagegen stimmen.

00:52:58.308 --> 00:53:00.888
<v Ralf Bendrath>Und wenn eine Mehrheit der Abgeordneten dagegen stimmt, dann ist es tot,

00:53:01.008 --> 00:53:02.868
<v Ralf Bendrath>klar. Aber das sehe ich einfach nicht.

00:53:03.808 --> 00:53:06.788
<v Ralf Bendrath>Aber macht gerne Kampagne. Wir sind dabei.

00:53:07.908 --> 00:53:10.048
<v Tim Pritlove>Vielleicht hilft ja die German Vote am Ende.

00:53:11.728 --> 00:53:14.048
<v Ralf Bendrath>Nee, in dem Fall hat Deutschland damit kein Problem.

00:53:14.288 --> 00:53:14.628
<v Tim Pritlove>Okay.

00:53:17.148 --> 00:53:20.508
<v Ralf Bendrath>Das war eher so, dass man irgendwie dann aus Verhandlerkreisen im Rat hört,

00:53:21.328 --> 00:53:25.408
<v Ralf Bendrath>dass die deutschen Vertreter oder Vertreterinnen einer Ratsarbeitsgruppe, das ist ja SPD,

00:53:25.668 --> 00:53:31.388
<v Ralf Bendrath>Lauterbach, Gesundheitsminister, dass die sich dann abschätzig über den Bundesdatenschutzbeauftragten

00:53:31.388 --> 00:53:35.628
<v Ralf Bendrath>Ulrich Kelber äußern, der auch SPD-Mitglied ist, weil die sich anscheinend mit

00:53:35.628 --> 00:53:39.348
<v Ralf Bendrath>dem inzwischen so überworfen haben, dass sie über ihn nur noch schlecht reden können.

00:53:40.368 --> 00:53:42.008
<v Ralf Bendrath>Also unsäglich.

00:53:44.695 --> 00:53:48.075
<v Ralf Bendrath>Vielleicht noch kurz eine Klarstellung, damit das nicht in den falschen Hals kommt.

00:53:48.695 --> 00:53:51.475
<v Ralf Bendrath>Es ist schon so, das muss man auch anerkennen, dass die Daten,

00:53:51.595 --> 00:53:55.075
<v Ralf Bendrath>wenn sie für sekundäre Nutzung freigegeben werden, da muss erst ein Antrag gestellt

00:53:55.075 --> 00:53:58.435
<v Ralf Bendrath>werden und die sogenannten Health Data Access Bodies, also in der Regel irgendwelche

00:53:58.435 --> 00:54:01.515
<v Ralf Bendrath>Abteilungen im Gesundheitsministerium oder so, müssen das dann genehmigen.

00:54:02.255 --> 00:54:05.695
<v Ralf Bendrath>Die Daten werden dann nicht einfach an Big Pharma übermittelt,

00:54:05.715 --> 00:54:10.435
<v Ralf Bendrath>so als riesengroßer Patentendatensatz, sondern die werden nur von dem Health

00:54:10.435 --> 00:54:15.155
<v Ralf Bendrath>Data Access Body in einem sicheren Processing, in einer sicheren,

00:54:17.495 --> 00:54:21.155
<v Ralf Bendrath>Datenverarbeitungsumgebung, Secure Processing Environment, bereitgestellt und

00:54:21.155 --> 00:54:25.055
<v Ralf Bendrath>da muss sozusagen dann der Antragsteller kommen und seinen Algorithmus zu den

00:54:25.055 --> 00:54:27.735
<v Ralf Bendrath>Daten bringen. Der kriegt aber die Daten nicht mit nach Hause geliefert.

00:54:28.235 --> 00:54:33.035
<v Ralf Bendrath>Also die Daten gehen sozusagen nicht raus, Aber es sind natürlich trotzdem meine

00:54:33.035 --> 00:54:36.155
<v Ralf Bendrath>Daten und ich als Patient will selber entscheiden können, ob die irgendjemand

00:54:36.155 --> 00:54:39.735
<v Ralf Bendrath>für Forschungszwecke oder so verarbeiten kann, egal wo und unter welchen Umständen.

00:54:41.235 --> 00:54:47.555
<v Tim Pritlove>Alright. Gut, dann schlage ich mal vor, schlage mal hier das Buch erstmal zu,

00:54:47.555 --> 00:54:55.575
<v Tim Pritlove>zu dem Thema und kommen auf unseren Kernthema, der AI-Act. Perfekt.

00:54:55.695 --> 00:55:00.595
<v Tim Pritlove>Und Annika, da bist du ja sehr engagiert gewesen, wenn ich das richtig verstanden habe.

00:55:00.995 --> 00:55:04.115
<v Tim Pritlove>Kannst du vielleicht mal anfangen und nochmal kurz erläutern,

00:55:04.115 --> 00:55:06.895
<v Tim Pritlove>was so die Genese dieses Acts war?

00:55:07.035 --> 00:55:13.275
<v Tim Pritlove>Also was genau ist hier der Trigger gewesen, damit es überhaupt dazu kam?

00:55:13.595 --> 00:55:18.415
<v Tim Pritlove>Und was sind sozusagen die politischen Zielsetzungen, die sich hier letzten

00:55:18.415 --> 00:55:19.935
<v Tim Pritlove>Endes Bahn gebrochen haben?

00:55:21.862 --> 00:55:27.802
<v Arnika Zinke>Also vielleicht mag Ralf die Genese kurz machen, weil ich möchte nicht über

00:55:27.802 --> 00:55:30.382
<v Arnika Zinke>eine Zeit reden, wo ich noch nicht da war und Ralf war schon dabei.

00:55:30.962 --> 00:55:33.882
<v Arnika Zinke>Deswegen kann Ralf vielleicht kurz die Genese machen und ich kann das Gesetz

00:55:33.882 --> 00:55:37.282
<v Arnika Zinke>kurz erklären dann und was alles dann während der Verhandlungen passiert ist.

00:55:37.282 --> 00:55:41.882
<v Ralf Bendrath>Das fing schon vor ein paar Jahren an, ich glaube nach einer letzten Legislatur

00:55:41.882 --> 00:55:47.122
<v Ralf Bendrath>sogar, da gab es einen Initiativbericht im Rechtsausschuss von Mehdi Delvaux

00:55:47.122 --> 00:55:51.402
<v Ralf Bendrath>aus Irland, der hieß zu Robotics and Civil Liability.

00:55:51.862 --> 00:55:56.722
<v Ralf Bendrath>Da wurde unter anderem diskutiert, ob wenn ein Roboter oder eine KI selbstständig

00:55:56.722 --> 00:56:02.402
<v Ralf Bendrath>Entscheidungen trifft, ob die dann nicht auch selber wie eine Art juristische

00:56:02.402 --> 00:56:05.882
<v Ralf Bendrath>Person werden sollte, die dann auch Verantwortlichkeit dafür kriegt und sowas.

00:56:06.222 --> 00:56:08.642
<v Ralf Bendrath>Wo dann zum Glück am Ende der Diskussion rauskam, nein, ganz klar,

00:56:08.722 --> 00:56:10.462
<v Ralf Bendrath>die Verantwortung liegt immer bei einem Menschen.

00:56:10.702 --> 00:56:12.702
<v Ralf Bendrath>Eine KI kann nicht für irgendwas verantwortlich gemacht werden.

00:56:12.762 --> 00:56:15.522
<v Ralf Bendrath>Die kann ja auch nicht in den Knast gehen oder so. Jemand würde das nichts ausmachen.

00:56:16.762 --> 00:56:20.902
<v Ralf Bendrath>Aber die hatte einen ganz schönen Einstieg damals in ihren Erwägungsgründen.

00:56:21.042 --> 00:56:25.582
<v Ralf Bendrath>Da stand dann unter anderem drin, dass vom klassischen Pygmalion-Mythos der

00:56:25.582 --> 00:56:31.482
<v Ralf Bendrath>Antike über Frankensteins Monster von Mary Shelley und der Prager Golem-Legende

00:56:31.482 --> 00:56:33.722
<v Ralf Bendrath>bis zum Roboter von Karel Čapek,

00:56:33.922 --> 00:56:37.362
<v Ralf Bendrath>der dieses Wort geprägt hat, Menschen über die Möglichkeit fantasiert haben,

00:56:37.482 --> 00:56:39.002
<v Ralf Bendrath>intelligente Maschinen zu bauen.

00:56:39.162 --> 00:56:41.662
<v Ralf Bendrath>In den meisten Fällen Androiden mit menschlichen Zügen.

00:56:42.182 --> 00:56:44.622
<v Ralf Bendrath>Fand ich mal einen schönen Einstieg in so einen Initiativbericht,

00:56:44.702 --> 00:56:45.902
<v Ralf Bendrath>so ein bisschen poetischer als normal.

00:56:47.382 --> 00:56:50.722
<v Ralf Bendrath>So, und dann ging so ein bisschen hier überall, das hieß damals teilweise noch

00:56:50.722 --> 00:56:53.962
<v Ralf Bendrath>Big Data, wurde überall darüber diskutiert, dass man jetzt Möglichkeiten hat,

00:56:54.042 --> 00:56:58.402
<v Ralf Bendrath>mit den großen Datenmengen auch viele Maschinen zu trainieren und damit lustige Sachen zu machen.

00:56:59.042 --> 00:57:02.702
<v Ralf Bendrath>Und dann hat die Kommission, die hatte vorher noch so eine High-Level-Expert-Group

00:57:02.702 --> 00:57:06.282
<v Ralf Bendrath>eingerichtet und so weiter, dann hat die Kommission angekündigt,

00:57:06.342 --> 00:57:10.602
<v Ralf Bendrath>sie werden ein Gesetz vorlegen zum Thema KI-Regulierung, das erste weltweit.

00:57:10.602 --> 00:57:14.442
<v Ralf Bendrath>Und dann wurde hier plötzlich hektische Betriebsamkeit ausgelöst.

00:57:14.462 --> 00:57:18.582
<v Ralf Bendrath>Da haben, glaube ich, in sieben Ausschüssen wurden dann Initiativberichte gemacht,

00:57:18.882 --> 00:57:24.882
<v Ralf Bendrath>also von Grundrechteaspekten über Bildung bis hin zu Sicherheit und Verteidigung

00:57:24.882 --> 00:57:28.082
<v Ralf Bendrath>und so, wo überall KI vielleicht eine Rolle spielen könnte und was man da machen sollte.

00:57:28.082 --> 00:57:32.102
<v Ralf Bendrath>Und parallel gab es noch einen Sonderausschuss zum Thema KI,

00:57:32.302 --> 00:57:35.202
<v Ralf Bendrath>wo Axel Voss von der CDU Berichterstatter war.

00:57:35.462 --> 00:57:38.982
<v Ralf Bendrath>Auch ein bisschen bescheuerte Doppelarbeit. Da macht man sieben Initiativberichte

00:57:38.982 --> 00:57:41.042
<v Ralf Bendrath>parallel und noch einen Sonderausschuss parallel.

00:57:41.262 --> 00:57:44.062
<v Ralf Bendrath>Aber irgendwie wollte die Mehrheit im Haus das so.

00:57:45.102 --> 00:57:49.102
<v Ralf Bendrath>Und Axel Voss hat dann in seinem Berichtsentwurf versucht, so ein bisschen auch

00:57:49.102 --> 00:57:52.582
<v Ralf Bendrath>Mady Delvaux mit ihrem Roboterbericht zu imitieren, in dem auch ein bisschen

00:57:52.582 --> 00:57:55.382
<v Ralf Bendrath>poetisch wurde. Aber der hat dann einfach nur Unsinn reingeschrieben.

00:57:55.642 --> 00:57:59.582
<v Ralf Bendrath>Da stand dann zum Beispiel drin, dass KI das fünfte Element sein wird,

00:57:59.762 --> 00:58:04.042
<v Ralf Bendrath>neben Erde, Wind, Feuer und Wasser, was uns immer umgeben wird und so.

00:58:05.042 --> 00:58:07.442
<v Thomas Lohninger>Schon fast homöopathisch, okay. Okay.

00:58:09.142 --> 00:58:13.462
<v Ralf Bendrath>Also, naja, und dann kam der Kommissionsvorschlag für das Gesetz,

00:58:13.582 --> 00:58:14.962
<v Ralf Bendrath>das war etwa vor drei Jahren, ne?

00:58:16.768 --> 00:58:18.008
<v Ralf Bendrath>Annika, ich weiß gerade gar nicht mehr.

00:58:18.028 --> 00:58:21.008
<v Arnika Zinke>Ja, vor drei Jahren im April 2021. Genau.

00:58:21.408 --> 00:58:25.948
<v Ralf Bendrath>Dann kam der Vorschlag und dann hat relativ schnell der Justizausschuss Axel

00:58:25.948 --> 00:58:28.668
<v Ralf Bendrath>Voss zum Berichterstatter gemacht für die Gesetzgebung.

00:58:29.308 --> 00:58:32.668
<v Ralf Bendrath>Und dann haben aber alle anderen Fraktionen sich plötzlich zusammengetan und

00:58:32.668 --> 00:58:38.748
<v Ralf Bendrath>haben eine neue Fraktion gegründet, die sogenannte ABV Group, Anybody But Voss.

00:58:40.228 --> 00:58:44.708
<v Ralf Bendrath>Es wollte einfach niemand außer Axel Voss selber, dass er der fehlerführende

00:58:44.708 --> 00:58:46.988
<v Ralf Bendrath>Berichterstatter im fehlerführenden Ausschuss wird. Deswegen war klar,

00:58:47.068 --> 00:58:48.348
<v Ralf Bendrath>der Rechtsausschuss ist schon mal raus.

00:58:49.168 --> 00:58:52.508
<v Ralf Bendrath>Und dann wurde ziemlich lange hin und her verhandelt.

00:58:52.668 --> 00:58:55.508
<v Ralf Bendrath>Und am Ende, so wirklich am letzten Tag der Deadline, glaube ich,

00:58:55.508 --> 00:58:59.108
<v Ralf Bendrath>kam dann in der Konferenz der Fraktionsvorsitzenden ein Vorschlag von den Sozialdemokraten,

00:58:59.128 --> 00:59:03.348
<v Ralf Bendrath>dass doch ein gemeinsames Verfahren werden sollte zwischen dem Ausschuss für

00:59:03.348 --> 00:59:07.048
<v Ralf Bendrath>bürgerliche Freiheiten, Justiz und Inneres, weil der für die Grundrechte zuständig ist,

00:59:07.168 --> 00:59:09.468
<v Ralf Bendrath>und dem Binnenmarktausschuss,

00:59:09.728 --> 00:59:14.408
<v Ralf Bendrath>weil die Kommission dieses KI-Gesetz auch in Form von so einem,

00:59:15.688 --> 00:59:19.988
<v Ralf Bendrath>auf den Markt bringen Gesetz, was für Regeln muss ich einhalten,

00:59:20.028 --> 00:59:22.428
<v Ralf Bendrath>wenn ich KI auf den Markt bringen will, vorgeschlagen hat.

00:59:22.868 --> 00:59:27.408
<v Ralf Bendrath>Und das waren dann am Ende federführende Berichterstatter, Sozialdemokraten

00:59:27.408 --> 00:59:31.208
<v Ralf Bendrath>im Binnenmarktausschuss und Liberale im Grundrechte- und Innenausschuss.

00:59:32.828 --> 00:59:33.808
<v Ralf Bendrath>So kam das.

00:59:34.488 --> 00:59:39.988
<v Tim Pritlove>Das ist also alles sozusagen auch von dieser europäischen Sicht des Maschinenmenschen,

00:59:40.008 --> 00:59:45.468
<v Tim Pritlove>so Frankenstein und so weiter. Wir haben ja im Westen eine sehr negativ konnotierte

00:59:45.468 --> 00:59:47.768
<v Tim Pritlove>Sicht auf diese ganze… Hast du recht, ne?

00:59:48.608 --> 00:59:52.688
<v Tim Pritlove>Naja gut, ich meine, gehen wir mal nach Japan, da ist einfach eine ganz andere Grundhaltung dazu.

00:59:52.868 --> 00:59:58.708
<v Tim Pritlove>Da hast du sozusagen so die Maschine, der Freund des Menschen und wann auch

00:59:58.708 --> 01:00:05.088
<v Tim Pritlove>immer Robotik in Japan ein Thema ist, dann geht es immer sofort um Assistenzsysteme,

01:00:05.088 --> 01:00:07.428
<v Tim Pritlove>helfen, Pflege und so weiter.

01:00:07.448 --> 01:00:10.708
<v Tim Pritlove>Das ist so das, was da immer im Vordergrund steht und es hat natürlich auch

01:00:10.708 --> 01:00:14.248
<v Tim Pritlove>viel mit so einer kulturellen Prägung zu tun, die hier definitiv ein bisschen

01:00:14.248 --> 01:00:16.768
<v Tim Pritlove>dystopischer ausfällt als jetzt in anderen Kulturen.

01:00:18.199 --> 01:00:21.239
<v Ralf Bendrath>Ja, aber es passt auch, glaube ich, ganz gut in die Linie der ganzen europäischen

01:00:21.239 --> 01:00:24.759
<v Ralf Bendrath>Digitalgesetzgebung der letzten fast zehn Jahre jetzt, was sozusagen mit der

01:00:24.759 --> 01:00:27.899
<v Ralf Bendrath>Datenschutzgrundverordnung ja angefangen hat und dann mit dem Digitalen Dienste

01:00:27.899 --> 01:00:29.579
<v Ralf Bendrath>Gesetz, Digitale Märkte Gesetz,

01:00:29.939 --> 01:00:34.359
<v Ralf Bendrath>Data Act, Data Governance Act und so weiter, oder jetzt hier Cyber Resilience Act,

01:00:34.539 --> 01:00:37.639
<v Ralf Bendrath>dass man einfach nach und nach jetzt besser verstanden hat, was sind denn wirklich

01:00:37.639 --> 01:00:40.659
<v Ralf Bendrath>die echten Risiken und Gefahren bei den ganzen neuen Technologien,

01:00:40.679 --> 01:00:43.499
<v Ralf Bendrath>vor allem, wenn die in der Masse ausgerollt werden und jetzt versucht,

01:00:43.559 --> 01:00:45.879
<v Ralf Bendrath>langsam mal die Sachen wieder einzufangen.

01:00:45.879 --> 01:00:49.939
<v Tim Pritlove>Das ist aber ein guter Punkt, weil während wir bei den anderen Sachen ja schon

01:00:49.939 --> 01:00:54.039
<v Tim Pritlove>das auch alles sehr lange beobachten oder jetzt verhältnismäßig lange,

01:00:54.199 --> 01:01:01.979
<v Tim Pritlove>ja, also das Internet und so Computer etc., das ganze Digitalwesen begleitet uns ja jetzt,

01:01:02.079 --> 01:01:06.619
<v Tim Pritlove>sagen wir mal, die europäische Gesellschaft vielleicht aktiv seit Mitte der

01:01:06.619 --> 01:01:09.299
<v Tim Pritlove>90er Jahre so wirklich, würde ich mal sagen, ungefähr. ungefähr.

01:01:09.819 --> 01:01:13.019
<v Tim Pritlove>Und jetzt haben wir natürlich auch schon eine gewisse Zeit gehabt.

01:01:13.239 --> 01:01:17.039
<v Tim Pritlove>Während jetzt dieses AI-Thema ist ja relativ frisch.

01:01:17.039 --> 01:01:20.119
<v Tim Pritlove>Also im Vergleich zu den anderen Themen habe ich so den Eindruck,

01:01:20.179 --> 01:01:23.539
<v Tim Pritlove>wird das relativ früh aufge...

01:01:23.539 --> 01:01:28.019
<v Tim Pritlove>Also das wird nicht mal ein relativ schneller Vorstoß. Sonst sagt man immer,

01:01:28.059 --> 01:01:31.479
<v Tim Pritlove>ja, die Politik reagiert ja nicht und jetzt ist das für uns schon alles so die

01:01:31.479 --> 01:01:33.839
<v Tim Pritlove>Realität und die Politik kommt nicht mit.

01:01:33.999 --> 01:01:37.839
<v Tim Pritlove>Und jetzt habe ich so fast so den Eindruck, jetzt schlägt es komplett um und

01:01:37.839 --> 01:01:41.079
<v Tim Pritlove>jetzt wird AI zu einem Zeitpunkt reguliert,

01:01:41.079 --> 01:01:46.399
<v Tim Pritlove>wo glaube ich noch nicht mal eine wirklich klare Vorstellung davon existiert,

01:01:46.399 --> 01:01:51.559
<v Tim Pritlove>was es jetzt eigentlich genau ist oder macht oder was jetzt wirklich die realen

01:01:51.559 --> 01:01:53.619
<v Tim Pritlove>Bedrohungen und Chancen und Risiken sind,

01:01:53.699 --> 01:01:56.259
<v Tim Pritlove>um in dieser klassischen Abwägungsgeschichte zu bleiben.

01:01:57.373 --> 01:01:58.453
<v Ralf Bendrath>Ja, da hast du sicher recht.

01:01:59.153 --> 01:02:03.533
<v Arnika Zinke>Ja, und das war, glaube ich, auch sehr bewusst so gemacht, weil eben auch auf

01:02:03.533 --> 01:02:08.373
<v Arnika Zinke>die konstante Kritik irgendwie reagiert wurde, dass wir immer so spät dran wären.

01:02:08.553 --> 01:02:11.573
<v Arnika Zinke>Also gerade bei dem Digitalen Dienstegesetz war es ja auch so,

01:02:11.693 --> 01:02:15.553
<v Arnika Zinke>dass es hieß, ja, also wir haben so verschiedenste Probleme,

01:02:15.593 --> 01:02:17.713
<v Arnika Zinke>gerade mit den großen Plattformen.

01:02:17.813 --> 01:02:19.793
<v Arnika Zinke>Und warum braucht da die EU so lange?

01:02:20.213 --> 01:02:23.133
<v Arnika Zinke>Und das war dann schon irgendwie so ein selbsterklärtes Ziel,

01:02:23.233 --> 01:02:26.693
<v Arnika Zinke>auch von von der Leyen da wirklich irgendwie fortzubreschen und irgendwie mit

01:02:26.693 --> 01:02:31.373
<v Arnika Zinke>diesem Brussels-Effekt quasi zu reiten und da für KI was vorzulegen.

01:02:31.693 --> 01:02:36.553
<v Arnika Zinke>Wobei ich finde allein der Name AI Act, und es wurde auch viel kritisiert,

01:02:36.553 --> 01:02:40.913
<v Arnika Zinke>nicht ganz unproblematisch ist, weil es ja eigentlich auch um automated decision making geht,

01:02:41.133 --> 01:02:45.813
<v Arnika Zinke>beziehungsweise, ja, dass auch nicht ganz klar war, ob dann automated decision

01:02:45.813 --> 01:02:48.833
<v Arnika Zinke>making auch in dem Begriff Artificial Intelligence fällt oder nicht.

01:02:48.913 --> 01:02:52.473
<v Arnika Zinke>Aber AI Act klingt halt besser als automated decision making law.

01:02:52.713 --> 01:02:54.473
<v Arnika Zinke>Also das war auch ein bisschen ein PR.

01:02:55.313 --> 01:03:01.413
<v Tim Pritlove>Ja, guter Punkt. Genau. Und das ist ja dann wiederum etwas, was schon länger diskutiert wird.

01:03:01.493 --> 01:03:06.533
<v Tim Pritlove>Man sieht das ja hier auch so Algorithm Watch und ähnliche Gruppen haben sich

01:03:06.533 --> 01:03:10.353
<v Tim Pritlove>ja da auch schon lange mit dieser Problematik beschäftigt.

01:03:10.353 --> 01:03:14.973
<v Tim Pritlove>Also wer fällt die Entscheidung und damit natürlich auch verbunden,

01:03:15.013 --> 01:03:19.933
<v Tim Pritlove>wer ist am Ende haftbar für falsch getroffene Entscheidungen und das hinterfragt

01:03:19.933 --> 01:03:22.433
<v Tim Pritlove>halt sowohl einfache Algorithmen,

01:03:22.553 --> 01:03:29.933
<v Tim Pritlove>die nun durch AI gleich nochmal ein Level weniger nachvollziehbar werden potenziell.

01:03:31.173 --> 01:03:35.613
<v Arnika Zinke>Genau. Und es ist jetzt so, um kurz das Gesetz zu erklären,

01:03:35.853 --> 01:03:39.773
<v Arnika Zinke>also ich würde sagen, es ist jetzt im Vergleich zu den anderen Gesetzen vielleicht

01:03:39.773 --> 01:03:42.853
<v Arnika Zinke>etwas innovationsfreundlicher gedacht worden,

01:03:43.033 --> 01:03:48.353
<v Arnika Zinke>in dem Sinne, dass in dem Gesetz eben auch diese, zum Beispiel diese innovativen,

01:03:48.353 --> 01:03:53.233
<v Arnika Zinke>ich weiß gar nicht den Begriff, aber Sandboxes heißt es auf Englisch, Sandkisten.

01:03:53.793 --> 01:03:54.873
<v Ralf Bendrath>Reallabore heißen die auf Deutsch.

01:04:23.233 --> 01:04:27.053
<v Arnika Zinke>Noch nachgeschöpft werden muss. Also es gab quasi ein eigenes Kapitel für Measures

01:04:27.053 --> 01:04:31.773
<v Arnika Zinke>for Innovation, um eben auch die quasi so ein bisschen industriepolitisch auch

01:04:31.773 --> 01:04:36.053
<v Arnika Zinke>zu mehr KI-Systeme in Europa zu generieren.

01:04:37.208 --> 01:04:41.308
<v Arnika Zinke>Weil im Vergleich dazu zum Beispiel die Systeme, die verboten werden,

01:04:41.568 --> 01:04:44.708
<v Arnika Zinke>im Kommissionsvorschlag ja eigentlich sehr dünn waren.

01:04:44.928 --> 01:04:49.868
<v Arnika Zinke>Also es gab ein Verbot für biometrische Massenüberwachung in Echtzeit,

01:04:49.928 --> 01:04:53.488
<v Arnika Zinke>aber dann auch wieder mit ziemlich großen Ausnahmen. Unter anderem,

01:04:53.488 --> 01:04:57.028
<v Arnika Zinke>wenn man zum Beispiel Missing Children, also Kinder sucht.

01:04:57.648 --> 01:05:02.548
<v Arnika Zinke>Es gab ein Verbot für Social Scoring, das aber so limitiert geschrieben war,

01:05:02.628 --> 01:05:06.048
<v Arnika Zinke>dass es eigentlich wirklich nicht wirklich was anwendbar gewesen wäre.

01:05:06.048 --> 01:05:08.388
<v Arnika Zinke>Wäre, klingt aber gut, wenn man eine PR-Mitteilung dazu macht.

01:05:09.028 --> 01:05:18.268
<v Arnika Zinke>Und dann das, was die KI-Provider, also die Hersteller, danke.

01:05:18.528 --> 01:05:22.088
<v Arnika Zinke>Es ist wirklich manchmal schwierig, wenn man immer in Englisch arbeitet und

01:05:22.088 --> 01:05:24.168
<v Arnika Zinke>dann versucht, alles auf Deutsch zu übersetzen.

01:05:24.548 --> 01:05:29.008
<v Arnika Zinke>Genau, also dass die Hersteller einfach eigentlich nur dann etwas zu erfüllen

01:05:29.008 --> 01:05:31.228
<v Arnika Zinke>hatten, wenn sie als Hochrisiko eingestuft wurden.

01:05:31.668 --> 01:05:35.088
<v Arnika Zinke>Das heißt, es gab zwar diese Pyramide, die vielleicht auch einige schon gesehen

01:05:35.088 --> 01:05:39.928
<v Arnika Zinke>haben, quasi welche Bereiche das KI-Gesetz quasi umfasst.

01:05:40.168 --> 01:05:44.228
<v Arnika Zinke>Und oben auf der Pyramide sind die verbotenen KI-Systeme, was ja eigentlich

01:05:44.228 --> 01:05:45.648
<v Arnika Zinke>de facto so gut wie nichts ist.

01:05:45.788 --> 01:05:50.008
<v Arnika Zinke>Dann gibt es quasi einen mittleren Bereich mit Hochrisiko, wo dann alles,

01:05:50.068 --> 01:05:54.448
<v Arnika Zinke>was quasi zu erfüllen ist im KI-Gesetz, quasi nur in diesem Bereich fällt und

01:05:54.448 --> 01:05:56.928
<v Arnika Zinke>alle Regelungen quasi nur in dem Bereich zu erfüllen sind.

01:05:57.068 --> 01:06:01.508
<v Arnika Zinke>Und dann gibt es noch einen untersten Bereich, das ist Low-Risk oder Minimum-Risk,

01:06:01.528 --> 01:06:07.408
<v Arnika Zinke>also quasi die wenigst Risiko-KI-Systeme, die ein paar Transparenzpflichten erfüllen mussten.

01:06:07.588 --> 01:06:11.028
<v Arnika Zinke>Das heißt, diese Pyramide, die die Kommission da quasi auch vorgestellt hat,

01:06:11.048 --> 01:06:16.168
<v Arnika Zinke>ist eigentlich recht verwirrend, weil letztlich ist es ein Gesetz für ein paar

01:06:16.168 --> 01:06:21.348
<v Arnika Zinke>Pseudoverbotene KI-Systeme gewesen und das, was sie als Hochrisiko begriffen haben.

01:06:21.548 --> 01:06:24.948
<v Arnika Zinke>Und der Begriff Hochrisiko ist ja auch eigentlich recht problematisch,

01:06:24.948 --> 01:06:27.508
<v Arnika Zinke>weil da will ja auch kein Hersteller eigentlich reinfallen.

01:06:27.648 --> 01:06:30.648
<v Arnika Zinke>Also kein Hersteller, der sein KI-System irgendwie schon verkaufen will,

01:06:30.688 --> 01:06:33.488
<v Arnika Zinke>außer es ist wirklich für einen Bereich, der hochproblematisch ist,

01:06:33.488 --> 01:06:36.288
<v Arnika Zinke>möchte wirklich in den Hochrisikobereich fallen.

01:06:37.558 --> 01:06:42.978
<v Arnika Zinke>Und das ist, glaube ich, auch ein Begriff, der uns negativ durch die ganzen

01:06:42.978 --> 01:06:44.598
<v Arnika Zinke>Verhandlungen verfolgt hat.

01:06:45.158 --> 01:06:48.718
<v Arnika Zinke>Genau, nur um das fertig zu erklären, was Hochrisiko ist und was nicht,

01:06:48.858 --> 01:06:51.218
<v Arnika Zinke>ist in dem sogenannten Annex Free,

01:06:51.518 --> 01:06:54.638
<v Arnika Zinke>wenn ich das richtig im Kopf habe, festgeschrieben, das sind quasi verschiedene

01:06:54.638 --> 01:06:59.158
<v Arnika Zinke>Bereiche, die von Bildung bis Migration, Arbeitsverhältnisse gehen,

01:06:59.358 --> 01:07:01.258
<v Arnika Zinke>wo verschiedene Kaisersysteme,

01:07:02.278 --> 01:07:03.878
<v Arnika Zinke>Strafverfolgung genau, reingegeben

01:07:03.878 --> 01:07:07.218
<v Arnika Zinke>wurden, die potenziell in diesen Hochrisikobereich fallen könnten.

01:07:08.358 --> 01:07:11.738
<v Arnika Zinke>Und genau, also das ist so mal ein bisschen die Logik und auch nochmal darauf

01:07:11.738 --> 01:07:13.618
<v Arnika Zinke>zurückzukommen, was Ralf vorhin gesagt hat,

01:07:13.638 --> 01:07:18.098
<v Arnika Zinke>es ist eben in diesem Produktsicherheitsgesetzesrahmen eingebettet worden.

01:07:18.218 --> 01:07:22.878
<v Arnika Zinke>Das heißt, KI wird als Produkt begriffen, was auch schon nicht ganz unproblematisch ist.

01:07:23.058 --> 01:07:26.578
<v Arnika Zinke>Und das wurde auch, also man munkelt, dass es auch deswegen gemacht wurde,

01:07:26.678 --> 01:07:31.178
<v Arnika Zinke>damit das Gesetz eben nicht nur im Justizausschuss landet, sondern eben auch

01:07:31.178 --> 01:07:35.798
<v Arnika Zinke>im Binnenmarktausschuss, wo ja alles, was Produktsicherheit betrifft, behandelt wird.

01:07:35.798 --> 01:07:39.298
<v Arnika Zinke>Also das ist auch schon bewusst von der Kommission so gewählt worden,

01:07:39.498 --> 01:07:43.838
<v Arnika Zinke>nicht unbedingt, weil sie KI unbedingt als Produkte sehen wollten,

01:07:44.018 --> 01:07:45.358
<v Arnika Zinke>sondern auch, weil man dann vielleicht,

01:07:45.618 --> 01:07:49.018
<v Arnika Zinke>und das sieht man auch bei anderen Gesetzen, schon beeinflussen will,

01:07:49.058 --> 01:07:54.038
<v Arnika Zinke>in welchem Ausschuss das Gesetz landet, was dann ja auch wiederum Einfluss darauf

01:07:54.038 --> 01:07:56.878
<v Arnika Zinke>hat, wie die Parlamentsposition aussehen wird.

01:07:56.878 --> 01:08:00.638
<v Arnika Zinke>Also wenn es nur im Liebe landet, dann wird die Parlamentsposition relativ hohe

01:08:00.638 --> 01:08:03.478
<v Arnika Zinke>Wahrscheinlichkeit progressiver ausfallen, als wenn es nur im Idre landet,

01:08:03.498 --> 01:08:06.718
<v Arnika Zinke>was der Industrie- und Wissenschaftsausschuss ist,

01:08:06.858 --> 01:08:12.678
<v Arnika Zinke>der traditionell immer recht konservativ, liberal und wirtschaftsfreundlich ist.

01:08:12.678 --> 01:08:16.878
<v Tim Pritlove>Ich habe nochmal eine Nachfrage. Nur mal zu diesem Begriff Hochrisiko.

01:08:17.958 --> 01:08:22.958
<v Tim Pritlove>Risiko in Bezug auf wen oder was? Also wie ist dieser Begriff gedacht?

01:08:23.298 --> 01:08:28.038
<v Tim Pritlove>Für wen soll was wie ein Risiko sein, damit das da reinfällt?

01:08:29.357 --> 01:08:31.617
<v Arnika Zinke>Also es ist zum einen der Bereich, in dem es verwendet wird,

01:08:31.677 --> 01:08:36.437
<v Arnika Zinke>also zum Beispiel Immigration und zum anderen auch quasi, welchen Impact es

01:08:36.437 --> 01:08:40.217
<v Arnika Zinke>haben kann, also welche Einflüsse es quasi auf Menschen haben kann.

01:08:40.357 --> 01:08:45.497
<v Arnika Zinke>Also zum Beispiel eben im schulischen Bereich, dass wenn die Systeme quasi nicht

01:08:45.497 --> 01:08:49.857
<v Arnika Zinke>gut getestet sind oder starken Bias haben oder Cybersecurity-Probleme haben,

01:08:50.037 --> 01:08:55.097
<v Arnika Zinke>dass sie dann ein höheres Risiko quasi darstellen oder potenziell mehr Schaden

01:08:55.097 --> 01:08:57.957
<v Arnika Zinke>anrichten könnten als ein Chatbot zum Beispiel.

01:08:57.957 --> 01:09:01.837
<v Arnika Zinke>Wobei ich argumentieren würde, dass auch Chatbots Schäden anrichten können.

01:09:02.057 --> 01:09:05.577
<v Tim Pritlove>Also Risiko im Sinne von Gefährdung für Menschen.

01:09:06.217 --> 01:09:10.677
<v Thomas Lohninger>Also ich erinnere mich noch irgendwie, wenn man so Lobbyisten zugehört hat,

01:09:10.717 --> 01:09:12.157
<v Thomas Lohninger>bevor das Gesetz vorgestellt wurde,

01:09:12.277 --> 01:09:17.037
<v Thomas Lohninger>hatten die auch schon diese Idee der Pyramide und die haben halt so plakativ gemeint,

01:09:17.057 --> 01:09:22.057
<v Thomas Lohninger>ganz oben ist automatisierte Tötung, wenn die Drohne dich umbringt oder dass

01:09:22.057 --> 01:09:26.877
<v Thomas Lohninger>ein Mensch noch irgendwas dafür tun muss und ganz unten ist der Algorithmus,

01:09:26.897 --> 01:09:27.797
<v Thomas Lohninger>der Schrauben sortiert,

01:09:27.877 --> 01:09:31.117
<v Thomas Lohninger>der gar nicht reguliert wird und dazwischen überlegen wir uns dann irgendwas.

01:09:31.617 --> 01:09:35.037
<v Thomas Lohninger>Aber das ist halt in der Praxis dann umzusetzen super schwierig,

01:09:35.117 --> 01:09:39.957
<v Thomas Lohninger>weil auch so Dinge, wo sich die Zivilgesellschaft massiv dafür eingesetzt hat,

01:09:39.997 --> 01:09:44.337
<v Thomas Lohninger>wie zum Beispiel das Verbot von Gesichtserkennung, Biometrie oder auch,

01:09:44.457 --> 01:09:48.857
<v Thomas Lohninger>es gibt ja inzwischen so Wahrheitsdetektoren oder Emotionserkennung,

01:09:48.977 --> 01:09:52.557
<v Thomas Lohninger>wo es sehr zweifelhaft ist, ob das technisch überhaupt funktioniert,

01:09:52.717 --> 01:09:54.457
<v Thomas Lohninger>was da als Produkt angeboten wird.

01:09:54.457 --> 01:09:58.257
<v Thomas Lohninger>Und da glaube ich, kommen wir dann auch gleich darauf zu, was denn jetzt wirklich

01:09:58.257 --> 01:09:59.577
<v Thomas Lohninger>in diesem Gesetz drinnen steht.

01:09:59.757 --> 01:10:04.677
<v Thomas Lohninger>Und du hast ja auch schon Migration angesprochen. Wir haben in vielen EU-Ländern

01:10:04.677 --> 01:10:09.317
<v Thomas Lohninger>auch gerade bei arbeitslosen oder arbeitssuchenden Menschen den Einsatz von

01:10:09.317 --> 01:10:12.017
<v Thomas Lohninger>Algorithmen, wurde teils auch schon von Höchstgerichten verboten.

01:10:12.257 --> 01:10:16.657
<v Thomas Lohninger>Also da gibt es ja wirklich schon viele Fälle, die nach Regulierung schreien.

01:10:17.697 --> 01:10:19.337
<v Thomas Lohninger>Was wird jetzt besser mit diesem Gesetz?

01:10:20.017 --> 01:10:22.877
<v Ralf Bendrath>Vielleicht noch ganz kurz zu Tim, zu der Frage nach dem Risiko.

01:10:23.037 --> 01:10:28.177
<v Ralf Bendrath>Also zum Beispiel im Artikel zur Definition, da steht unter systemisches Risiko,

01:10:28.317 --> 01:10:34.077
<v Ralf Bendrath>dass ein KI dann ein systemisches Risiko hat, wenn sie einen signifikanten Impact,

01:10:34.297 --> 01:10:41.517
<v Ralf Bendrath>Auswirkungen auf den ganzen Unionsmarkt hat durch ihre Reichweite oder durch

01:10:41.517 --> 01:10:48.117
<v Ralf Bendrath>vernünftigerweise vorhersehbare negative Effekte auf öffentliche Gesundheit, Sicherheit.

01:10:49.337 --> 01:10:52.397
<v Ralf Bendrath>Also nicht im Sinne von sozusagen innere Sicherheit, sondern Produktsicherheit,

01:10:52.397 --> 01:10:56.077
<v Ralf Bendrath>Safety, nicht Security, Public Security, also öffentliche Sicherheit,

01:10:56.937 --> 01:10:58.937
<v Ralf Bendrath>Grundrechte oder die Gesellschaft als Ganze.

01:11:00.890 --> 01:11:03.330
<v Ralf Bendrath>Aber das ist natürlich dann auch eine intellektuelle Herausforderung.

01:11:03.330 --> 01:11:06.590
<v Ralf Bendrath>Damit haben wir auch eine Weile lang gerungen am Anfang, weil dann sagt der

01:11:06.590 --> 01:11:09.450
<v Ralf Bendrath>Artikel 6 zu den Hochrisiko-KI,

01:11:10.250 --> 01:11:15.510
<v Ralf Bendrath>die Kommission ist ermächtigt, mit einem delegierten Rechtsakt weitere KI-Systeme

01:11:15.510 --> 01:11:19.430
<v Ralf Bendrath>oder Anwendungsfälle in den Annex 3 hinzuzufügen, mit den Hochrisiko-KIs,

01:11:19.590 --> 01:11:25.470
<v Ralf Bendrath>wenn diese neuen KI-Systeme oder Anwendungsfälle ein gleich hohes oder höheres Risiko haben,

01:11:25.650 --> 01:11:29.030
<v Ralf Bendrath>als die, die schon im Annex 3 drinstehen. Ja, wie misst man das?

01:11:29.150 --> 01:11:33.310
<v Ralf Bendrath>Wie viel ist 1,50 m KI-Risiko? Das kannst du eigentlich nicht schwer vergleichen.

01:11:33.310 --> 01:11:35.510
<v Ralf Bendrath>Das ist immer von Anwendungsdomäne zu Anwendungsdomäne.

01:11:36.210 --> 01:11:39.170
<v Ralf Bendrath>Haben wir echt eine Weile hin und her überlegt und dann am Ende aber gemerkt,

01:11:39.170 --> 01:11:40.890
<v Ralf Bendrath>das ist eine politische Entscheidung jedes Mal.

01:11:42.650 --> 01:11:46.910
<v Arnika Zinke>Ja, um jetzt auf die Frage zurückzukommen, was ändert sich quasi oder was wird jetzt besser?

01:11:47.630 --> 01:11:52.890
<v Arnika Zinke>Also es ist quasi schon so, dass wir natürlich im Vergleich zur Parlamentsposition,

01:11:53.090 --> 01:11:56.630
<v Arnika Zinke>die in vielen Fällen besser ist, als das, was dann beim Trilog rauskommt,

01:11:56.630 --> 01:12:01.590
<v Arnika Zinke>natürlich nicht alles drin haben, was wir als Parlament angesehen haben als

01:12:01.590 --> 01:12:07.110
<v Arnika Zinke>problematisch und zu verbietende KI und als Hochrisiko-KI.

01:12:07.370 --> 01:12:11.050
<v Arnika Zinke>Also nur, weil du vorher noch angesprochen hattest, Emotionserkennung,

01:12:11.150 --> 01:12:13.370
<v Arnika Zinke>Massenüberwachung mit Biometrie,

01:12:13.550 --> 01:12:18.870
<v Arnika Zinke>die Polygraphen, das waren alles Punkte, die wir in unserer Parlamentsposition

01:12:18.870 --> 01:12:22.750
<v Arnika Zinke>komplett verbannt hätten, also quasi verboten hätten.

01:12:22.750 --> 01:12:29.970
<v Arnika Zinke>Und von denen wir nicht alle, aber einige in gewissen Bereichen geschafft haben, zu verbieten.

01:12:30.270 --> 01:12:34.270
<v Arnika Zinke>Das eine ist eben die Emotionskennung, also quasi die basiert darauf,

01:12:34.350 --> 01:12:38.310
<v Arnika Zinke>dass man denkt, dass wenn eine Person lacht, dass man davon ableiten kann,

01:12:38.370 --> 01:12:39.670
<v Arnika Zinke>dass die Person quasi glücklich ist.

01:12:40.030 --> 01:12:44.310
<v Arnika Zinke>Und es ist mittlerweile eindeutig bewiesen, dass das nicht funktioniert und

01:12:44.310 --> 01:12:47.690
<v Arnika Zinke>dass es auch gegen Menschen, die zum Beispiel neuroatypisch sind,

01:12:47.710 --> 01:12:48.770
<v Arnika Zinke>glaube ich ist das richtige Wort.

01:12:49.790 --> 01:12:54.170
<v Arnika Zinke>Einfach auch falsch Emotionen erkennt und dass Emotionen einfach sich nicht

01:12:54.170 --> 01:12:55.130
<v Arnika Zinke>leicht so ableiten lassen.

01:12:55.270 --> 01:12:59.270
<v Arnika Zinke>Deswegen hat zum Beispiel auch Microsoft Emotionserkennung komplett aus dem

01:12:59.270 --> 01:13:00.310
<v Arnika Zinke>Sortiment sozusagen genommen.

01:13:00.450 --> 01:13:03.110
<v Arnika Zinke>Also die entwickeln in dem Bereich auch nicht mehr, weil sie erkannt haben,

01:13:03.130 --> 01:13:05.070
<v Arnika Zinke>dass es Pseudowissenschaft ist.

01:13:05.410 --> 01:13:08.490
<v Arnika Zinke>Wir haben es zwar nicht ganz durchbekommen, aber wir haben zumindest im Bereich

01:13:08.490 --> 01:13:12.690
<v Arnika Zinke>am Arbeitsplatz und im schulischen Bereich Emotionserkennung komplett verboten.

01:13:13.650 --> 01:13:18.550
<v Arnika Zinke>Was ein großer Gewinn für uns vor allem als Grüne war, wo man aber Emotionserkennung

01:13:18.550 --> 01:13:19.590
<v Arnika Zinke>zum Beispiel noch verwenden darf.

01:13:19.790 --> 01:13:22.090
<v Arnika Zinke>Und um ein Beispiel zu nennen, ist eben im Migrationsbereich,

01:13:22.130 --> 01:13:25.390
<v Arnika Zinke>also zum Beispiel an Grenzen, was weiterhin hochproblematisch ist,

01:13:25.410 --> 01:13:26.750
<v Arnika Zinke>weil die Probleme bestehen ja weiterhin.

01:13:27.635 --> 01:13:32.955
<v Arnika Zinke>Es ist zwar Hochrisiko, aber Hochrisiko heißt halt, du musst einige weitere Regeln erfüllen.

01:13:33.075 --> 01:13:38.715
<v Arnika Zinke>Das heißt, die KI muss Cybersecurity Standards erfüllen, es müssen gewisse Dokumentationen

01:13:38.715 --> 01:13:42.875
<v Arnika Zinke>gemacht werden und jetzt in dem spezifischen Fall ist wahrscheinlich auch eine

01:13:42.875 --> 01:13:47.095
<v Arnika Zinke>Grundrechteabschätzung notwendig, also das sogenannte Fundamental Rights Impact Assessment.

01:13:47.275 --> 01:13:51.175
<v Arnika Zinke>Das war auch ein großer Gewinn für unsere Fraktion, das mit reinzukriegen.

01:13:51.855 --> 01:13:54.175
<v Arnika Zinke>Dass eben nicht nur der Hersteller, sondern auch der Benutzer,

01:13:54.195 --> 01:13:56.775
<v Arnika Zinke>also der, der das System quasi kauft, sondern wirklich anwendet,

01:13:56.775 --> 01:14:00.695
<v Arnika Zinke>sich auch anschauen muss, was macht die KI eigentlich mit den Personen,

01:14:00.775 --> 01:14:01.875
<v Arnika Zinke>auf denen ich das anwende.

01:14:02.175 --> 01:14:07.335
<v Arnika Zinke>Das ist ein bisschen eine Weiterleitung von dem, was schon in den Datenschutzfolgeabschätzungen

01:14:07.335 --> 01:14:11.535
<v Arnika Zinke>gemacht wird, aber eben speziell auf KI umgemünzt.

01:14:11.935 --> 01:14:16.695
<v Arnika Zinke>Und das war für uns insofern ein großer Erfolg, weil das bedeutet,

01:14:16.815 --> 01:14:20.375
<v Arnika Zinke>dass eben nicht nur der Hersteller, der spezifisch und kontextbasierte Anwendungen

01:14:20.375 --> 01:14:24.495
<v Arnika Zinke>überhaupt nicht abschätzen kann, dass sich wirklich der Benutzer hinsetzen muss

01:14:24.495 --> 01:14:26.955
<v Arnika Zinke>und sich mit der KI auseinandersetzen muss.

01:14:27.115 --> 01:14:32.375
<v Arnika Zinke>Und ich glaube, dass es auch eben daraufhin, wie wir KI verstehen und wie wir

01:14:32.375 --> 01:14:36.795
<v Arnika Zinke>generell, wie viel Bedeutung und können wir KI zumessen, sehr wichtig ist.

01:14:36.995 --> 01:14:40.235
<v Arnika Zinke>Weil wenn das zum Beispiel von Schulen verwendet wird oder auch von Behörden,

01:14:40.295 --> 01:14:44.495
<v Arnika Zinke>die vielleicht einen Datenschutzbeauftragten haben und dann das jemandem geben

01:14:44.495 --> 01:14:50.075
<v Arnika Zinke>und sagen, sagen, ja, verwende das halt, um zum Beispiel Schülern zu helfen,

01:14:50.235 --> 01:14:53.195
<v Arnika Zinke>in welche Fächer oder in welche Berufe sie sich dann einordnen.

01:14:53.675 --> 01:14:56.695
<v Arnika Zinke>Dass es nicht einfach so angewendet wird, sondern die Personen wirklich wissen,

01:14:56.795 --> 01:15:00.835
<v Arnika Zinke>okay, welche möglichen Folgen könnte das haben, wenn wir das jetzt mit unseren

01:15:00.835 --> 01:15:01.935
<v Arnika Zinke>Schülern gemeinsam verwenden.

01:15:02.135 --> 01:15:06.495
<v Arnika Zinke>Und ich glaube schon, dass das auch im Laufe der Zeit auch wirklich dazu führen

01:15:06.495 --> 01:15:09.215
<v Arnika Zinke>wird, dass Menschen einfach besser verstehen, wie KI funktioniert und wo auch

01:15:09.215 --> 01:15:12.875
<v Arnika Zinke>die Limits von KI sind, was letztlich auch eine Möglichkeit ist,

01:15:13.115 --> 01:15:14.375
<v Arnika Zinke>rechtliche Folgen abzuschätzen.

01:15:14.375 --> 01:15:16.475
<v Arnika Zinke>So haben wir es auch mal ein bisschen versucht zu verkaufen,

01:15:16.495 --> 01:15:19.875
<v Arnika Zinke>das natürlich auch für Unternehmen, das relevant ist, abzuschätzen,

01:15:19.995 --> 01:15:22.115
<v Arnika Zinke>wo sind die rechtlichen Folgen, die ich möglicherweise habe,

01:15:22.215 --> 01:15:26.075
<v Arnika Zinke>wenn ich KI verwende, die nicht so gescheit ist, wie ich eigentlich glaube, dass sie ist.

01:15:27.179 --> 01:15:31.179
<v Thomas Lohninger>Also eigentlich so wie bei der Datenschutzgrundverordnung, ein neuer Text,

01:15:31.219 --> 01:15:36.459
<v Thomas Lohninger>den ich abnicken muss, wo theoretisch drinnen steht, was mit meinen Daten passiert

01:15:36.459 --> 01:15:39.719
<v Thomas Lohninger>oder was da im Hintergrund eigentlich abläuft.

01:15:39.859 --> 01:15:45.659
<v Thomas Lohninger>Also es muss erklärt werden für die NutzerInnen, was jetzt in diesem System drin ist.

01:15:47.219 --> 01:15:50.939
<v Arnika Zinke>Ja, und der Benutzer muss sich halt auch wirklich damit auseinandersetzen,

01:15:51.039 --> 01:15:56.119
<v Arnika Zinke>welche Personen eigentlich mit der KI interagieren oder auf welche Personen

01:15:56.119 --> 01:16:01.139
<v Arnika Zinke>die KI angewendet wird und ob das zum Beispiel jetzt Personen mit dunkler Hautfarbe

01:16:01.139 --> 01:16:04.399
<v Arnika Zinke>sind oder Personen, die eine Disability haben. Genau.

01:16:04.799 --> 01:16:10.079
<v Arnika Zinke>Und der Unterschied zur datenschutzrechtlichen Folgenabschätzung ist,

01:16:10.159 --> 01:16:14.439
<v Arnika Zinke>dass es manchmal Fälle gibt, wo es quasi einen grundrechtlichen Impact haben

01:16:14.439 --> 01:16:17.379
<v Arnika Zinke>könnte, wo aber keine persönlichen Daten angewendet werden.

01:16:17.579 --> 01:16:20.899
<v Arnika Zinke>Also zum Beispiel, wenn man Migrationsflüsse versucht nachzuvollziehen und daraus

01:16:20.899 --> 01:16:23.459
<v Arnika Zinke>die KI irgendwelche Entscheidungen treffen lässt.

01:16:23.579 --> 01:16:27.139
<v Arnika Zinke>Und gerade in diesen Bereichen, diese Randbereiche sind, die eben nicht von

01:16:27.139 --> 01:16:32.039
<v Arnika Zinke>der DSGVO abgedeckt sind, ist das auch besonders wichtig.

01:16:32.659 --> 01:16:36.679
<v Thomas Lohninger>Also auch sowas wie Predictive Policing, also dass die Polizei mit Algorithmen

01:16:36.679 --> 01:16:40.879
<v Thomas Lohninger>versucht, vorherzusehen, welche Verbrechen in welcher Region wann passieren,

01:16:41.119 --> 01:16:43.579
<v Thomas Lohninger>was ja auch ein bisschen so Pseudoscience ist.

01:16:43.959 --> 01:16:46.899
<v Ralf Bendrath>Also das vielleicht ganz kurz, Predictive Policing, was sich nur auf bestimmte

01:16:46.899 --> 01:16:50.059
<v Ralf Bendrath>Nachbarschaften bezieht oder sowas, das wäre noch erlaubt, würde aber unter

01:16:50.059 --> 01:16:53.799
<v Ralf Bendrath>Hochrisiko fallen, müsste also eine Grundrechtefolgenabschätzung machen und alles mögliche.

01:16:54.379 --> 01:16:58.079
<v Ralf Bendrath>Aber Predictive Policing über Individuen, dass die KM ja ausrechnet,

01:16:58.139 --> 01:17:00.779
<v Ralf Bendrath>wie wahrscheinlich ist es, dass Thomas Lohninger in den nächsten zwei Monaten

01:17:00.779 --> 01:17:02.999
<v Ralf Bendrath>eine Straftat begeht, das ist verboten.

01:17:04.839 --> 01:17:07.899
<v Ralf Bendrath>Und was wir zum Beispiel auch noch verboten haben, ist das, auf Englisch heißt

01:17:07.899 --> 01:17:12.559
<v Ralf Bendrath>das Facial Image Scraping, dass ich massenhaft Gesichtsbilder aus dem Internet

01:17:12.559 --> 01:17:16.579
<v Ralf Bendrath>mir zusammenwühle und daraus dann eine große Datenbank mache.

01:17:16.679 --> 01:17:19.399
<v Ralf Bendrath>Also Clearview AI oder PIM-Eyes ist jetzt verboten.

01:17:20.759 --> 01:17:25.159
<v Thomas Lohninger>Und diese Grundrechtsabschätzungen, sind die öffentlich einsehbar?

01:17:26.718 --> 01:17:28.318
<v Thomas Lohninger>Kann ich die als User sehen?

01:17:29.538 --> 01:17:30.798
<v Ralf Bendrath>Die sind in der Datenbank, oder?

01:17:30.798 --> 01:17:34.098
<v Arnika Zinke>Ich glaube, dass die in der Datenbank gegeben werden müssen.

01:17:34.178 --> 01:17:40.138
<v Arnika Zinke>Es ist quasi eine neue EU-Datenbank geschaffen worden, wo dann diese Folgerechtsabschätzungen

01:17:40.138 --> 01:17:43.858
<v Arnika Zinke>hochgeladen werden müssen, um eben mehr Transparenz zu ermöglichen.

01:17:43.878 --> 01:17:47.078
<v Arnika Zinke>Das war zum Beispiel auch etwas, was nicht im Kommissionsvorschlag drinnen war

01:17:47.078 --> 01:17:49.698
<v Arnika Zinke>und was uns auch sehr wichtig war, da einfach mehr Transparenz zu schaffen,

01:17:50.398 --> 01:17:57.638
<v Arnika Zinke>wer das verwendet und ja, auch, dass eben diese Abschätzungen dann öffentlich sind Das war das.

01:17:57.718 --> 01:18:00.478
<v Ralf Bendrath>Was die Niederländer schon machen oder Amsterdam oder so. Die haben das schon

01:18:00.478 --> 01:18:03.078
<v Ralf Bendrath>in Betrieb, eine öffentliche Datenbank, wo man sowas genau nachgucken kann.

01:18:03.158 --> 01:18:04.238
<v Ralf Bendrath>Davon haben wir uns inspirieren lassen.

01:18:05.178 --> 01:18:09.818
<v Arnika Zinke>Sowohl die Datenbank als auch die Grundrechtefolgenabschätzung kommen beide

01:18:09.818 --> 01:18:11.478
<v Arnika Zinke>aus den Niederlanden, die Idee.

01:18:11.678 --> 01:18:14.918
<v Thomas Lohninger>Es gibt auch unheimlich viele zivilgesellschaftliche Projekte,

01:18:14.918 --> 01:18:18.238
<v Thomas Lohninger>die einfach so mappen, welche Anwendungen von KI gibt es schon.

01:18:18.298 --> 01:18:22.638
<v Thomas Lohninger>Vor allem eben in der öffentlichen Verwaltung, da wo die Leute nicht auskennen,

01:18:22.738 --> 01:18:23.678
<v Thomas Lohninger>wo es kein Produkt ist. ist.

01:18:23.898 --> 01:18:28.838
<v Thomas Lohninger>Und das heißt, das kommt jetzt europaeinheitlich und diese Datenbank wird dann

01:18:28.838 --> 01:18:32.858
<v Thomas Lohninger>wirklich auch so alles beinhalten oder gibt es da auch wieder Ausnahmen,

01:18:32.938 --> 01:18:36.278
<v Thomas Lohninger>dass zum Beispiel so Polizeimilitären nicht einmelden müssen?

01:18:36.598 --> 01:18:40.378
<v Ralf Bendrath>Ganz richtig geraten, Thomas. Natürlich gibt es Ausnahmen und genau eine dieser

01:18:40.378 --> 01:18:44.578
<v Ralf Bendrath>Ausnahmen ist, dass KI-Anwendungen im Strafverfolgungsbereich in die Datenbank

01:18:44.578 --> 01:18:47.098
<v Ralf Bendrath>reinkommen, aber in den nicht öffentlich zugänglichen Teil.

01:18:48.158 --> 01:18:52.258
<v Ralf Bendrath>Also die Aufsichtsbehörden können das weiterhin überprüfen, aber der Öffentlichkeit ist es verborgen.

01:18:56.238 --> 01:19:01.858
<v Tim Pritlove>Was sind denn sozusagen da die Aufsichtsbehörden? Ich habe gelesen,

01:19:01.858 --> 01:19:03.378
<v Tim Pritlove>da gibt es ein AI-Office.

01:19:03.478 --> 01:19:05.158
<v Tim Pritlove>Ist das das, wovon wir reden?

01:19:05.378 --> 01:19:09.058
<v Ralf Bendrath>Es gibt zwei Ebenen oder sogar drei teilweise, weil die Datenschutzbehörden,

01:19:09.138 --> 01:19:11.718
<v Ralf Bendrath>wenn es um personenbezogene Daten geht, auch immer noch eine Rolle haben dabei.

01:19:12.358 --> 01:19:16.938
<v Ralf Bendrath>Aber dann gibt es die Marktaufsichtsbehörden, Market Surveillance Authorities,

01:19:17.158 --> 01:19:22.498
<v Ralf Bendrath>die sozusagen die Standardbehörden sind in diesem ganzen Produktsicherheits-CE-Label-Rahmenwerk.

01:19:23.598 --> 01:19:26.478
<v Ralf Bendrath>Und dann gibt es aber, da kann Arneka mehr zu sagen, das ist mal diese ganze

01:19:26.478 --> 01:19:30.498
<v Ralf Bendrath>Marktüberwachung, das ist alles Imco-Committee-Territorium, da halte ich mich

01:19:30.498 --> 01:19:31.958
<v Ralf Bendrath>raus, das wissen die viel besser.

01:19:32.418 --> 01:19:37.258
<v Ralf Bendrath>Aber es gibt dann eben auch noch das AI-Office in der Kommission.

01:19:38.918 --> 01:19:46.238
<v Ralf Bendrath>Das, warte mal kurz, genau, das ist im Prinzip ein nettes Label für eine neue

01:19:46.238 --> 01:19:47.518
<v Ralf Bendrath>Abteilung in der Kommission.

01:19:48.616 --> 01:19:53.836
<v Ralf Bendrath>Also in der Definition steht da, das AI-Office means the commission's function

01:19:53.836 --> 01:19:59.056
<v Ralf Bendrath>of contributing to the implementation, monitoring and supervision of AI systems and AI governance.

01:19:59.616 --> 01:20:03.816
<v Ralf Bendrath>Das ist auch schon etabliert. Das wurde durch die Kommissionsentscheidung vom

01:20:03.816 --> 01:20:07.216
<v Ralf Bendrath>24.01.2024 schon eingerichtet.

01:20:07.296 --> 01:20:10.316
<v Ralf Bendrath>Die Kommission kann ja ihre eigene interne Organisationsstruktur selber entscheiden,

01:20:10.476 --> 01:20:13.856
<v Ralf Bendrath>auch wenn das Gesetz noch gar nicht da ist. Aber die fangen jetzt sozusagen

01:20:13.856 --> 01:20:17.076
<v Ralf Bendrath>schon mal langsam an, Leute anzuheuern und das ganze Ding aufzubauen und so.

01:20:17.436 --> 01:20:22.536
<v Ralf Bendrath>Zu den Aufgaben steht in dem einen Artikel zum AI-Office eigentlich gar nichts drin.

01:20:23.076 --> 01:20:26.256
<v Ralf Bendrath>Da steht nur, das soll irgendwie das alles irgendwie koordinieren und helfen.

01:20:26.256 --> 01:20:28.596
<v Ralf Bendrath>Aber da muss man sich so ein bisschen durch den Text wühlen.

01:20:28.616 --> 01:20:31.976
<v Ralf Bendrath>In den einzelnen Punkten kommt dann sowas wie zum Beispiel die Entwicklung für

01:20:31.976 --> 01:20:35.776
<v Ralf Bendrath>Modellverträge zwischen KI,

01:20:36.056 --> 01:20:42.276
<v Ralf Bendrath>Hochrisiko-KI-Anbietern und Drittparteien, die irgendwie Komponenten und andere

01:20:42.276 --> 01:20:43.956
<v Ralf Bendrath>Unterstützungs-Sachen liefern.

01:20:44.516 --> 01:20:46.476
<v Ralf Bendrath>Dann, was heißt Template nochmal?

01:20:47.296 --> 01:20:47.816
<v Tim Pritlove>Vorlage.

01:20:47.816 --> 01:20:53.476
<v Ralf Bendrath>Eine Vorlage entwickeln für Inklusive eines automatisierten Tools,

01:20:53.736 --> 01:20:59.576
<v Ralf Bendrath>damit Anbieter von KI ihre Grundrechtefolgeabschätzungen einfacher machen können.

01:20:59.896 --> 01:21:05.056
<v Ralf Bendrath>Dann soll sie dabei helfen, dass die Industrie Codes of Practice entwickelt,

01:21:05.496 --> 01:21:06.716
<v Ralf Bendrath>also Verhaltenskodizes.

01:21:07.156 --> 01:21:10.116
<v Ralf Bendrath>Und das ist ganz interessant. Das ist immer noch eine Sache der Industrie,

01:21:10.136 --> 01:21:12.576
<v Ralf Bendrath>wie bei vielen anderen Codes of Conduct oder Codes of Practice.

01:21:12.756 --> 01:21:17.576
<v Ralf Bendrath>Aber da steht jetzt drin, wenn zwölf Monate nach dem Inkrafttreten des AI Act

01:21:17.576 --> 01:21:21.996
<v Ralf Bendrath>diese Codes of Practice noch nicht da sind oder die Kommission, also das AI Office,

01:21:22.196 --> 01:21:26.696
<v Ralf Bendrath>findet, dass die nicht gut genug sind, dann kann die Kommission selber bestimmte

01:21:26.696 --> 01:21:29.016
<v Ralf Bendrath>Standards nochmal verbindlich entscheiden. Ja.

01:21:30.013 --> 01:21:35.173
<v Ralf Bendrath>Dann soll das AI-Office die technische Dokumentation von General-Purpose-AI-Modellen,

01:21:35.313 --> 01:21:38.793
<v Ralf Bendrath>also allgemeinen Zweck, was ist das General-Purpose?

01:21:39.413 --> 01:21:40.593
<v Arnika Zinke>Allzweck-Modellen.

01:21:40.593 --> 01:21:47.793
<v Ralf Bendrath>Allzweck-KI-Modellen überprüfen. Dann soll sie eine Vorlage bereitstellen für

01:21:47.793 --> 01:21:54.193
<v Ralf Bendrath>eine Zusammenfassung der Inhalte, mit denen die KI trainiert wurde und so weiter und so weiter.

01:21:55.833 --> 01:22:01.173
<v Ralf Bendrath>Und dann in dem eigentlichen Artikel 64, der dieses AI-Office sozusagen etabliert,

01:22:01.173 --> 01:22:05.173
<v Ralf Bendrath>steht eigentlich nur, the Commission shall develop union expertise and capabilities

01:22:05.173 --> 01:22:09.373
<v Ralf Bendrath>in the field of AI through the AI-Office. Und das ist eigentlich so der Kern.

01:22:09.453 --> 01:22:12.333
<v Ralf Bendrath>Das war ein Tipp, den wir damals bei einer Anhörung gekriegt haben von Frances

01:22:12.333 --> 01:22:16.033
<v Ralf Bendrath>Haugen, der Facebook-Whistleblowerin, die uns geraten hat, Leute,

01:22:16.173 --> 01:22:20.573
<v Ralf Bendrath>es gibt nicht genug KI-Expertinnen und Experten in der Welt,

01:22:20.633 --> 01:22:25.133
<v Ralf Bendrath>um alle 27 Mitgliedstaaten ihre eigenen Expertisezentren aufbauen zu lassen.

01:22:25.133 --> 01:22:26.913
<v Ralf Bendrath>Das müsst ihr europäisch bündeln.

01:22:27.213 --> 01:22:29.893
<v Ralf Bendrath>Und das war sozusagen die ganze Idee hinter diesem AI-Office,

01:22:29.953 --> 01:22:32.753
<v Ralf Bendrath>dass man sozusagen hier einen Pool von Expertinnen und Experten hat,

01:22:32.893 --> 01:22:36.673
<v Ralf Bendrath>die dann eben den Mitgliedstaaten auch sozusagen beispringen und die unterstützen

01:22:36.673 --> 01:22:37.653
<v Ralf Bendrath>können bei der Umsetzung.

01:22:38.253 --> 01:22:39.393
<v Tim Pritlove>Klingt jetzt nicht falsch.

01:22:40.073 --> 01:22:45.853
<v Arnika Zinke>Ja, ich wollte nur noch mal sagen, dass das AI-Office auch schon eine Aufsichtsfunktion

01:22:45.853 --> 01:22:48.313
<v Arnika Zinke>bei den General Purpose AI-Modellen hat.

01:22:48.553 --> 01:22:55.893
<v Arnika Zinke>Und das war ein Zusatzbereich, den es im Kommissionsvorschlag nicht gegeben

01:22:55.893 --> 01:22:57.933
<v Arnika Zinke>hat, nämlich diese Allzweck-Modelle.

01:22:57.933 --> 01:23:02.353
<v Arnika Zinke>Und das war ein spezifischer Bereich, wo das Parlament ein komplettes Kapitel

01:23:02.353 --> 01:23:05.333
<v Arnika Zinke>quasi hinzugefügt hat, weil das Parlament eben gesagt hat, okay,

01:23:05.533 --> 01:23:09.353
<v Arnika Zinke>es ist so schön, dass wir KI-Systeme regulieren, aber es gibt ja ein Modell,

01:23:09.373 --> 01:23:12.713
<v Arnika Zinke>das vor dem KI-System kommt, auf dem das KI-System oft basiert,

01:23:12.833 --> 01:23:16.853
<v Arnika Zinke>wo quasi die Regeln eigentlich jetzt nicht da sind, vor allem,

01:23:16.853 --> 01:23:19.153
<v Arnika Zinke>weil das ja alles auf dieses Hochrisiko zugemünzt ist.

01:23:19.153 --> 01:23:22.253
<v Arnika Zinke>Von grüner Seite, unsere Idee war ursprünglich, dass wir sagen,

01:23:22.313 --> 01:23:27.353
<v Arnika Zinke>alle Allzweckmodelle sollten alle Hochrisikoanforderungen eigentlich auch erfüllen.

01:23:27.453 --> 01:23:31.193
<v Arnika Zinke>Das ging aber nicht durch und deswegen haben wir eben einen Kompromiss gefunden,

01:23:31.393 --> 01:23:36.873
<v Arnika Zinke>verschiedene Anforderungen, die quasi auf den Hochrisikoregelungen basieren,

01:23:36.913 --> 01:23:41.033
<v Arnika Zinke>aber quasi hochrisikoleit auch für diese Allzweckmodelle umzusetzen.

01:23:41.253 --> 01:23:45.213
<v Arnika Zinke>Und da hat das KI-Büro jetzt die Funktion.

01:23:46.227 --> 01:23:51.027
<v Arnika Zinke>Zu unterscheiden, welche der Modelle quasi nur die einfachen Dokumentations-

01:23:51.027 --> 01:23:57.867
<v Arnika Zinke>und Transparenzpflichten erfüllen müssen oder welche Modelle quasi extra Anforderungen

01:23:57.867 --> 01:24:00.547
<v Arnika Zinke>erfüllen müssen, also quasi in den Top-Tier fallen.

01:24:00.647 --> 01:24:07.507
<v Arnika Zinke>Also es gibt zwei Stufen für die Modelle und Modelle, wer zum Beispiel eben GPT-free,

01:24:07.707 --> 01:24:12.807
<v Arnika Zinke>worauf jetzt Chat-GPT basiert oder ja, also verschiedene Large-Language-Models

01:24:12.807 --> 01:24:16.007
<v Arnika Zinke>zum Beispiel, aber auch, was auch immer in der Zukunft kommen mag,

01:24:16.227 --> 01:24:20.687
<v Arnika Zinke>Und die stärkeren Regeln wären dann zum Beispiel Red Teaming,

01:24:20.847 --> 01:24:23.867
<v Arnika Zinke>also interne Risikoanalyse bzw.

01:24:24.767 --> 01:24:28.927
<v Arnika Zinke>Risikotesten von möglichen Problemen innerhalb des Modells.

01:24:28.987 --> 01:24:32.927
<v Arnika Zinke>Und das war eben ein komplett neuer Bereich, den das KI-Gesetz selbst und die

01:24:32.927 --> 01:24:36.927
<v Arnika Zinke>Kommission überhaupt nicht vorhergesehen hatte. Und die jetzt der Kommission

01:24:36.927 --> 01:24:41.287
<v Arnika Zinke>deutlich mehr Macht geben, als eigentlich auch vorhergesehen war.

01:24:41.327 --> 01:24:45.947
<v Arnika Zinke>Weil eigentlich war es wirklich gedacht, dass es national eben über die Market

01:24:45.947 --> 01:24:50.687
<v Arnika Zinke>Surveillance Authorities und die Data Protection Authorities in jedem Mitgliedstaat

01:24:50.687 --> 01:24:52.927
<v Arnika Zinke>einzeln die KI-Systeme überwacht werden.

01:24:52.927 --> 01:24:57.267
<v Arnika Zinke>Und jetzt sind die ganzen Modelle ausgelagert zu dem AI-Office,

01:24:57.387 --> 01:25:01.947
<v Arnika Zinke>das eben nicht nur eben die ganzen Punkte erfüllen kann, die Ralf vorhin schon

01:25:01.947 --> 01:25:04.167
<v Arnika Zinke>erwähnt hat, sondern eben auch einteilen kann,

01:25:04.347 --> 01:25:09.387
<v Arnika Zinke>wer das quasi Modell leiht und wer das Modell, das quasi einen höheren Impact

01:25:09.387 --> 01:25:12.847
<v Arnika Zinke>hat und deswegen weitere Anforderungen erfüllen muss.

01:25:12.847 --> 01:25:19.087
<v Arnika Zinke>Und das ist auch insofern interessant, weil in der Zukunft das AI-Office auch

01:25:19.087 --> 01:25:25.787
<v Arnika Zinke>weitere problematische oder impactful Modelle hinzufügen kann in den Top Tier

01:25:25.787 --> 01:25:27.747
<v Arnika Zinke>und deswegen ja relativ viel Macht bekommt.

01:25:28.227 --> 01:25:30.887
<v Ralf Bendrath>Und wir wissen seit heute Morgen schon, wer der Chef wird.

01:25:32.022 --> 01:25:36.602
<v Thomas Lohninger>Bevor wir dazu kommen, die generelle Struktur davon, dass wir das mal wiederholen.

01:25:36.642 --> 01:25:41.702
<v Thomas Lohninger>Also an sich war gedacht, die ganze Rechtsdurchsetzung über diese nationalen

01:25:41.702 --> 01:25:43.182
<v Thomas Lohninger>Marktaufsichtsbehörden zu machen.

01:25:43.462 --> 01:25:46.942
<v Thomas Lohninger>Und jetzt ist sozusagen auf Bestreben des Parlaments hin,

01:25:47.062 --> 01:25:54.862
<v Thomas Lohninger>dieses AI-Office bei der Kommission mächtiger geworden in Bezug auf das Einstufen

01:25:54.862 --> 01:25:58.462
<v Thomas Lohninger>von konkreten KI-Systemen gemäß ihrem Risikogehalt.

01:25:58.462 --> 01:26:04.162
<v Thomas Lohninger>Halt dieser generellen Modelle, General Purpose Modelle, da kann man sich wahrscheinlich

01:26:04.162 --> 01:26:07.662
<v Thomas Lohninger>so die klassischen Large Language Models vorstellen, oder? Ja?

01:26:08.342 --> 01:26:14.502
<v Thomas Lohninger>Unique. Und du hast dann aber am Ende eigentlich so welche Auflagen,

01:26:14.642 --> 01:26:18.462
<v Thomas Lohninger>weil für mich ist so, das habe ich auch mit Kolleginnen schon diskutiert aus

01:26:18.462 --> 01:26:19.082
<v Thomas Lohninger>der Zivilgesellschaft,

01:26:19.602 --> 01:26:24.602
<v Thomas Lohninger>es ist so ein bisschen sehr weird, jetzt zu sehen, dass eine Marktaufsicht auf

01:26:24.602 --> 01:26:26.942
<v Thomas Lohninger>einmal Grundrechte einhalten soll.

01:26:27.562 --> 01:26:33.282
<v Thomas Lohninger>Also wo sind wir denn jetzt mal so ein Testcase von, ich weiß nicht,

01:26:33.382 --> 01:26:36.322
<v Thomas Lohninger>Clearview AI haben wir vorher gesagt, das ist sowieso ganz verboten,

01:26:36.382 --> 01:26:39.062
<v Thomas Lohninger>aber was gibt es denn so für Beispiele, die ihr nennen könnt,

01:26:39.262 --> 01:26:44.502
<v Thomas Lohninger>wo nach eurer Lesart des Gesetzes einem Unternehmen auch Konsequenzen drohen,

01:26:44.622 --> 01:26:48.342
<v Thomas Lohninger>wenn durch die eigenen Systeme wirklich Schaden auftritt bei Menschen.

01:26:48.342 --> 01:26:54.282
<v Thomas Lohninger>Ist das alles nur eine theoretische Sache, wo ich eine Abschätzung irgendwo hinterlegen muss?

01:26:54.542 --> 01:26:58.922
<v Thomas Lohninger>Oder kann ich da zum Beispiel auch als Betroffener klagen? Wir haben ja,

01:26:58.922 --> 01:27:03.582
<v Thomas Lohninger>glaube ich, auch in der Sendung zuletzt schon diesen British Post Office Scandal diskutiert,

01:27:03.662 --> 01:27:09.682
<v Thomas Lohninger>wo aufgrund eines Fehlers eines Computersystems hunderte Menschen fälschlicherweise

01:27:09.682 --> 01:27:12.042
<v Thomas Lohninger>deren Existenzen zerstört wurden.

01:27:13.542 --> 01:27:18.162
<v Thomas Lohninger>Ja, hätte man vielleicht im Vorhinein auch nicht gesagt, dass es ein Hochrisikosystem sein soll.

01:27:18.362 --> 01:27:24.402
<v Thomas Lohninger>War es dann aber am Ende? Also würde der AI-Act bei solchen Fällen helfen und wenn ja, wie?

01:27:26.342 --> 01:27:34.662
<v Arnika Zinke>Also zum einen zur AI-Liability, also quasi zu dem Schwestergesetz zur Produkthaftungsrichtlinie.

01:27:35.082 --> 01:27:39.402
<v Arnika Zinke>Da warten wir ja immer noch darauf, dass es da in dem Bereich eine Entscheidung geben wird.

01:27:39.442 --> 01:27:42.282
<v Arnika Zinke>Und das würde, glaube ich, vieles von den Fällen, die du gerade genannt hast,

01:27:42.342 --> 01:27:44.782
<v Arnika Zinke>also wie kann ich persönlich vorgehen und persönlichen Schaden,

01:27:45.303 --> 01:27:50.763
<v Arnika Zinke>Was es schon gibt, ist, dass das KI-Gesetz auch die Möglichkeit hat,

01:27:50.923 --> 01:27:59.723
<v Arnika Zinke>über die Collective Redress, also kollektive Verbandsklage, dass Verbandsklagen

01:27:59.723 --> 01:28:00.743
<v Arnika Zinke>quasi ermöglicht werden.

01:28:01.023 --> 01:28:05.363
<v Arnika Zinke>Das heißt, wenn du quasi nachweisen kannst, dass der Hersteller zum Beispiel

01:28:05.363 --> 01:28:06.743
<v Arnika Zinke>die Anforderungen nicht erfüllt

01:28:06.743 --> 01:28:10.203
<v Arnika Zinke>hat im Hochrisikobereich, dann wäre zum Beispiel so eine Klage möglich.

01:28:10.203 --> 01:28:15.843
<v Arnika Zinke>Wir haben auch eingeführt, dass eine individuelle Person auch zu einer nationalen

01:28:15.843 --> 01:28:17.883
<v Arnika Zinke>Behörde gehen kann und sich beschweren kann, wenn man glaubt,

01:28:17.923 --> 01:28:22.003
<v Arnika Zinke>dass innerhalb dieser Regulierung gewisse Pflichten nicht erfüllt worden sind.

01:28:22.003 --> 01:28:26.243
<v Thomas Lohninger>Aber ich hake genau da ein. Also wenn ich jetzt ein Unternehmer bin mit einer

01:28:26.243 --> 01:28:29.123
<v Thomas Lohninger>ganz bösen Absicht, so ein typischer Überwachungsschweinekonzept,

01:28:29.243 --> 01:28:32.843
<v Thomas Lohninger>kann ich sozusagen hier meinen Kopf aus der Schlinge ziehen,

01:28:32.923 --> 01:28:37.223
<v Thomas Lohninger>wenn ich genügend Papier produziere und über alle diese Risiken ganz viele Abschätzungen mache?

01:28:37.223 --> 01:28:44.563
<v Thomas Lohninger>Oder ist am Ende der real auftretende Schaden das, was auch zu der Strafe führen kann?

01:28:45.143 --> 01:28:50.343
<v Thomas Lohninger>Egal wie viel Papier ich da vielleicht rundherum mir zugekauft habe,

01:28:50.563 --> 01:28:53.623
<v Thomas Lohninger>um das zu kaschen, um das irgendwie so einzukleiden.

01:28:53.623 --> 01:28:59.883
<v Ralf Bendrath>Ja, wenn du es als böser Überwachungskapitalist mit einer fiesen Firma es schaffst,

01:28:59.883 --> 01:29:04.563
<v Ralf Bendrath>irgendwie alle Auflagen des AI-Acts zu erfüllen, inklusive Grundrechte, Folgenabschätzung,

01:29:04.763 --> 01:29:09.303
<v Ralf Bendrath>inklusive die Auflagen zu Data Governance, dass du zum Beispiel gucken musst,

01:29:09.383 --> 01:29:12.563
<v Ralf Bendrath>ob in deinen Trainingsdaten irgendwelche Biases versteckt sind und wenn ja,

01:29:12.643 --> 01:29:16.123
<v Ralf Bendrath>musst du das irgendwie angehen und so. Wenn du das alles schaffst, dann bist du raus.

01:29:16.263 --> 01:29:19.243
<v Ralf Bendrath>Ja, ich möchte nur den fiesen Überwachungskapitalisten sehen, der das hinkriegt.

01:29:19.723 --> 01:29:23.183
<v Ralf Bendrath>Aber grundsätzlich, ich glaube, die Logik ist sozusagen, wenn ein konkreter

01:29:23.183 --> 01:29:26.783
<v Ralf Bendrath>Schaden entsteht, dann greift sowieso die Produkthaftungsrichtlinie jetzt,

01:29:26.843 --> 01:29:28.703
<v Ralf Bendrath>weil die jetzt ja auch für alle digitalen Produkte gilt.

01:29:30.543 --> 01:29:33.983
<v Ralf Bendrath>Wobei, nee, warte, die greift ja nur, wenn ich mir das Produkt selber gekauft habe. Stimmt.

01:29:34.752 --> 01:29:36.652
<v Ralf Bendrath>Nicht, wenn ich Opfer von einem Produkt von jemand anderem bin.

01:29:37.052 --> 01:29:41.272
<v Ralf Bendrath>Aber der AI-Act, soweit ich es im Kopf habe, aber correct me if I'm wrong, Annika,

01:29:42.132 --> 01:29:47.372
<v Ralf Bendrath>der sieht Strafen und Ähnliches dann vor, wenn die Anbieter von KI-Systemen

01:29:47.372 --> 01:29:51.572
<v Ralf Bendrath>oder auch die Nutzer von KI-Systemen gegen Regeln des AI-Acts verstoßen.

01:29:52.472 --> 01:29:54.952
<v Ralf Bendrath>Unabhängig davon, ob am Ende ein Schaden rauskommt oder nicht.

01:29:55.852 --> 01:29:58.992
<v Ralf Bendrath>Schaden kann dann immer auch noch zivilrechtlich und anders wie irgendwie eingeklagt werden.

01:29:59.972 --> 01:30:03.912
<v Tim Pritlove>Aber da will ich jetzt nochmal einhaken, weil ich fand das Beispiel,

01:30:03.912 --> 01:30:07.932
<v Tim Pritlove>was Thomas genannt hat, mit diesem Post-Office-Skandal eigentlich ganz plastisch,

01:30:07.952 --> 01:30:12.832
<v Tim Pritlove>weil das ja eine, also da ist der negative Impact ja sehr offensichtlich,

01:30:13.032 --> 01:30:16.452
<v Tim Pritlove>ja, also da sind ja, Leute haben sich ja umgebracht deswegen,

01:30:16.752 --> 01:30:21.152
<v Tim Pritlove>weil eine Software falsch gerechnet hat und wie du schon sagst,

01:30:21.192 --> 01:30:24.192
<v Tim Pritlove>gekauft haben sie aber das Produkt nicht, sondern sie mussten das sozusagen

01:30:24.192 --> 01:30:28.452
<v Tim Pritlove>im Rahmen ihrer vertraglichen Bindung mit dem Post Office,

01:30:28.672 --> 01:30:33.572
<v Tim Pritlove>UK Post Office sozusagen benutzen oder es wurde für sie benutzt und es war eigentlich

01:30:33.572 --> 01:30:35.712
<v Tim Pritlove>die Software der Post sozusagen.

01:30:35.992 --> 01:30:40.612
<v Tim Pritlove>Also ist irgendetwas in diesem AI-Eck, wo ihr sagen würdet, hier greift jetzt

01:30:40.612 --> 01:30:44.312
<v Tim Pritlove>diese Idee der Entscheidungsfindung und der Macht der Algorithmen,

01:30:44.452 --> 01:30:47.432
<v Tim Pritlove>die diesen Fall abgedeckt hätte?

01:30:47.432 --> 01:30:52.652
<v Arnika Zinke>Also ich glaube, es geht eher darum, dass die Produkte, die zukünftig auf den

01:30:52.652 --> 01:30:55.772
<v Arnika Zinke>Markt gebracht werden, gewisse Standards erfüllen müssen.

01:30:55.952 --> 01:31:02.312
<v Arnika Zinke>Das heißt, die Wahrscheinlichkeit, dass so ein schädliches oder ein schadhaftes

01:31:02.312 --> 01:31:06.692
<v Arnika Zinke>Produkt auf den Markt gebracht wird, versucht der AI zu minimieren,

01:31:06.772 --> 01:31:10.792
<v Arnika Zinke>indem er eben Data Governance, Cyber Security und so weiter vorschlägt.

01:31:11.637 --> 01:31:16.997
<v Arnika Zinke>Und alles, was dann quasi später passiert, findet eben in der AI Liability Directive,

01:31:17.057 --> 01:31:22.497
<v Arnika Zinke>die es noch nicht gibt, also KI-Haftungsrichtlinie statt.

01:31:22.497 --> 01:31:25.957
<v Arnika Zinke>Und der Hayek versucht quasi nur sicherzustellen, dass die Produkte,

01:31:25.977 --> 01:31:28.717
<v Arnika Zinke>die in Zukunft in der EU auf den Markt kommen,

01:31:28.977 --> 01:31:35.577
<v Arnika Zinke>ein Minimum an Standards erfüllen, die wir quasi in unseren EU-Values als wichtig

01:31:35.577 --> 01:31:39.197
<v Arnika Zinke>genug ansehen, damit KI auch trustworthy wird,

01:31:39.337 --> 01:31:47.317
<v Arnika Zinke>also vertrauensbindend, also dass man quasi ein gewisses Vertrauen in die KI hat.

01:31:47.317 --> 01:31:52.957
<v Tim Pritlove>Ja gut, aber hier ist es ja noch nicht mal KI. Hier ist ja Plus und Minus nicht

01:31:52.957 --> 01:31:53.877
<v Tim Pritlove>richtig benutzt worden.

01:31:55.197 --> 01:31:58.637
<v Arnika Zinke>Dann würde es eigentlich nicht in den Scope vom KI-Gesetz kommen.

01:31:58.637 --> 01:32:02.037
<v Tim Pritlove>Das heißt, das ist sozusagen immer noch nicht sanktioniert.

01:32:02.057 --> 01:32:06.617
<v Tim Pritlove>Ja, nee, verrechnen dürft ihr euch, aber ihr dürft nicht im abstrakten Raum

01:32:06.617 --> 01:32:10.217
<v Tim Pritlove>falsch sein, nur im konkreten. Ist auch ein bisschen doof, oder?

01:32:10.357 --> 01:32:13.737
<v Ralf Bendrath>Ja, aber dass die sich da einfach stumpf verrechnet haben, das wird ja wohl

01:32:13.737 --> 01:32:15.617
<v Ralf Bendrath>irgendwelche rechtlichen Folgen haben müssen, oder?

01:32:15.617 --> 01:32:21.077
<v Tim Pritlove>Ja gut, also ich meine, das geht jetzt schon seit über zehn Jahren ist es bekannt,

01:32:21.257 --> 01:32:25.677
<v Tim Pritlove>dass sie sich verrechnet haben und es ist ja jetzt erst durch eine Fernsehserie

01:32:25.677 --> 01:32:31.937
<v Tim Pritlove>im englischen Fernsehen und britischen Fernsehen überhaupt erst zu einem Skandal geworden,

01:32:32.197 --> 01:32:36.677
<v Tim Pritlove>weil dann die Öffentlichkeit gesagt hat, was geht denn hier ab und in der Zwischenzeit,

01:32:36.737 --> 01:32:41.557
<v Tim Pritlove>wie gesagt, Leute hat das halt in den finanziellen Ruin getrieben und mehrere

01:32:41.557 --> 01:32:43.657
<v Tim Pritlove>der Betroffenen haben sich halt einfach das Leben genommen.

01:32:43.657 --> 01:32:46.257
<v Tim Pritlove>Und das ist halt schon irgendwie so ein Level, wo ich sagen würde,

01:32:46.377 --> 01:32:51.337
<v Tim Pritlove>da kann man schon mal rein regulieren, um sicherzustellen, dass so etwas nicht geht.

01:32:51.377 --> 01:32:54.777
<v Tim Pritlove>Deswegen frage ich halt einfach ganz blöd, seht ihr jetzt irgendwas in diesem

01:32:54.777 --> 01:33:01.197
<v Tim Pritlove>AI-Act oder in dieser Product-Liability-Richtlinie, das so etwas verhindert

01:33:01.197 --> 01:33:03.697
<v Tim Pritlove>oder ist das jetzt tatsächlich noch nicht mal abgedeckt?

01:33:04.710 --> 01:33:07.510
<v Ralf Bendrath>Wenn es um einfaches Plus-Minus geht, ist es nicht abgedeckt.

01:33:07.530 --> 01:33:08.470
<v Ralf Bendrath>Das ist ja nicht unter KI.

01:33:10.010 --> 01:33:15.130
<v Tim Pritlove>Also verrechnen darf man sich nach wie vor, nur nicht falsch schwurbeln.

01:33:15.950 --> 01:33:21.690
<v Arnika Zinke>Also es gab auch im KI-Gesetz ganz stark den Push, es nur auf Machine Learning

01:33:21.690 --> 01:33:24.790
<v Arnika Zinke>zu begrenzen, also KI nur als Machine Learning zu begreifen.

01:33:25.050 --> 01:33:30.450
<v Arnika Zinke>Und es hat uns sehr viel Kraft gekostet, dass zumindest Teile von Automated

01:33:30.450 --> 01:33:35.370
<v Arnika Zinke>Decision Making weiterhin im Skop von KI-Gesetz drin sind. Also so einfachere

01:33:35.370 --> 01:33:39.850
<v Arnika Zinke>Software ist im KI-Gesetz auf jeden Fall nicht mit ihm begriffen.

01:33:39.850 --> 01:33:43.870
<v Tim Pritlove>Ja gut, aber ich meine, in dem Fall war es ja so,

01:33:44.070 --> 01:33:50.450
<v Tim Pritlove>dass den Vertragspartnern des Post Office quasi ein Fehler nachgewiesen wurde,

01:33:50.510 --> 01:33:55.850
<v Tim Pritlove>den es so nie gegeben hat und das ist ja eigentlich auch eine Entscheidungsfindung.

01:33:55.850 --> 01:34:00.710
<v Tim Pritlove>Es war nämlich die Entscheidungsfindung mit, deine Abrechnung stimmt nicht, obwohl sie stimmt.

01:34:01.150 --> 01:34:06.450
<v Tim Pritlove>So und damit ist ja sozusagen von einer Software eine falsche Entscheidung gefällt

01:34:06.450 --> 01:34:10.350
<v Tim Pritlove>worden, die dann auch später niemand anzuzweifeln bereit war,

01:34:10.410 --> 01:34:13.470
<v Tim Pritlove>geschweige denn irgendeine Verantwortung dafür zu übernehmen.

01:34:13.470 --> 01:34:16.870
<v Tim Pritlove>Und alle haben sich gegenseitig da in Schwarzenpeter zugezogen und alle, die das halt,

01:34:17.610 --> 01:34:20.490
<v Tim Pritlove>es wurde ja noch dadurch verschlimmert, dass halt das Post Office auch noch

01:34:20.490 --> 01:34:24.410
<v Tim Pritlove>in UK, gut ich weiß jetzt nicht EU und so, aber es geht ja jetzt nur sozusagen

01:34:24.410 --> 01:34:27.510
<v Tim Pritlove>um so einen Fall, der ja durchaus realistisch ist, weil der hat ja stattgefunden,

01:34:27.610 --> 01:34:32.470
<v Tim Pritlove>dass das Post Office halt auch noch so einen anderen rechtlichen Status hat und so weiter.

01:34:32.470 --> 01:34:35.970
<v Tim Pritlove>Also es war also generell sehr schwierig, da überhaupt irgendwie gegenzugehen

01:34:35.970 --> 01:34:38.230
<v Tim Pritlove>und es hat die Leute halt einfach mal komplett ruiniert.

01:34:38.290 --> 01:34:43.330
<v Tim Pritlove>Das ist ja schon ein ziemlich harter Tobak. Also in meiner Wahrnehmung ist auch

01:34:43.330 --> 01:34:49.210
<v Tim Pritlove>eine Berechnung, eine Saldos, eine automatische Entscheidungsfindung,

01:34:49.230 --> 01:34:52.230
<v Tim Pritlove>weil ja da am Ende eine Wahrheit geliefert wird.

01:34:52.290 --> 01:34:56.930
<v Tim Pritlove>Nämlich die Wahrheit mit, du hast uns genug Geld gegeben oder du hast uns nicht genug Geld gegeben.

01:34:58.678 --> 01:35:04.038
<v Arnika Zinke>Ich verstehe dein Reasoning und es ist nicht so, dass ich dir widerspreche.

01:35:04.098 --> 01:35:07.778
<v Arnika Zinke>Ich kann dir aber sagen, dass genau diese einfacheren Entscheidungsfindungen,

01:35:07.798 --> 01:35:11.978
<v Arnika Zinke>genau das ist, was der Großteil der Personen, die am Verhandlungstisch saßen,

01:35:12.038 --> 01:35:15.558
<v Arnika Zinke>vor allem die Kommission und der Rat, auf gar keinen Fall drin haben wollten.

01:35:15.838 --> 01:35:21.258
<v Arnika Zinke>Also da ging es schon darum zu sagen, es muss etwas sein, was schon auf höheren

01:35:21.258 --> 01:35:25.958
<v Arnika Zinke>Ebenen quasi arbeitet und jetzt nicht ganz einfache Rechnungen und Excel-Tabellen.

01:35:25.958 --> 01:35:28.118
<v Arnika Zinke>In Excel-Tabellen war immer so ein Beispiel, was sie gebracht haben.

01:35:28.238 --> 01:35:33.138
<v Tim Pritlove>Die müssen auch weiterhin falsch sein dürfen, sonst läuft gar nichts mehr.

01:35:34.498 --> 01:35:38.778
<v Thomas Lohninger>Ich würde da gerne noch einen zweiten Fall reinnehmen, und zwar dieser niederländische

01:35:38.778 --> 01:35:43.478
<v Thomas Lohninger>Skandal, wo die Steuerbehörden sich vertan haben, wo ja auch die Regierung von

01:35:43.478 --> 01:35:45.338
<v Thomas Lohninger>Mark Rutte darüber gestolpert ist.

01:35:45.738 --> 01:35:48.818
<v Thomas Lohninger>Und das als Frage zu formulieren,

01:35:48.978 --> 01:35:55.098
<v Thomas Lohninger>es macht für den AI keinen Unterschied, ob jetzt ein Unternehmen hier dieses

01:35:55.098 --> 01:35:59.458
<v Thomas Lohninger>Produkt auf den Markt bringt und diesen Fehler macht oder diesen Bias hat oder

01:35:59.458 --> 01:36:02.278
<v Thomas Lohninger>ob es die öffentliche Hand ist, wo man ja vielleicht sagen könnte,

01:36:02.498 --> 01:36:04.938
<v Thomas Lohninger>da wollen wir höhere Anforderungen haben.

01:36:05.258 --> 01:36:07.858
<v Thomas Lohninger>Weil beim Unternehmen kann ich vielleicht noch irgendwie sagen,

01:36:08.078 --> 01:36:09.998
<v Thomas Lohninger>okay, gut, da werde ich kein Kunde.

01:36:10.098 --> 01:36:13.878
<v Thomas Lohninger>Aber wenn es jetzt irgendwelche Behörden sind, die solche algorithmischen Systeme

01:36:13.878 --> 01:36:16.178
<v Thomas Lohninger>anwenden, habe ich oft keine Wahl.

01:36:16.418 --> 01:36:19.338
<v Thomas Lohninger>Gibt es da höhere Auflagen für die öffentliche Hand?

01:36:20.498 --> 01:36:24.138
<v Arnika Zinke>Also es gibt grundsätzlich, die Hauptlast der Anforderungen liegt auf jeden

01:36:24.138 --> 01:36:26.538
<v Arnika Zinke>Fall beim Hersteller und nicht beim Anwender.

01:36:26.598 --> 01:36:29.438
<v Arnika Zinke>Also das ist mal so die grundsätzliche Idee auch vom KI-Gesetz.

01:36:29.618 --> 01:36:34.318
<v Arnika Zinke>Das heißt, wenn, dann würde wahrscheinlich, also gerade wenn die KI in irgendeiner

01:36:34.318 --> 01:36:37.718
<v Arnika Zinke>Form fehlerhaft, also zum Beispiel eben Bias hat, dann würde das eher auf den

01:36:37.718 --> 01:36:39.238
<v Arnika Zinke>Hersteller fahren als auf den Benutzer.

01:36:39.238 --> 01:36:42.778
<v Arnika Zinke>Was es aber eben schon gibt und das ist eben vor allem für Behörden,

01:36:42.778 --> 01:36:45.958
<v Arnika Zinke>wird es wichtig sein, ist eben diese Grundrechtefolgenabschätzung,

01:36:46.038 --> 01:36:49.678
<v Arnika Zinke>die vielleicht in dem Fall, den du genannt hast, gegriffen hätte,

01:36:49.918 --> 01:36:51.878
<v Arnika Zinke>weil sie sich dann schon bewusst gewesen wären.

01:36:51.998 --> 01:36:55.778
<v Arnika Zinke>Das geht aber dann schon gegen Personen, die dann zum Beispiel sozial benachteiligt

01:36:55.778 --> 01:36:58.458
<v Arnika Zinke>sind. Aber die Hauptklasse wäre eigentlich bei dem Hersteller.

01:36:58.598 --> 01:37:04.178
<v Arnika Zinke>Und es gibt in dem Sinne ein paar zusätzliche Anforderungen für Behörden.

01:37:04.238 --> 01:37:08.438
<v Arnika Zinke>Aber trotzdem muss eigentlich der Hersteller garantieren und sicherstellen,

01:37:08.458 --> 01:37:10.078
<v Arnika Zinke>dass die KI in Ordnung ist.

01:37:11.158 --> 01:37:15.778
<v Ralf Bendrath>Aber wenn ich das ergänzen kann, dieser holländische Sozialversicherungsfall,

01:37:15.918 --> 01:37:17.458
<v Ralf Bendrath>der hat uns natürlich hier alle bewegt.

01:37:17.518 --> 01:37:21.098
<v Ralf Bendrath>Und eine unserer Co-Verhandlerinnen war ja die grüne Abgeordnete aus Holland,

01:37:21.258 --> 01:37:25.358
<v Ralf Bendrath>Kim van Starrentaak im Innenmarktausschuss, neben Sergej Labudinski im Innenausschuss.

01:37:25.358 --> 01:37:30.938
<v Ralf Bendrath>Und da ist jetzt im Annex 3 für die Hochrisiko-KIs Punkt 5 drin,

01:37:31.118 --> 01:37:33.478
<v Ralf Bendrath>extra, der war auch schon vorher von der Kommission, den haben wir nur ein bisschen

01:37:33.478 --> 01:37:37.598
<v Ralf Bendrath>aufgebohrt, alles, wo eine KI eingesetzt wird zum Entscheiden,

01:37:37.598 --> 01:37:43.458
<v Ralf Bendrath>ob jemand Zugang zu essentiellen privaten Diensten oder essentiellen öffentlichen

01:37:43.458 --> 01:37:45.498
<v Ralf Bendrath>Diensten und Benefits, also...

01:37:48.500 --> 01:37:51.280
<v Thomas Lohninger>Also staatliche Leistungen, Sozialhilfe.

01:37:51.280 --> 01:37:54.920
<v Ralf Bendrath>Oder auch essentielle private Leistungen, wenn das irgendwie Versicherungsleistungen

01:37:54.920 --> 01:37:55.820
<v Ralf Bendrath>sind oder sowas, keine Ahnung.

01:37:56.260 --> 01:38:01.800
<v Ralf Bendrath>Dann fällt das auf jeden Fall unter Hochrisiko-KI, man muss die ganzen zusätzlichen Auflagen erfüllen.

01:38:02.660 --> 01:38:08.600
<v Ralf Bendrath>Unter anderem, wenn es um Gesundheitsdienste geht, aber auch darum zu entscheiden,

01:38:08.680 --> 01:38:11.460
<v Ralf Bendrath>ob jemand Anspruch auf irgendwelche Leistungen hat.

01:38:11.620 --> 01:38:14.760
<v Ralf Bendrath>Ob es Renten sind, Sozialversicherungsansprüche, was auch immer.

01:38:15.420 --> 01:38:21.360
<v Ralf Bendrath>Oder wenn man in dem Kontext versucht, die Kreditwürdigkeit von Leuten abzuschätzen mittels KI.

01:38:21.540 --> 01:38:25.980
<v Ralf Bendrath>Das ist auf jeden Fall auch Hochrisiko und braucht dann eben die ganzen Dokumentationspflichten,

01:38:25.980 --> 01:38:29.180
<v Ralf Bendrath>Bias, es muss angegangen werden in Trainingsdaten und, und, und.

01:38:29.980 --> 01:38:33.900
<v Thomas Lohninger>Das heißt, um es pragmatisch zu machen, wenn ich meine Haushaltsversicherung

01:38:33.900 --> 01:38:37.200
<v Thomas Lohninger>mir verwehrt wird oder das Jobcenter sagt,

01:38:37.460 --> 01:38:42.220
<v Thomas Lohninger>du kriegst deine Arbeitslose jetzt nicht mehr oder die Schulung nicht mehr bezahlt,

01:38:42.320 --> 01:38:46.260
<v Thomas Lohninger>dann wäre das Hochrisiko, auch wenn das vielleicht nur mit Excel passiert.

01:38:46.260 --> 01:38:49.360
<v Ralf Bendrath>Nee, nur wenn es auf Basis von einer KI passiert.

01:38:49.680 --> 01:38:53.900
<v Ralf Bendrath>Also wenn es schon irgendwie ein Machine Learning System dahinter hängen.

01:38:54.020 --> 01:38:58.640
<v Ralf Bendrath>Was aber immer ergreift, unabhängig vom AI Act, ist dann der Artikel in der

01:38:58.640 --> 01:39:02.340
<v Ralf Bendrath>DSGVO zu Profiling und automatisierter Entscheidungsfindung,

01:39:02.380 --> 01:39:03.560
<v Ralf Bendrath>wo ja eh schon drin steht,

01:39:03.900 --> 01:39:09.500
<v Ralf Bendrath>man darf als natürliche Person nicht sozusagen Opfer sein von einer negativen

01:39:09.500 --> 01:39:15.000
<v Ralf Bendrath>Entscheidung, die ausschließlich mit automatisierten Entscheidungssystemen getroffen wurde.

01:39:15.920 --> 01:39:18.400
<v Ralf Bendrath>Also da ist auch immer noch ein Mensch verantwortlich. Und ich habe immer noch

01:39:18.400 --> 01:39:21.400
<v Ralf Bendrath>das Recht, mich da auch zu beschweren entsprechend nach DSGVO und so.

01:39:22.614 --> 01:39:26.814
<v Tim Pritlove>Ja, ich denke, es wird dann nicht so lange dauern, bis die AI auch in Excel das Sagen hat.

01:39:26.894 --> 01:39:30.834
<v Tim Pritlove>Von daher fällt es dann vielleicht irgendwann doch wieder da drunter.

01:39:31.474 --> 01:39:34.594
<v Tim Pritlove>Na gut, also ein paar Lücken bestehen auf jeden Fall noch.

01:39:34.594 --> 01:39:39.274
<v Arnika Zinke>Ja, wenn du gerade Lücken ansprichst, kann ich noch eine Lücke nennen,

01:39:39.374 --> 01:39:41.394
<v Arnika Zinke>die wir leider im Endgesetz jetzt drinnen haben.

01:39:41.614 --> 01:39:44.954
<v Arnika Zinke>Also ich habe schon vorhin erwähnt, dass quasi das ganze Gesetz das Wichtigste

01:39:44.954 --> 01:39:48.434
<v Arnika Zinke>ist eigentlich, okay, jetzt neben den General Purpose AI Punkten,

01:39:48.434 --> 01:39:52.054
<v Arnika Zinke>die gut sind, die Hochrisikofälle und die Hochrisiko-KI.

01:39:52.054 --> 01:39:56.434
<v Arnika Zinke>Und da gibt es einen Artikel, der quasi sagt, was fällt in Hochrisiko und was

01:39:56.434 --> 01:39:57.554
<v Arnika Zinke>nicht. Das ist der Artikel 6.

01:39:57.754 --> 01:40:02.414
<v Arnika Zinke>Und das war eigentlich die Krux in dem Ganzen oder das Wichtigste in dem ganzen

01:40:02.414 --> 01:40:06.234
<v Arnika Zinke>Gesetz, nämlich was fällt also aus dem Annex, den wir dazu haben,

01:40:06.434 --> 01:40:11.894
<v Arnika Zinke>quasi die Bereiche drinstehen, tatsächlich in alle Anforderungen quasi, die im Gesetz stehen.

01:40:12.454 --> 01:40:16.814
<v Arnika Zinke>Und da gibt es jetzt quasi drei Möglichkeiten, wie man sich aus dem Gesetz wieder

01:40:16.814 --> 01:40:23.454
<v Arnika Zinke>rausholen kann, die relativ weit formuliert sind und möglicherweise auch noch

01:40:23.454 --> 01:40:26.614
<v Arnika Zinke>in Zukunft zu Problemen führen könnten, weil sie so weit formuliert sind.

01:40:26.614 --> 01:40:30.954
<v Arnika Zinke>Das heißt, man kann sich dann eigentlich wieder aus den Hochrisikoverpflichtungen

01:40:30.954 --> 01:40:34.494
<v Arnika Zinke>rausholen, wenn man in diese drei Bereiche fällt.

01:40:34.934 --> 01:40:40.314
<v Arnika Zinke>Die ganze Raison des Gesetzes, auf dem die Kommission auch ihre Logik aufgebaut

01:40:40.314 --> 01:40:44.894
<v Arnika Zinke>hat, ist eigentlich mit diesem Artikel 6 und mit diesen Ausnahmen ein bisschen zerstört worden.

01:40:45.114 --> 01:40:49.514
<v Arnika Zinke>Und das ist etwas, das für uns sehr hart hinzunehmen.

01:40:50.094 --> 01:40:51.354
<v Thomas Lohninger>Was sind das für Ausnahmen?

01:40:52.134 --> 01:41:00.474
<v Arnika Zinke>Ein ganz kleiner Moment. Also, wenn die KI nur narrow procedural,

01:41:00.654 --> 01:41:07.694
<v Arnika Zinke>also prozedurale Anwendungen sind, die quasi so ein bisschen nebenbei laufen,

01:41:07.854 --> 01:41:12.294
<v Arnika Zinke>aber nicht quasi das Hauptressort der KI sind, dann kann man sich rausnehmen,

01:41:12.394 --> 01:41:14.954
<v Arnika Zinke>was jetzt genau diese narrow procedural tasks sind.

01:41:15.574 --> 01:41:18.634
<v Arnika Zinke>Haben wir jetzt ein bisschen im Erwägungsgrund erklärt, könnte man aber auch

01:41:18.634 --> 01:41:20.814
<v Arnika Zinke>relativ weit begreifen.

01:41:21.174 --> 01:41:26.094
<v Arnika Zinke>Dann sagt es, wenn die KI nur versucht, eine bereits ausgeführte menschliche

01:41:26.094 --> 01:41:30.654
<v Arnika Zinke>Aktivität zu verbessern, was ist eine bereits ausgeführte menschliche Aktivität?

01:41:30.874 --> 01:41:33.854
<v Arnika Zinke>Das könnte alles sein. Ich glaube, Ralf hat gesagt oder jemand,

01:41:34.074 --> 01:41:36.454
<v Arnika Zinke>es könnte eine gebaute Pyramide sein.

01:41:36.534 --> 01:41:41.454
<v Arnika Zinke>Das ist ja auch eine beendete menschliche Aktivität. Also, ja,

01:41:41.474 --> 01:41:49.274
<v Arnika Zinke>problematisch, wenn das KI-System nur Decision-Making-Patterns versucht zu verbessern

01:41:49.274 --> 01:41:56.674
<v Arnika Zinke>und keine menschliche Entscheidung entwickelt.

01:41:57.690 --> 01:41:58.510
<v Arnika Zinke>Ersetzt.

01:41:59.850 --> 01:42:03.210
<v Thomas Lohninger>Aber das ist ja genauso wie das, was Ralfrat gesagt hat.

01:42:03.270 --> 01:42:07.690
<v Thomas Lohninger>Bei der DSGVO haben wir auch diesen guten Artikel, die automatisierten Entscheidungen,

01:42:07.710 --> 01:42:13.350
<v Thomas Lohninger>die sozusagen zustimmungspflichtig ist, wenn sie ausschließlich von einer Maschine getroffen wird.

01:42:13.410 --> 01:42:17.610
<v Thomas Lohninger>Also solange da irgendwo noch ein Mensch sitzt, der die ganze Zeit nur auf OK

01:42:17.610 --> 01:42:22.930
<v Thomas Lohninger>klickt zu dem, was die Maschine ihm vorgibt, kannst du dich eigentlich wieder rausreden.

01:42:23.730 --> 01:42:27.570
<v Arnika Zinke>Ja, was höchst problematisch ist und was eben auch zum Beispiel dieser Human

01:42:27.570 --> 01:42:32.710
<v Arnika Zinke>Oversight Artikel, also eine dieser Regeln, die die Hochrisiko-KI zu befolgen

01:42:32.710 --> 01:42:35.870
<v Arnika Zinke>haben, ist eben, dass es einen Human in the Loop gibt, also einen Menschen,

01:42:35.890 --> 01:42:37.190
<v Arnika Zinke>der da sitzt und eben okay drückt.

01:42:37.350 --> 01:42:39.830
<v Arnika Zinke>Und wir haben quasi auch versucht, bei den Verhandlungen zu erklären,

01:42:40.010 --> 01:42:44.410
<v Arnika Zinke>dass es sowas wie Automation Bias gibt, also dass man quasi davon ausgeht,

01:42:44.410 --> 01:42:47.490
<v Arnika Zinke>dass wenn die KI sagt, naja, die Person ist in irgendeiner Form kriminell,

01:42:47.510 --> 01:42:50.770
<v Arnika Zinke>dann wird das schon stimmen, weil die hat das ja aufgrund von irgendwelchen Parametern bemessen.

01:42:51.170 --> 01:42:55.910
<v Arnika Zinke>Und das ist eben genau das Problem, dass nur weil ein Mensch da sitzt und das

01:42:55.910 --> 01:43:01.790
<v Arnika Zinke>überprüft, das nicht immer mit einem großen Gedankengang einhergeht,

01:43:01.930 --> 01:43:04.710
<v Arnika Zinke>weil die Personen oft gar keine Zeit haben, sich da groß zu überlegen,

01:43:04.730 --> 01:43:07.210
<v Arnika Zinke>welche Parameter da jetzt in die KI angeflossen sind.

01:43:07.590 --> 01:43:11.230
<v Arnika Zinke>Und das ist natürlich schon problematisch, dass es jetzt diese Möglichkeiten

01:43:11.230 --> 01:43:14.170
<v Arnika Zinke>gibt, um sich quasi wieder aus dem AI rauszuholen.

01:43:14.270 --> 01:43:17.610
<v Arnika Zinke>Das gilt aber nur für KI-Systeme und nicht für die Modelle. Also für die Modelle

01:43:17.610 --> 01:43:20.770
<v Arnika Zinke>gibt es diesen Filter, in Artikel 6 für die gilt er nicht.

01:43:21.730 --> 01:43:24.430
<v Ralf Bendrath>Was wir in der Parlamentsposition, wenn ich mich richtig erinnere,

01:43:24.470 --> 01:43:28.530
<v Ralf Bendrath>dritte hatten, war ein ausdrückliches Verbot dafür, dass eine KI quasi Urteile

01:43:28.530 --> 01:43:31.430
<v Ralf Bendrath>schreiben darf, die der Richter am Ende nur noch unterzeichnet.

01:43:31.610 --> 01:43:33.610
<v Ralf Bendrath>Das ist aber leider im Trilog wieder rausgeflogen.

01:43:35.037 --> 01:43:38.497
<v Thomas Lohninger>Da würde ich gerne wissen, welcher Mitgliedstaat sich dafür eingesetzt hat,

01:43:38.597 --> 01:43:40.237
<v Thomas Lohninger>dass das künftig gehen kann.

01:43:40.497 --> 01:43:40.877
<v Ralf Bendrath>Keine Ahnung.

01:43:41.497 --> 01:43:42.597
<v Thomas Lohninger>Ja, wir haben da zu viel...

01:43:42.597 --> 01:43:46.057
<v Ralf Bendrath>Wir haben mit den Spaniern verhandelt vor allem. Aber wer dann dahinter steckt,

01:43:46.097 --> 01:43:49.117
<v Ralf Bendrath>ist uns immer so ein bisschen unklar, wenn man da nicht die Kontakte hat.

01:43:50.097 --> 01:43:52.237
<v Ralf Bendrath>Und natürlich eine Sache vielleicht noch zum Schluss.

01:43:53.437 --> 01:43:56.717
<v Ralf Bendrath>Das riesengroße Ding, das bis zum Schluss umstritten war und uns da irgendwie

01:43:56.717 --> 01:44:00.557
<v Ralf Bendrath>zwei Nächte noch gekostet hat, war halt die Frage mit Gesichtserkennung im öffentlichen Raum.

01:44:01.017 --> 01:44:03.977
<v Thomas Lohninger>Ja, ich wusste, dass das jetzt so kommt. Ich hätte dich sonst gleich danach

01:44:03.977 --> 01:44:06.057
<v Thomas Lohninger>gefragt. Wie ist das denn gelöst?

01:44:06.117 --> 01:44:12.277
<v Thomas Lohninger>Hier war die große Forderung der Zivilgesellschaft, Gesichtserkennung im öffentlichen

01:44:12.277 --> 01:44:17.697
<v Thomas Lohninger>Raum wirklich gänzlich als Hochrisikotechnik zu verbieten und daran anschließend

01:44:17.697 --> 01:44:20.817
<v Thomas Lohninger>natürlich auch alle anderen Formen biometrischer Erkennung am Gang,

01:44:21.117 --> 01:44:26.237
<v Thomas Lohninger>einfach alles, wo uns Bewegungsfreiheit im öffentlichen Raum weggenommen wird

01:44:26.237 --> 01:44:27.337
<v Thomas Lohninger>und Datenschutz eingeschränkt.

01:44:27.337 --> 01:44:33.077
<v Thomas Lohninger>Das war auch mit einer europäischen Bürgerinitiative nochmal bestärkt,

01:44:33.077 --> 01:44:36.017
<v Thomas Lohninger>diese Forderung, Reclaim Your Face, hieß die Kampagne.

01:44:36.317 --> 01:44:40.517
<v Thomas Lohninger>Und das hat es ja, glaube ich, auch in die Parlamentsposition geschafft.

01:44:42.077 --> 01:44:44.197
<v Thomas Lohninger>Nehmt uns nicht die Hoffnung. Was ist daraus geworden?

01:44:46.157 --> 01:44:49.497
<v Ralf Bendrath>Das übernehme ich mal, ja. Das ist eher mein Blutfallbereich.

01:44:49.657 --> 01:44:54.717
<v Ralf Bendrath>Ja, es steht jetzt in Artikel 5, Paragraph 1.h.

01:44:55.077 --> 01:44:59.357
<v Ralf Bendrath>Also Paragraph 1 ist, die folgenden KI-Praktiken sind verboten.

01:44:59.817 --> 01:45:04.857
<v Ralf Bendrath>Paragraph h, die Nutzung von Echtzeit-biometrischen Identifikationssystemen

01:45:04.857 --> 01:45:10.217
<v Ralf Bendrath>auf Entfernung in öffentlich zugänglichen Räumen für die Zwecke der Strafverfolgung.

01:45:11.212 --> 01:45:14.192
<v Ralf Bendrath>Ist verboten, steht so drin, aber leider ist der Satz dann noch nicht zu Ende.

01:45:14.532 --> 01:45:20.292
<v Ralf Bendrath>Der geht nämlich dann weiter, außer und insoweit, als solche Benutzung strikt

01:45:20.292 --> 01:45:23.432
<v Ralf Bendrath>notwendig ist für eines der folgenden Zwecke.

01:45:24.292 --> 01:45:27.472
<v Ralf Bendrath>Und dann kommen sozusagen die Ausnahmen, wo es dann doch erlaubt ist,

01:45:27.612 --> 01:45:33.372
<v Ralf Bendrath>die gezielte Suche nach spezifischen Opfern von Entführung oder Human Trafficking oder so.

01:45:34.592 --> 01:45:39.612
<v Ralf Bendrath>Zweitens die Verhinderung einer spezifischen,

01:45:39.632 --> 01:45:44.752
<v Ralf Bendrath>substanziellen und unmittelbar bevorstehenden Bedrohung für das Leben oder die

01:45:44.752 --> 01:45:51.692
<v Ralf Bendrath>physische Sicherheit von natürlichen Personen oder einer genuinen und gegenwärtigen

01:45:51.692 --> 01:45:55.112
<v Ralf Bendrath>oder vorhersehbaren Bedrohung einer terroristischen Attacke.

01:45:56.172 --> 01:46:01.292
<v Ralf Bendrath>Und drittens die Identifizierung und Lokalisierung von einer Person,

01:46:01.672 --> 01:46:08.032
<v Ralf Bendrath>die verdächtig ist, eine Straftat begangen zu haben, die mit einer Höchststrafe

01:46:08.032 --> 01:46:10.712
<v Ralf Bendrath>von mindestens vier Jahren Gefängnis bestraft werden kann.

01:46:11.512 --> 01:46:15.552
<v Ralf Bendrath>Also für die Zwecke wäre es noch erlaubt. Also die Idee war sozusagen dahinter

01:46:15.552 --> 01:46:19.072
<v Ralf Bendrath>dann am allerletzten Kompromiss, Donnerstag, Freitagnacht oder wann,

01:46:19.232 --> 01:46:23.752
<v Ralf Bendrath>kurz vor Weihnachten, dass wenn irgendwo jemand eine Tankstelle ausgeraubt hat

01:46:23.752 --> 01:46:27.672
<v Ralf Bendrath>und davonrennt oder davonfährt auf dem Motorrad oder so und vielleicht keinen

01:46:27.672 --> 01:46:30.812
<v Ralf Bendrath>Helm auf hat, dass man dann schnell in Echtzeit die Kameras,

01:46:30.812 --> 01:46:32.072
<v Ralf Bendrath>die es da in der Gegend gibt,

01:46:32.192 --> 01:46:35.052
<v Ralf Bendrath>wenn die sozusagen verbunden sind und Gesichtserkennung überhaupt können und

01:46:35.052 --> 01:46:38.552
<v Ralf Bendrath>sowas, einschaltet und sagt, hier, den finden wir mal diesen einen Räuber hier.

01:46:38.972 --> 01:46:42.212
<v Ralf Bendrath>Damit wir, solange der noch in der Nachbarschaft ist, irgendwie grob eine Chance

01:46:42.212 --> 01:46:43.852
<v Ralf Bendrath>haben, dass der irgendwie noch gefasst wird.

01:46:44.872 --> 01:46:48.152
<v Ralf Bendrath>Das war sozusagen die Idee. Da kann man dann sagen, ja, ist total offen und

01:46:48.152 --> 01:46:50.692
<v Ralf Bendrath>weit. Das hat aber bestimmte weitere Voraussetzungen noch.

01:46:51.012 --> 01:46:58.312
<v Ralf Bendrath>Das soll autorisiert werden von einer Justizbehörde oder einer anderen Behörde,

01:46:58.312 --> 01:47:02.152
<v Ralf Bendrath>die binnen der Entscheidungen treffen können, also de facto Staatsanwaltschaft

01:47:02.152 --> 01:47:03.332
<v Ralf Bendrath>dann wird das sein in der Praxis.

01:47:03.452 --> 01:47:04.092
<v Thomas Lohninger>Ein Richter?

01:47:04.748 --> 01:47:09.848
<v Ralf Bendrath>Ja, eben, Justiz oder Staatsanwaltschaft. Dann muss diese Behörde,

01:47:09.848 --> 01:47:13.628
<v Ralf Bendrath>die es anwenden will, vorher eine Grundrechtefolgenabschätzung gemacht haben mit dem System.

01:47:14.768 --> 01:47:23.208
<v Ralf Bendrath>Zumindest in der Regel, es gibt Ausnahmen. Dann muss es strikt limitiert sein in Bezug auf die Zeit,

01:47:23.408 --> 01:47:25.028
<v Ralf Bendrath>in der das gemacht werden darf,

01:47:25.188 --> 01:47:29.868
<v Ralf Bendrath>also die Dauer und den geografischen und persönlichen Anwendungsbereich.

01:47:29.868 --> 01:47:33.968
<v Ralf Bendrath>Du kannst ja nur die Nachbarschaft überwachen, aber nicht ganz Berlin oder so oder ganz Brüssel.

01:47:35.728 --> 01:47:39.168
<v Ralf Bendrath>Und jede Nutzung soll den zuständigen

01:47:39.168 --> 01:47:42.768
<v Ralf Bendrath>Marktaufsichtsbehörden und Datenschutzbehörden notifiziert werden.

01:47:44.808 --> 01:47:50.388
<v Ralf Bendrath>Und das Ganze ist aber sozusagen nur die Leitplanke. So weit darfst du maximal gehen.

01:47:50.608 --> 01:47:54.028
<v Ralf Bendrath>Das ist noch keine Rechtsgrundlage dafür. Es steht dann in § 5,

01:47:54.268 --> 01:47:58.828
<v Ralf Bendrath>um das machen zu können, müssen die Mitgliedstaaten selber noch eine Rechtsgrundlage

01:47:58.828 --> 01:48:00.168
<v Ralf Bendrath>in ihrem nationalen Recht schaffen.

01:48:00.328 --> 01:48:02.688
<v Ralf Bendrath>Also wir haben als KI-Gesetzgeber hier jetzt nichts erlaubt.

01:48:02.688 --> 01:48:05.688
<v Ralf Bendrath>Wir haben nur gesagt, wenn ihr das macht, müsst ihr diese Leitplanken einhalten.

01:48:06.628 --> 01:48:10.448
<v Ralf Bendrath>Und es steht ausdrücklich drin, die Mitgliedstaaten können auch restriktivere

01:48:10.448 --> 01:48:11.828
<v Ralf Bendrath>Gesetze verabschieden zu dem Thema.

01:48:12.868 --> 01:48:17.008
<v Tim Pritlove>Da ist aber jetzt ein Wort drin, nämlich das Wort Echtzeit.

01:48:17.980 --> 01:48:21.460
<v Tim Pritlove>Wenn ich das jetzt richtig verstanden habe, schließt diese ganze Regelung nur

01:48:21.460 --> 01:48:27.220
<v Tim Pritlove>die Echtzeitverwendung aus, aber nicht die Vorratsdatenspeicherung sozusagen.

01:48:28.860 --> 01:48:31.840
<v Ralf Bendrath>Die Vorratsdatenspeicherung von Kamerabildern ist nochmal ein ganz anderes Thema.

01:48:31.960 --> 01:48:35.620
<v Ralf Bendrath>Das ist nicht vom KI-Gesetz geregelt. Also wie lange so eine Kamera Bilder aufbewahren

01:48:35.620 --> 01:48:38.360
<v Ralf Bendrath>darf, das ist außerhalb des Geltungsbereichs vom AI-Act.

01:48:38.420 --> 01:48:41.460
<v Tim Pritlove>Ja, beziehungsweise wenn man halt jetzt sozusagen Gesichtserkennung macht auf

01:48:41.460 --> 01:48:43.300
<v Tim Pritlove>den Daten, aber halt nicht in Echtzeit.

01:48:43.960 --> 01:48:48.120
<v Thomas Lohninger>Du speicherst die fünf Minuten ab und danach machst du die Gesichtserkennung drüber.

01:48:48.120 --> 01:48:49.240
<v Tim Pritlove>Zum Beispiel, oder auch ein paar Tage so.

01:48:49.440 --> 01:48:54.180
<v Thomas Lohninger>Oder es ist halt irgendwie, du hast es vorher gesagt, nur für den strafrechtlichen

01:48:54.180 --> 01:48:56.940
<v Thomas Lohninger>Bereich. Die Privaten sind davon jetzt nicht umfasst.

01:48:57.160 --> 01:49:02.180
<v Ralf Bendrath>Die Privaten sind nicht erfasst und auch sowas wie Grenzkontrollübergänge sind nicht erfasst.

01:49:02.380 --> 01:49:05.500
<v Ralf Bendrath>Das ist von der Datenschutzgrundverordnung geregelt. Da gibt es zum Beispiel

01:49:05.500 --> 01:49:08.660
<v Ralf Bendrath>auch schon Entscheidungen der Datenschutzbehörden, wenn irgendwelche Fußballstadien

01:49:08.660 --> 01:49:12.800
<v Ralf Bendrath>ein Verbot hatten von Hooligans, dann haben sie teilweise Gesichtserkennung

01:49:12.800 --> 01:49:16.040
<v Ralf Bendrath>eingesetzt, um die einzelnen Hooligans, die ein Stadionverbot hatten, zu finden.

01:49:16.480 --> 01:49:20.160
<v Ralf Bendrath>Da gibt es Entscheidungen der Datenschutzbehörden, sozusagen außerhalb dieser

01:49:20.160 --> 01:49:25.380
<v Ralf Bendrath>Regelung hier. Was es aber auch noch gibt, ist eine Regelung zu retrograder

01:49:25.380 --> 01:49:29.180
<v Ralf Bendrath>biometrischer Gesichtserkennung, also Post-RBI, eben nicht in Echtzeit.

01:49:29.640 --> 01:49:35.080
<v Ralf Bendrath>Und da ist eben die Idee, dass das nicht mehr verboten ist, sondern nur noch

01:49:35.080 --> 01:49:39.820
<v Ralf Bendrath>Hochrisiko, was für uns ein super, super dicke Kröte war, das zu schlucken.

01:49:39.820 --> 01:49:40.620
<v Ralf Bendrath>Könnt ihr euch vorstellen.

01:49:40.780 --> 01:49:43.420
<v Ralf Bendrath>Wir wollten komplett verabredet von allem. Wir haben jetzt schon in Echtzeit

01:49:43.420 --> 01:49:46.060
<v Ralf Bendrath>da irgendwie ein paar Ausnahmen drin reingekriegt, die aber,

01:49:46.080 --> 01:49:48.160
<v Ralf Bendrath>wie gesagt, für spezifische Verdächtige und so nur greifen.

01:49:48.880 --> 01:49:55.800
<v Ralf Bendrath>Und für retrograde KI-Echtzeit, nein, für retrograde Gesichtserkennung im öffentlichen

01:49:55.800 --> 01:49:58.740
<v Ralf Bendrath>Raum, da brauchst du erstmal die Aufnahmen, sonst kannst du es nicht machen.

01:49:58.740 --> 01:50:01.640
<v Ralf Bendrath>Und da gibt es dann eben unter Datenschutzrecht schon Regeln,

01:50:01.660 --> 01:50:05.280
<v Ralf Bendrath>wie lange dürfen Videokameras die Daten speichern und so und nach wie vielen

01:50:05.280 --> 01:50:07.260
<v Ralf Bendrath>Stunden müssen sie gelöscht werden oder überschrieben werden.

01:50:09.420 --> 01:50:13.720
<v Ralf Bendrath>Und wenn du diese Daten noch hast, wenn die mal gespeichert sind und auch legal

01:50:13.720 --> 01:50:17.900
<v Ralf Bendrath>noch gespeichert waren, dann kannst du die jetzt für ähnliche Fälle benutzen,

01:50:17.960 --> 01:50:20.560
<v Ralf Bendrath>nämlich für eine gezielte Suche nach einer Person,

01:50:20.760 --> 01:50:24.080
<v Ralf Bendrath>die auch wieder einer Straftat verdächtig ist, in dem Fall nicht mal eine schwere

01:50:24.080 --> 01:50:28.980
<v Ralf Bendrath>Straftat, sondern generelle Straftaten, wiederum mit Autorisierung eines Gerichts

01:50:28.980 --> 01:50:30.160
<v Ralf Bendrath>oder einer Staatsanwaltschaft.

01:50:32.720 --> 01:50:38.120
<v Ralf Bendrath>Limitiert auf das, was strikt notwendig ist für die Ermittlung in einem spezifischen

01:50:38.120 --> 01:50:42.440
<v Ralf Bendrath>Strafverfahren, also kannst du die einfach allgemein erstmal alle so abscannen, ohne Anlass,

01:50:44.818 --> 01:50:50.058
<v Ralf Bendrath>In keinem Fall soll so ein Hochrisiko-KI-System genutzt werden für Strafverfolgungszwecke

01:50:50.058 --> 01:50:52.918
<v Ralf Bendrath>in einer ungezielten Art,

01:50:53.098 --> 01:50:58.078
<v Ralf Bendrath>untargeted way, ohne Link zu einer spezifischen Straftat oder einem Strafverfahren

01:50:58.078 --> 01:51:02.238
<v Ralf Bendrath>oder eben einer spezifischen drohenden Gefahr oder so.

01:51:03.798 --> 01:51:09.618
<v Ralf Bendrath>Und solche Nutzungen müssen dann zumindest in der relevanten Polizeiakte dokumentiert

01:51:09.618 --> 01:51:13.738
<v Ralf Bendrath>werden und auch den Marktaufsichtsbehörden und Datenschutzbehörden verfügbar

01:51:13.738 --> 01:51:14.858
<v Ralf Bendrath>gemacht werden auf Nachfrage.

01:51:16.378 --> 01:51:20.338
<v Ralf Bendrath>Und wir sind uns, glaube ich, alle echt einig, dass das nicht gut ist.

01:51:20.458 --> 01:51:24.098
<v Ralf Bendrath>Das ist irgendwie viel, viel offener und viel weiter, als wir es uns gewünscht hätten.

01:51:24.798 --> 01:51:29.618
<v Ralf Bendrath>Das war am Ende sozusagen der Kompromiss, der auch noch total verfahrensmäßig

01:51:29.618 --> 01:51:35.158
<v Ralf Bendrath>richtig übel gelaufen ist. Wir hatten am letzten Abend des Trilogs, das war das 12., 10.

01:51:35.538 --> 01:51:41.698
<v Ralf Bendrath>Dezember oder so, hatten wir noch keinen finalen Text zu dieser retrograden Gesichtserkennung.

01:51:41.898 --> 01:51:46.118
<v Ralf Bendrath>Wir hatten aber vorher einen Text von einer spanischen Ratspräsidentschaft bekommen,

01:51:46.358 --> 01:51:48.898
<v Ralf Bendrath>der irgendwie in die richtige Richtung ging. ging.

01:51:48.998 --> 01:51:52.538
<v Ralf Bendrath>Da war noch eine limitierte Liste mit Straftaten, wo das genutzt werden kann und so weiter.

01:51:53.658 --> 01:51:56.098
<v Ralf Bendrath>Aber irgendwie ist es dann nicht mehr dazu gekommen, noch einen finalen Text

01:51:56.098 --> 01:51:57.298
<v Ralf Bendrath>auszufaden in der Nacht.

01:51:57.818 --> 01:52:01.558
<v Ralf Bendrath>Und dann sind alle nach Hause und ins Wochenende und am Montag oder Dienstag

01:52:01.558 --> 01:52:04.678
<v Ralf Bendrath>haben wir noch mal wieder ein paar Aufräumtermine gehabt auf technischer Ebene,

01:52:04.758 --> 01:52:05.678
<v Ralf Bendrath>also Mitarbeiterebene.

01:52:06.338 --> 01:52:09.278
<v Ralf Bendrath>Und dann kriegen wir plötzlich von den Spaniern da einen Text präsentiert,

01:52:09.318 --> 01:52:12.898
<v Ralf Bendrath>der einfach komplett anders war als das, was wir gedacht hatten, wie die Einigung ist.

01:52:13.338 --> 01:52:15.358
<v Ralf Bendrath>Und dann ging es wirklich noch zwei Wochen hin und her.

01:52:16.098 --> 01:52:19.638
<v Ralf Bendrath>Die letzte Woche war dann irgendwie die die Sitzungsfeierwoche vor Weihnachten,

01:52:19.658 --> 01:52:20.758
<v Ralf Bendrath>wo alle schon im Urlaub waren.

01:52:20.918 --> 01:52:25.278
<v Ralf Bendrath>Ich saß da irgendwie an der Nordsee im Ferienhaus und habe mir noch E-Mails hin und her geschickt.

01:52:25.598 --> 01:52:29.198
<v Ralf Bendrath>Und dann ist am Ende das hier rausgekommen, wo dann auch irgendwie jetzt sozusagen

01:52:29.198 --> 01:52:31.378
<v Ralf Bendrath>keiner mehr das Fass nochmal komplett aufmachen wollte.

01:52:31.778 --> 01:52:35.658
<v Ralf Bendrath>Der Trilog war sozusagen schon fertig und dann wurde diese Kröte geschluckt.

01:52:37.121 --> 01:52:39.641
<v Ralf Bendrath>Muss man nicht gut finden, überhaupt nicht. Und die Bundesregierung hat,

01:52:39.681 --> 01:52:41.961
<v Ralf Bendrath>glaube ich, schon entschieden, dass sie es auf jeden Fall enger ziehen will,

01:52:43.361 --> 01:52:46.241
<v Ralf Bendrath>wenn es überhaupt in Deutschland irgendwie Gesetzesgrundlage dafür geben wird.

01:52:46.961 --> 01:52:50.501
<v Ralf Bendrath>Und wir werden natürlich weiter dafür kämpfen, wenn das Ding mal wieder renoviert

01:52:50.501 --> 01:52:54.421
<v Ralf Bendrath>wird oder andere Gesetzesvorschläge kommen, die das irgendwie berühren könnten,

01:52:54.621 --> 01:52:57.081
<v Ralf Bendrath>dass das auf jeden Fall enger gezogen wird, ganz klar.

01:52:57.321 --> 01:53:00.481
<v Ralf Bendrath>Aber an dem Punkt jetzt den ganzen AI-Act scheitern zu lassen,

01:53:00.541 --> 01:53:03.481
<v Ralf Bendrath>war es uns auch nicht wert genug, weil da einfach so viele Sachen drin sind,

01:53:03.521 --> 01:53:06.281
<v Ralf Bendrath>die einfach jetzt mal gut sind, dass sie an den Start kommen.

01:53:07.461 --> 01:53:11.681
<v Thomas Lohninger>Es war ja kurzzeitig so, dass es die Mehrheit im Rat in der Schwebe stand und

01:53:11.681 --> 01:53:14.581
<v Thomas Lohninger>wir beide haben uns ja genau zu der Zeit getroffen und du meintest,

01:53:14.641 --> 01:53:17.601
<v Thomas Lohninger>ob ich da irgendwie bei der österreichischen Justizministerin fragen würde.

01:53:17.601 --> 01:53:23.001
<v Thomas Lohninger>Ich bin mir bis heute nicht sicher, ob das Gesetzeswert wäre, gerettet zu werden.

01:53:23.461 --> 01:53:27.701
<v Thomas Lohninger>Aber um vielleicht auch da zum Abschluss zu kommen, würde mich von euch beiden

01:53:27.701 --> 01:53:33.501
<v Thomas Lohninger>noch interessieren, was mit diesem Gesetz denn jetzt wirklich so die prägnante

01:53:33.501 --> 01:53:36.581
<v Thomas Lohninger>Sache, der prägnante Missstand sein soll,

01:53:36.821 --> 01:53:39.781
<v Thomas Lohninger>den wir damit wirklich hoffentlich verbessern.

01:53:39.781 --> 01:53:44.961
<v Thomas Lohninger>Bei der DSGVO, was ja damals Facebook, da war die große Erwartungshaltung,

01:53:45.081 --> 01:53:51.001
<v Thomas Lohninger>dass wir damit endlich Facebook dazu bringen, mit personenbezogenen Daten besser umzugehen.

01:53:52.401 --> 01:53:55.581
<v Thomas Lohninger>Ich glaube, es ist sehr überschaubar, was wir damit wirklich geschafft haben,

01:53:55.621 --> 01:53:59.521
<v Thomas Lohninger>trotz aller guten Absichtsbekundungen damals. Wie ist es beim AI-Act?

01:53:59.621 --> 01:54:05.361
<v Thomas Lohninger>Also ist da jetzt Palantir zum Beispiel, müsste es da eigentlich Änderungen

01:54:05.361 --> 01:54:10.861
<v Thomas Lohninger>in der Realität geben mit diesem Gesetz, wo ihr sagt, da sollte wirklich sich

01:54:10.861 --> 01:54:13.361
<v Thomas Lohninger>etwas in der Praxis ändern oder auch die Schufa zum Beispiel.

01:54:13.681 --> 01:54:19.981
<v Thomas Lohninger>Also Kreditauskunft Hain ist da aus eurer Sicht, um es nochmal zu Ende ganz praktisch zu machen.

01:54:20.141 --> 01:54:24.381
<v Thomas Lohninger>Was erwartet ihr euch jetzt von dem AI-Act, an dem ihr so lange gearbeitet habt?

01:54:25.477 --> 01:54:29.617
<v Arnika Zinke>Ich fange mal an. Also ich glaube, dass so ein bisschen das,

01:54:29.757 --> 01:54:32.737
<v Arnika Zinke>was quasi immer unter diesem Begriff vertrauenswürdige KI,

01:54:33.017 --> 01:54:39.957
<v Arnika Zinke>made in Europe, quasi gedacht wird, dem quasi ein bisschen ein Gesetz dahinter

01:54:39.957 --> 01:54:41.697
<v Arnika Zinke>gelegt wird, was das eigentlich bedeutet.

01:54:41.697 --> 01:54:47.557
<v Arnika Zinke>Das heißt, welche konkreten Anforderungen haben wir an die zukünftigen KI-Systeme,

01:54:47.557 --> 01:54:50.177
<v Arnika Zinke>die in Europa auf den Markt gebracht werden?

01:54:50.277 --> 01:54:52.937
<v Arnika Zinke>Was sind sozusagen die Mindestanforderungen, die das erfüllen muss?

01:54:53.537 --> 01:54:58.117
<v Arnika Zinke>Und das Gleiche für die Modelle. Also es ist quasi eine Mindestanforderung,

01:54:58.117 --> 01:55:02.997
<v Arnika Zinke>ein bisschen eine Ausdeklinierung dessen, was wir quasi unter schönen Worten

01:55:02.997 --> 01:55:05.077
<v Arnika Zinke>die ganze Zeit erzählen, wie wir das gerne hätten.

01:55:05.077 --> 01:55:10.017
<v Arnika Zinke>Und ein paar Systeme sind eben komplett verboten, aber es sind eben viel weniger,

01:55:10.057 --> 01:55:12.197
<v Arnika Zinke>als wir eigentlich für notwendig gehalten hätten.

01:55:12.517 --> 01:55:15.937
<v Arnika Zinke>Also es ist nicht der große Wurf,

01:55:16.117 --> 01:55:20.637
<v Arnika Zinke>den sich manche erhofft hatten, aber ich glaube, wenn man sich das Gesetz anschaut

01:55:20.637 --> 01:55:22.117
<v Arnika Zinke>und auch wie das Gesetz gemacht ist,

01:55:22.257 --> 01:55:26.477
<v Arnika Zinke>dann konnte dieses Gesetz auch nie diese Erwartungshaltung erfüllen,

01:55:26.597 --> 01:55:32.297
<v Arnika Zinke>auch weil KI und automated decision making so viele Bereiche umfasst.

01:55:32.297 --> 01:55:38.317
<v Arnika Zinke>Das geht eben von biometrischer Massenüberwachung bis KI-Systeme,

01:55:38.317 --> 01:55:41.617
<v Arnika Zinke>die kreativ verwendet werden oder die sagen, zu welcher Schule du gehen sollst.

01:55:41.737 --> 01:55:46.677
<v Arnika Zinke>Und den Bereich so groß zu spannen, heißt halt auch, man kann nicht ganz oben

01:55:46.677 --> 01:55:53.857
<v Arnika Zinke>anfangen, sondern es ist quasi ein Minimalkonsens darüber, wie KI-Systeme in

01:55:53.857 --> 01:55:55.177
<v Arnika Zinke>Zukunft gemacht werden sollen.

01:55:55.177 --> 01:55:58.857
<v Arnika Zinke>Aber gerade auch darauf basierend, welche KI-Systeme jetzt schon am Markt sind,

01:55:58.917 --> 01:56:02.717
<v Arnika Zinke>ist es extrem schwierig zu sagen, weil auch da die Anforderungen ja auch viel

01:56:02.717 --> 01:56:04.197
<v Arnika Zinke>später erst in Kraft treten werden.

01:56:04.977 --> 01:56:08.837
<v Ralf Bendrath>Aber ganz konkret, wegen Palantir, wenn Palantir genutzt wird,

01:56:08.877 --> 01:56:12.497
<v Ralf Bendrath>um über individuelle Personen Vorhersagen zu machen, ob sie irgendwann mal eine

01:56:12.497 --> 01:56:14.837
<v Ralf Bendrath>Straftat begehen, dann muss das jetzt weg.

01:56:15.077 --> 01:56:18.717
<v Ralf Bendrath>Das ist nicht mehr erlaubt in Zukunft, so ganz konkret. Und es soll eben auch,

01:56:18.797 --> 01:56:23.217
<v Ralf Bendrath>wie gesagt, sowas wie diesen niederländischen Sozial-Social-Benefits-Skandal

01:56:23.217 --> 01:56:25.277
<v Ralf Bendrath>da irgendwie in Zukunft vermeiden, helfen.

01:56:25.957 --> 01:56:28.117
<v Ralf Bendrath>Eine Sache, die wir noch gar nicht erwähnt hatten, wo wir aber auch ziemlich

01:56:28.117 --> 01:56:31.317
<v Ralf Bendrath>drauf stolz sind, ist, dass jetzt in Zukunft viele KI-Systeme,

01:56:31.317 --> 01:56:35.417
<v Ralf Bendrath>vor allem die Allzwecksysteme, auch Energiebilanzen offenlegen müssen.

01:56:35.577 --> 01:56:38.317
<v Ralf Bendrath>Das Zeug verbraucht ja unglaublich viel Strom und auch Wasser.

01:56:39.257 --> 01:56:44.177
<v Ralf Bendrath>Das muss jetzt offengelegt werden, mindestens für die General-Purpose-KIs. Da bin ich mal gespannt.

01:56:46.877 --> 01:56:49.797
<v Ralf Bendrath>Also Ökobilanzen und so haben wir jetzt auch drin. Auch einer unserer Erfolge.

01:56:50.617 --> 01:56:54.077
<v Tim Pritlove>Das ist eine gute Regelung. Da bin ich auch gespannt, wie das ausgeht.

01:56:55.277 --> 01:56:57.677
<v Tim Pritlove>Ob man das überhaupt so berechnet bekommt. Wahrscheinlich schon irgendwie.

01:56:57.817 --> 01:57:01.517
<v Ralf Bendrath>Das kannst du einfach berechnen. Du hast irgendwie so viele Millionen Videokarten

01:57:01.517 --> 01:57:05.377
<v Ralf Bendrath>und guckst halt, was die dann Strom verbrauchen. Das ist nicht so schwer.

01:57:05.757 --> 01:57:12.277
<v Tim Pritlove>Ja, ist klar. Gut, ich denke, den AI-Act-Teil können wir damit beschließen, oder?

01:57:13.851 --> 01:57:16.791
<v Thomas Lohninger>Ich glaube auch, wenn es von eurer Seite nichts mehr gibt, dann,

01:57:16.871 --> 01:57:20.911
<v Thomas Lohninger>wir sind schon relativ lange, deswegen machen wir das jetzt vielleicht sehr kurz.

01:57:20.991 --> 01:57:25.031
<v Thomas Lohninger>Ich wollte nur nochmal so einen Ausblick auf die EU generell.

01:57:25.051 --> 01:57:29.551
<v Thomas Lohninger>Ihr sitzt ja auch weiter in Brüssel und seid da sehr nah dran und wir haben jetzt ein paar.

01:57:30.071 --> 01:57:30.851
<v Ralf Bendrath>Wir sind mittendrin.

01:57:30.851 --> 01:57:36.631
<v Thomas Lohninger>Genau, statt nur dabei und habe da ja auch wirklich auch, es heißt ja irgendwie

01:57:36.631 --> 01:57:41.211
<v Thomas Lohninger>so schön, dass das Herstellen von Würsten, von Sausages und das Gesetze machen,

01:57:41.491 --> 01:57:45.871
<v Thomas Lohninger>da will man nicht so genau wissen, wie es wirklich passiert und gleichzeitig

01:57:45.871 --> 01:57:51.331
<v Thomas Lohninger>ist die EU auch gerade am Ende ihrer Legislaturperiode, im Juni sind Wahlen.

01:57:51.331 --> 01:57:55.311
<v Thomas Lohninger>Man hat auch, glaube ich, gesehen, dass ganz viele netzpolitische Themen dann

01:57:55.311 --> 01:57:59.771
<v Thomas Lohninger>am Ende an den Mehrheitsverhältnissen im Parlament und natürlich auch in den

01:57:59.771 --> 01:58:01.891
<v Thomas Lohninger>nationalen Regierungen hängen.

01:58:02.891 --> 01:58:07.451
<v Thomas Lohninger>Und ja, nach allen Vorhersagen wird es einen Rechtsrott geben im Europaparlament.

01:58:07.631 --> 01:58:11.451
<v Thomas Lohninger>Das heißt, es wird eine Mehrheit geben aus den Fraktionen ID,

01:58:11.751 --> 01:58:20.351
<v Thomas Lohninger>was AfD, FPÖ ist, ECR, also die europaskeptischen Konservativen bis Rechtsextreme in manchen Fällen.

01:58:20.351 --> 01:58:23.631
<v Thomas Lohninger>Und halt auch der Europäischen Volkspartei.

01:58:23.931 --> 01:58:28.091
<v Thomas Lohninger>Und das wird natürlich, glaube ich, dann auch so diese Schlagzahl der Gesetze,

01:58:28.111 --> 01:58:31.011
<v Thomas Lohninger>vor allem wenn es darum geht, Harmonisierungen durchzuführen.

01:58:32.571 --> 01:58:33.451
<v Thomas Lohninger>Wahrscheinlich reduzieren.

01:58:33.551 --> 01:58:37.771
<v Thomas Lohninger>Was manchmal vielleicht sogar ganz gut wäre, wenn man sich mehr Zeit nimmt für

01:58:37.771 --> 01:58:40.351
<v Thomas Lohninger>die Gesetze, schaut, dass man wirklich eine breite Mehrheit hat.

01:58:41.211 --> 01:58:44.551
<v Thomas Lohninger>Insgesamt ist mein Eindruck, auch wenn ich euch heute so zugehört habe,

01:58:44.731 --> 01:58:47.131
<v Thomas Lohninger>dass ganz viel am Zeitdruck liegt.

01:58:47.131 --> 01:58:52.651
<v Thomas Lohninger>Dass etwas unbedingt bis dahin fertig werden muss und dann sind halt irgendwie

01:58:52.651 --> 01:58:56.951
<v Thomas Lohninger>drei Viertel der Leute schon auf Urlaub und Ralf muss irgendwie aus dem Ferienhaus

01:58:56.951 --> 01:58:59.491
<v Thomas Lohninger>heraus dann das fertig verhandeln.

01:58:59.991 --> 01:59:04.111
<v Thomas Lohninger>Das kann es ja nicht sein. Also ich meine, wenn sich Europa ernst nimmt,

01:59:04.331 --> 01:59:09.391
<v Thomas Lohninger>dann muss man den Gesetzestext vor sich haben ausverhandelt und dann entscheiden,

01:59:09.691 --> 01:59:11.011
<v Thomas Lohninger>ob der eine Mehrheit hat.

01:59:11.011 --> 01:59:16.591
<v Thomas Lohninger>Also ganz oft tut einem das ja schon beim Zuhören und Zuschauen weh,

01:59:16.591 --> 01:59:21.631
<v Thomas Lohninger>wie dann wirklich diese Entscheidungen, wie stümperhaft diese Entscheidungen zustande kommen.

01:59:22.151 --> 01:59:27.991
<v Thomas Lohninger>Aber ja, wie geht es euch damit und wie schaut ihr jetzt so auf die Zeit nach der Wahl?

01:59:28.875 --> 01:59:32.455
<v Ralf Bendrath>Vielleicht zu der ersten Frage, wie laufen sozusagen diese Trilogverhandlungen?

01:59:32.575 --> 01:59:33.635
<v Ralf Bendrath>Ist das wirklich immer so schlimm?

01:59:33.855 --> 01:59:36.375
<v Ralf Bendrath>Als wir die Datenschutz-Grundverordnung damals verhandelt haben,

01:59:36.515 --> 01:59:40.855
<v Ralf Bendrath>haben wir wirklich den Text vor uns gehabt. Der wurde auf meinem Laptop mitprotokolliert,

01:59:40.855 --> 01:59:41.695
<v Ralf Bendrath>je nach Verhandlungsstand.

01:59:42.395 --> 01:59:46.235
<v Ralf Bendrath>Und am Ende des letzten Triloges, das war auch so nachts um elf,

01:59:46.455 --> 01:59:50.375
<v Ralf Bendrath>aber immer noch eine halbwegs menschenwürdige Zeit, hatten wir einen fertigen Text.

01:59:50.375 --> 01:59:53.475
<v Ralf Bendrath>Text, der muss dann ein paar Mal noch horizontal angepasst werden,

01:59:53.535 --> 01:59:56.695
<v Ralf Bendrath>das haben wir dann noch kurz danach noch gemacht in meinem Büro und der konnte

01:59:56.695 --> 01:59:59.775
<v Ralf Bendrath>dann direkt an die Mitgliedstaaten rausgehen und auch an alle Abgeordneten, die beteiligt waren.

01:59:59.995 --> 02:00:02.735
<v Ralf Bendrath>Das habe ich jetzt ein paar Mal erlebt, dass das nicht so gelaufen ist.

02:00:03.335 --> 02:00:05.915
<v Ralf Bendrath>Mal gucken, wie es morgen Nacht wird bei den Gesundheitsdaten,

02:00:05.915 --> 02:00:08.395
<v Ralf Bendrath>ob wir da einen finalen Text haben, da ist es zumindest ein bisschen besser,

02:00:08.475 --> 02:00:10.135
<v Ralf Bendrath>dass jetzt schon mal Textentwürfe vorher flottieren.

02:00:10.935 --> 02:00:14.455
<v Ralf Bendrath>Beim AI-Hack war es einfach wirklich chaotisch, wir hatten beim letzten Trilog,

02:00:14.455 --> 02:00:19.475
<v Ralf Bendrath>als der anfing, noch 22 Punkte offen, haben dann wirklich von Nachmittags um

02:00:19.475 --> 02:00:23.595
<v Ralf Bendrath>drei die ganze Nacht durch bis zum nächsten Mittag um eins verhandelt,

02:00:23.615 --> 02:00:25.495
<v Ralf Bendrath>dann eine Pause gemacht,

02:00:25.795 --> 02:00:29.675
<v Ralf Bendrath>einmal schlafen können die Nacht dann und am Freitag um acht Uhr morgens ging

02:00:29.675 --> 02:00:31.255
<v Ralf Bendrath>es schon wieder weiter bis nach Mitternacht.

02:00:31.455 --> 02:00:35.475
<v Ralf Bendrath>Und da gab es dann einfach teilweise keine Texte. Ich habe von anderen Trilogen

02:00:35.475 --> 02:00:39.695
<v Ralf Bendrath>gehört, wo es teilweise nur so Bullet-Point-Listen gab, auf was man sich jetzt

02:00:39.695 --> 02:00:42.555
<v Ralf Bendrath>geeinigt hat, wo dann die technische Ebene hinterher noch einen Monat beschäftigt

02:00:42.555 --> 02:00:43.655
<v Ralf Bendrath>war, das auszuformulieren.

02:00:44.655 --> 02:00:48.235
<v Ralf Bendrath>Da hat, glaube ich, die Qualität echt ein bisschen gelitten in letzter Zeit, ist so mein Eindruck.

02:00:48.235 --> 02:00:52.315
<v Ralf Bendrath>Da gibt es aber jetzt auch schon eine Reaktion drauf und zumindest vom Parlament

02:00:52.315 --> 02:00:57.075
<v Ralf Bendrath>aus gibt es jetzt offenbar Bestrebungen, ein interinstitutionelles Abkommen

02:00:57.075 --> 02:01:01.895
<v Ralf Bendrath>zu verhandeln mit dem Rat und der Kommission, wie genau so Triloge eigentlich geführt werden müssen.

02:01:02.595 --> 02:01:06.395
<v Ralf Bendrath>Weil das oft immer noch sehr informell ist, die sind ja auch in den Verträgen irgendwo vorgesehen.

02:01:06.655 --> 02:01:09.235
<v Ralf Bendrath>Ich bin trotzdem der Meinung, man braucht so einen geschützten Raum,

02:01:09.355 --> 02:01:11.715
<v Ralf Bendrath>wenn man sich auf irgendwelche Texte einigen will. Da muss man halt die Köpfe

02:01:11.715 --> 02:01:14.215
<v Ralf Bendrath>zusammenstecken mit Ausschluss der Öffentlichkeit.

02:01:14.495 --> 02:01:18.095
<v Ralf Bendrath>Aber das braucht zumindest ein paar Regeln. Und da soll jetzt hoffentlich nach

02:01:18.095 --> 02:01:20.375
<v Ralf Bendrath>der Wahl mit den anderen Institutionen daran gearbeitet werden.

02:01:22.075 --> 02:01:23.015
<v Thomas Lohninger>Annika, wie siehst du das?

02:01:24.062 --> 02:01:29.202
<v Arnika Zinke>Ich glaube, das Problem war auch jetzt beim KI-Gesetz die einfache Unmenge an

02:01:29.202 --> 02:01:35.002
<v Arnika Zinke>Gesetzen, die jetzt noch verabschiedet werden sollten vor Ende der Legislaturperiode.

02:01:35.302 --> 02:01:38.342
<v Arnika Zinke>Und die Angst, die halt irgendwo immer auch mitgeschwungen ist,

02:01:38.522 --> 02:01:42.302
<v Arnika Zinke>ist, was, wenn wir dieses Gesetz eben nicht, dieses Mandat fertig kriegen.

02:01:42.522 --> 02:01:45.362
<v Arnika Zinke>Was bedeutet das dann mit einem deutlich rechteren Parlament?

02:01:45.502 --> 02:01:48.482
<v Arnika Zinke>Kriegen wir da noch die Punkte, die uns wirklich wichtig sind, durch?

02:01:48.982 --> 02:01:53.262
<v Arnika Zinke>Und vor allem auch im Hinblick darauf, dass eben Ungarn auch die nächste Ratspräsidentschaft

02:01:53.262 --> 02:01:57.942
<v Arnika Zinke>nach Belgien jetzt hat und damit dann viele von den Prioritäten,

02:01:58.062 --> 02:02:01.422
<v Arnika Zinke>die wir hatten, was Menschenrechte betrifft, sehr unwahrscheinlich gewesen wären.

02:02:01.522 --> 02:02:04.382
<v Arnika Zinke>Das heißt, es hätte sich noch weiter verzögert und dann wären wir im Jahr 2025

02:02:04.382 --> 02:02:08.302
<v Arnika Zinke>gewesen, wo wir dann wieder angefangen hätten, an KI-Gesetzen zu arbeiten und

02:02:08.302 --> 02:02:09.902
<v Arnika Zinke>dann sind wir halt auch keine Vorreiter mehr.

02:02:10.042 --> 02:02:12.762
<v Arnika Zinke>Also dann hätten wir eigentlich vielleicht sogar das Gesetz nochmal komplett

02:02:12.762 --> 02:02:17.402
<v Arnika Zinke>neu machen müssen. Also das ist halt immer mit geschwungen, aber ich gebe grundsätzlich

02:02:17.402 --> 02:02:20.202
<v Arnika Zinke>recht, dass die Tatsache, dass wir keinen finalen Text hatten,

02:02:20.342 --> 02:02:22.702
<v Arnika Zinke>das war einfach unglaublich. Und wir haben auch wirklich drum gebettelt.

02:02:22.882 --> 02:02:26.242
<v Arnika Zinke>Und das war einfach dann auch vielleicht der Zeit geschuldet,

02:02:26.242 --> 02:02:29.302
<v Arnika Zinke>die wir da gesessen sind, ist dann einfach ausgerufen worden,

02:02:29.402 --> 02:02:32.962
<v Arnika Zinke>dass es einen Deal gibt und dann haben sich halt auch Politiker mitreißen lassen.

02:02:34.182 --> 02:02:36.042
<v Arnika Zinke>Diesen Deal einfach dann festzusetzen.

02:02:36.522 --> 02:02:41.342
<v Arnika Zinke>Und ja, ich finde das auch super problematisch und ich hoffe auch,

02:02:41.442 --> 02:02:42.642
<v Arnika Zinke>dass es in Zukunft besser läuft.

02:02:42.642 --> 02:02:47.642
<v Arnika Zinke>Ich weiß auch, dass wir uns in dem Ausschuss, der sich eben mit den ganzen Prozessen

02:02:47.642 --> 02:02:52.362
<v Arnika Zinke>beschäftigt und den Rules of Procedure dafür einsetzen, dass es eben auch bessere

02:02:52.362 --> 02:02:54.802
<v Arnika Zinke>Regeln in den Trilogen gibt, dass es auch etwas mehr Transparenz gibt.

02:02:54.882 --> 02:02:57.922
<v Arnika Zinke>Also es muss nicht unbedingt einen Livestream geben, aber dass gewisse Dokumente

02:02:57.922 --> 02:02:59.302
<v Arnika Zinke>auch etwas transparenter sind.

02:02:59.642 --> 02:03:04.362
<v Arnika Zinke>Und das hoffe ich mir für die Zukunft auch eben auch, um das Vertrauen in die

02:03:04.362 --> 02:03:07.362
<v Arnika Zinke>EU-Institutionen auch zu verbessern.

02:03:08.824 --> 02:03:09.604
<v Arnika Zinke>Absolut.

02:03:09.864 --> 02:03:14.704
<v Thomas Lohninger>Ich glaube, der Zugang zu Texten, ich meine, ich habe die ja dann oft über Kanäle,

02:03:14.784 --> 02:03:17.064
<v Thomas Lohninger>aber dass das nicht öffentlich ist, ist wirklich ein Unding.

02:03:17.404 --> 02:03:20.104
<v Thomas Lohninger>Was in Parlamenten diskutiert wird, sollte öffentlich sein.

02:03:20.544 --> 02:03:24.704
<v Thomas Lohninger>Und ein Vorschlag für diese Regeln, die ihr euch geben wollt,

02:03:24.904 --> 02:03:30.644
<v Thomas Lohninger>es würde schon sehr viel helfen, wenn Europaabgeordnete sich nicht bereit erklären,

02:03:30.784 --> 02:03:34.504
<v Thomas Lohninger>auf irgendwelchen Fotos mit der Kommission und der Ratspräsidentschaft zu sein,

02:03:34.564 --> 02:03:36.884
<v Thomas Lohninger>bis der Text wirklich ausverhandelt ist.

02:03:36.884 --> 02:03:40.864
<v Thomas Lohninger>Weil oft ist es so irgendwie das getwitterte Foto und jetzt sind wir fertig

02:03:40.864 --> 02:03:44.244
<v Thomas Lohninger>und dann stehen alle auf und glauben, dass sie wirklich fertig sind,

02:03:44.324 --> 02:03:46.924
<v Thomas Lohninger>auch wenn danach noch ganz viel wegverhandelt wird.

02:03:47.084 --> 02:03:50.484
<v Thomas Lohninger>Das haben wir leider ein paar Mal gesehen und das ist nur ein billiger Trick.

02:03:51.504 --> 02:03:56.604
<v Thomas Lohninger>Ich hoffe, das war heute trotzdem eine Sendung, die nicht nur traurig zurücklässt,

02:03:56.644 --> 02:03:57.864
<v Thomas Lohninger>sondern ein bisschen aufgezeigt hat.

02:03:57.864 --> 02:03:59.704
<v Ralf Bendrath>Cyber, Cyber, alles gut.

02:03:59.704 --> 02:04:05.284
<v Tim Pritlove>Aber jetzt will ich noch wissen, hilft euch denn AI sozusagen auch bei der Analyse

02:04:05.284 --> 02:04:07.344
<v Tim Pritlove>dieser ganzen Textvorschläge?

02:04:07.464 --> 02:04:10.384
<v Tim Pritlove>Ich meine, ihr seid ja auch die ganze Zeit so in diesem Business mit,

02:04:10.424 --> 02:04:13.844
<v Tim Pritlove>ihr kriegt so viel Text zugeschickt und permanent müsst ihr irgendwie verstehen,

02:04:13.964 --> 02:04:16.064
<v Tim Pritlove>was da jetzt eigentlich mit gemeint ist.

02:04:16.524 --> 02:04:22.924
<v Tim Pritlove>Kommt da sozusagen auch schon die LLM zum Einsatz oder macht ihr das alles noch von Hand?

02:04:23.384 --> 02:04:25.904
<v Thomas Lohninger>Welcher Teil von May I Act wurde von ChatGPT geschrieben?

02:04:25.904 --> 02:04:32.104
<v Arnika Zinke>Also ich kann sagen, das einzige Mal, wo ich in meinem Leben Chachapiti verwendet

02:04:32.104 --> 02:04:36.224
<v Arnika Zinke>habe, um mit meinem Freund zu brainstormen, welche Hundenamen wir uns überlegen möchten.

02:04:37.464 --> 02:04:42.224
<v Arnika Zinke>Ich schwöre. Also wir haben alle Texte selber gelesen und selber analysiert

02:04:42.224 --> 02:04:43.804
<v Arnika Zinke>und es waren sehr, sehr viele Texte.

02:04:44.044 --> 02:04:49.584
<v Arnika Zinke>Aber die Versuchung ist natürlich groß, aber es spielt eigentlich nicht wirklich

02:04:49.584 --> 02:04:55.424
<v Arnika Zinke>eine Rolle, weil gerade diese Texte so spezifisch sind und so technisch und so kontextbasiert,

02:04:55.904 --> 02:04:59.084
<v Arnika Zinke>dass es schwierig wäre und ich finde auch ethisch problematisch,

02:04:59.104 --> 02:05:00.664
<v Arnika Zinke>das durch irgendeine KI zu jagen.

02:05:01.404 --> 02:05:02.044
<v Tim Pritlove>Ja, okay.

02:05:04.284 --> 02:05:05.644
<v Tim Pritlove>Man kann es ja auch...

02:05:06.476 --> 02:05:11.076
<v Tim Pritlove>Ganz praktisch sehen, einfach als Tool, also ich gebe zu,

02:05:11.296 --> 02:05:17.196
<v Tim Pritlove>dass jetzt zum Beispiel auch gemacht zu haben, ich nehme mir so einen kompletten Text,

02:05:17.416 --> 02:05:20.836
<v Tim Pritlove>den ich jetzt, wenn ich den lesen würde, ohnehin nicht verstehen würde,

02:05:20.936 --> 02:05:26.756
<v Tim Pritlove>weil mir einfach das juristische Modell dafür fehlt und die Dingertaugung sicherlich

02:05:26.756 --> 02:05:30.596
<v Tim Pritlove>für vieles nicht, aber dieses Text zusammenfassen, das kriegen die schon irgendwie ganz gut hin.

02:05:30.596 --> 02:05:33.316
<v Tim Pritlove>Und dann kann man halt zumindest schon mal reinstochern und sagen so,

02:05:33.396 --> 02:05:37.356
<v Tim Pritlove>wird da etwas erwähnt zu dem und dem und so weiter und das ja,

02:05:37.456 --> 02:05:41.416
<v Tim Pritlove>das sind schon mal ganz hilfreiche Ansätze für mich, aber dass ihr das professioneller

02:05:41.416 --> 02:05:42.936
<v Tim Pritlove>handhabt, daran habe ich keinen Zweifel.

02:05:43.296 --> 02:05:46.676
<v Ralf Bendrath>Word und solche Software kann ja Auto-Summarize schon länger,

02:05:46.776 --> 02:05:48.196
<v Ralf Bendrath>da brauchst du keinen Chatbot für.

02:05:48.576 --> 02:05:52.296
<v Ralf Bendrath>Aber unser Job ist halt leider nicht nur die Zusammenfassung zu machen,

02:05:52.456 --> 02:05:55.616
<v Ralf Bendrath>sondern das Ding im Detail zu lesen und zu verstehen und umzuschreiben,

02:05:55.716 --> 02:05:57.096
<v Ralf Bendrath>da kommt einfach kein Weg dran vorbei.

02:05:57.416 --> 02:06:01.416
<v Tim Pritlove>Na klar. Na gut, dafür seid ihr ja auch hier die Profis.

02:06:01.756 --> 02:06:07.996
<v Tim Pritlove>Vielen, vielen Dank für eure Ausführungen und natürlich auch für eure Arbeit an den Gesetzeswerken.

02:06:08.116 --> 02:06:12.436
<v Tim Pritlove>Das ist ja mit wenig Urlaub gesegnet, wie wir gerade gehört haben.

02:06:12.676 --> 02:06:16.956
<v Tim Pritlove>Und ja, das ist ja eine Entbehrung. Dann kriegst du vielleicht den nächsten

02:06:16.956 --> 02:06:26.376
<v Tim Pritlove>neuen Eintrag, Annika, auch bei der IMDB, wenn du dann wieder in Hollywood-Fußstapfen steigst.

02:06:27.236 --> 02:06:28.916
<v Arnika Zinke>Ja, danke euch für die Einladung.

02:06:29.276 --> 02:06:34.016
<v Thomas Lohninger>Danke auch von meiner Seite und bitte weitermachen und bis zum nächsten Mal.

02:06:35.036 --> 02:06:39.836
<v Tim Pritlove>Danke. Alles klar, das war's heute vom Logbuch Netzpolitik.

02:06:40.116 --> 02:06:42.756
<v Tim Pritlove>Bald geht's wieder weiter, dann vielleicht auch wieder mit Linus.

02:06:42.836 --> 02:06:44.236
<v Tim Pritlove>Wir sagen tschüss und bis bald.
