Feedback — Make AI pay for it — Patientakte jetzt KI-ready — 10 Jahre GFF — Chatkontrolle
Heute nur ein kurzes Update, dafür wieder mit viel Feedback. Wir schauen auf einen neuen Webstandard, der zum Ziel hat, die Nutzung von Daten im Internet durch KI-Systeme automatisch abzurechnen und fragen uns, was die Vertreter der Gematik im Geheimen eigentlich so rauchen. Dazu gratulieren wir der GFF zum Geburtstag und liefern noch ein kleines Update zur Chatkontrolle. Und dann war es das auch schon.

Für diese Episode von Logbuch:Netzpolitik liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.
Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.
Transkript
Shownotes
Prolog
- Wikipedia (de): Warnung der Bevölkerung in der Bundesrepublik Deutschland
- BBK: Bundesweiter Warntag
Feedback
GNSS in China
- Logbuch:Netzpolitik: LNP531 Datenschutzfaktor 30 – Kommentar von Egal
- en.beidou.gov.cn: BeiDou Navigation Satellite System
- Logbuch:Netzpolitik: LNP531 Datenschutzfaktor 30 – Kommentar von Malte
- Wikipedia (en): BeiDou
- Wikipedia (en): Global Positioning System
- Wikipedia (en): Quasi-Zenith Satellite System
GPS im Flugzeug
- Logbuch:Netzpolitik: LNP531 Datenschutzfaktor 30 – Kommentar von Alex Beim Elch
- Wikipedia (de): Trägheitsnavigationssystem
Von der Leyen-Flug
- YouTube: THIS Just makes Me So ANGRY and Frustrated!
- tagesschau.de: Flugzeug mit von der Leyen an Bord von GPS-Störung betroffen
PayPal Echtzeitüberweisung
- Logbuch:Netzpolitik: LNP531 Datenschutzfaktor 30 – Kommentar von Stephan Windmüller
- GIGA: PayPal: Echtzeitüberweisung aufs Bankkonto – gebührenfrei
Web retten: Make AI pay for it
- rslstandard.org: RSL Open License Protocol (OLP) | RSL: Really Simple Licensing
- The Verge: The web has a new system for making AI companies pay up
- The Verge: Cloudflare says Perplexity’s AI bots are ‘stealth crawling’ blocked sites
- The Verge: Anthropic’s crawler is ignoring websites’ anti-AI scraping policies
Elektronische Patientenakte ist jetzt KI-ready
- heise online: Lauterbach zur elektronischen Patientenakte: “Sicherheit hat oberste Priorität”
- heise online: Gematik-Geschäftsführerin: Elektronische Patientenakte ist “KI-ready”
- heise online: Mehr als 70 Millionen Patientenakten, ein Bruchteil der Versicherten nutzt sie
- Wikipedia (de): Gnade der späten Geburt
10 Jahre GFF
- GFF – Gesellschaft für Freiheitsrechte e.V.: 10 Jahre GFF
Chatkontrolle
- cdn.netzpolitik.org: Regulation (EU) …/… [laying down rules to prevent and combat child sexual abuse] [PDF]
- csa-scientist-open-letter.org: Chat Control letter Fall 2025 [PDF]
- netzpolitik.org: Offener Brief: Hunderte Wissenschaftler:innen stellen sich gegen Chatkontrolle
Hallo ihr beiden,
durch die aktuelle Folge des Podcasts wurde ich daran erinnert, dass ich bei meiner Krankenkasse mal zum Thema ePA und dem Thema „eigene Einsichtnahme“ schlau machen wollte.
Fazit: Mich wundert überhaupt nicht, dass das kaum jemand nutzt.
Der Prozess ist, zumindest bei meiner Krankenkasse, einfach absolute Madness.
1. in der offiziellen Krankenkasse (KK)-App ist der einzige Hinweis auf die ePA, dass man dort seinen ePA-Widerspruch einreichen kann. Sonst gibt es keinerlei Infos oder gar Links.
2. Man muss sich schlussendlich eine eigene App der Krankenkasse für die ePA herunterladen, auf die man noch nie hingewiesen wurde und die ich zufällig im Google Play Store gefunden habe.
2. Die bestehende Anmeldung (Krankenkassennummer + Passwort + 2FA) funktioniert in dieser extra App natürlich nicht. Stattdessen muss man sich einen neuen Account (aber trotzdem für dieselbe KK-Nummer) anlegen.
3. Im Zuge der Account-Erstellung wird man als nächsten Schritt aufgefordert, seine Identität digital zu bestätigen. Dies erfolgt in einer weiteren App auf dem Play Store („Nect Wallet“), von der ich vorher noch nie gehört habe. Der Link aus der KK-App zu dem Playstore-Eintrag funktioniert natürlich nicht, also muss man das erneut manuell raussuchen, herunterladen und öffnen.
4. Nach dem Öffnen dieser Nect Wallet App kann man sich digital verifizieren. Dazu muss man nach dem Bestätigen diverser Nutzungsbedinungen und (dem Skippen von) Tutorials erst den Personalausweis inkl. Hologramm scannen, und dann anschließend die E-Funktion (inkl. PIN) eben jenes Ausweises nutzen, um zu beweisen, dass man ihn AUCH WIRKLICH gerade in der Hand hält. Warum man nicht lediglich den zweiten (ohnehin verpflichtenden) Schritt macht, ist mir ein vollkommenes Rätsel.
5. So, nach der erfolgten Identifizierung wird einem mitgeteilt, dass man eine Email von der Krankenkasse erhält, wenn deren Überprüfung abgeschlossen sei. Dies passierte immerhin innerhalb von Sekunden, also gab es offensichtlich keine wirkliche Überprüfung.
6. Nach erneutem Login in die ePA Krankenkassen App muss man 3 Screens bestätigen, dass man die Nutzungsbedingungen akzeptiert, aber DANN ist man tatsächlich am Ziel und sieht eine leere Liste von Dokumenten und e-Rezepten (jedenfalls war es bei mir so)
Ich möchte noch anfügen, dass man sich in der ePA KK App ohne Übertreibung für Jeden. Einzelnen. Screen. neu authentifizieren muss. Also auch beim ganz normalen Navigieren durch die App.
Fazit: Ein quasi satirisch anmutender Workflow, um einen bereits bestehenden Account (!!!) mit ePA zu nutzen. Mich würde ja mal interessieren, wie die „Trichterzahlen“ bei dem Verfahren sind, also wie viele sich die App herunterladen und dann bei jedem der obigen Punkte abspringen.
Danke für die interessante Folge.
Thank you for coming to my TED talk.
Linus sagt, dass Perplexity gesagt hat, dass sie die robots.txt ignorieren und einfach so weitercrawlen. Die Info kommt ursprünglich von Cloudflare, die dazu einen Blogpost geschrieben haben [1].
Was Perplexity (bzw. der CEO Aravind Srinivas) sagt: der von Cloudflare identifizierte Traffic wurde durch den Perplexity Comet-Browser verursacht, und Cloudflare war zu dumm, das zu unterscheiden [2].
Das Geschäftsmodell von Cloudflare ist es, Webseiten vor unerwünschtem Traffic zu schützen. Das weiten sie nun auf unerwünschten KI-Traffic aus. Cloudflare hat demnach ein Marketinginteresse, das Verhalten von Perplexity zu skandalieren. Also wem möchte man glauben…
[1] https://blog.cloudflare.com/perplexity-is-using-stealth-undeclared-crawlers-to-evade-website-no-crawl-directives/
[2] https://www.nytimes.com/2025/08/15/podcasts/hardfork-gpt5-perplexity.html?showTranscript=1
Nachtrag: Cloudflare hat ein System namens „Pay per Crawl“ in private beta. Lizenzzahlungen an die Ersteller der Inhalte werden über Cloudflare abgewickelt. Ein Bot, der nicht zahlt, bekommt ein 402 zurück. Das System ist geeignet um Lizenzvereinbarungen nach dem RSL Standard technisch durchzusetzen.
https://blog.cloudflare.com/introducing-pay-per-crawl/
Ergänzend zur KI-Content-Lizenz-Thematik sollte erwähnt werden, dass verschiedene Bots der KI-Unternehmen mit unterschiedlichem Ziel eine Webseite unterschiedlich oft besuchen.
Neben dem Training des LLM kommt noch der Crawler-Bot für den Suchindex hinzu und letztlich auch der Bot, der während einer Anfrage ggf. die Webseite durchliest. Wenn man ChatGPT fragt, ob es die neueste Folge von Logbuch Netzpolitik anhand des Transkripts zusammenfassen kann, dann ist dies mit ziemlicher Sicherheit nicht im Trainingsset des Basismodells enthalten. Stattdessen wird im Hintergrund das Netz durchsucht, die Seite letztlich gelesen und deren Inhalt genutzt.
So wie sich mir der Sachverhalt darstellt, ist das Crawling für das Training von neuen LLMs – das vielleicht alle paar Wochen oder Monate passiert und eher dem generellen Sprachvermögen der Modelle dient – weniger das Problem, als vielmehr, dass im Hintergrund nach einem Prompt etliche Seiten durchgelesen werden und damit in viel höherer Frequenz für Traffic sorgen, der aber keine Werbeeinnahmen generiert. Das gilt insbesondere für Perplexity deren Geschäftsmodell die KI basierte Web Suche ist.
Andererseits ist so auch viel leichter die Quelle zu benennen und gezielt zu bezahlen.
Zu dem Anflugverfahren von der Leyen, das war sicherlich NDB / ungerichtetes Funkfeuer.
Am Ende echt fast lowtech, aber funktioniert.
https://de.m.wikipedia.org/wiki/Ungerichtetes_Funkfeuer
Hallo Linus, hallo Tim,
ich fand es sehr gut dass ihr euch mit der Frage beschäftigt die die AI hypesüchtigen nicht so richtig zu verstehen scheinen: wo bleibt der Anreiz noch neuen content zu produzieren wenn von uns allen nur erwartet wird dass wir brav unentgeltich und ohne gesellschaftlichen mehrwert den Marktwerkt von KI Forschern füttern während diese mit ihren Crawlern teilweise ganze Server DDoSen. Und nach Jahren der Jagd auf Menschen die irgendein Spiel oder irgendeinen Film torrenten bekommt dieser Markt jetzt eine Dauerkarte dafür alle Bücher, Filme, Songs beliebig illegal runterzuladen und dann einfach auf rechnung eine kleine Gebühr hinterher zu zahlen wenn es mal auffliegt.
Wo die Trainingsdaten da noch herkommen sollen weiss ich aktuell kaum noch. Ich kann euch nur empfehlen einmal auf Reddit durch die populären Subreddits zu gucken, und diese dann mit den sehr kleinen subreddits zu vergleichen. Ich habe jetzt schon die starke vermutung dass dort das meiste nur noch botspam ist. Teilweise erscheinen nur noch posts die sich auf echte Nachrichten beziehen, oder nichenthemen behandeln, echt. Die Kommentare darunter sind nochmal eine andere Sache…
Um meine Vermutung ein wenig weiter einzuordnen: Vor einigen Jahren, noch vor der aktuellen LLM Welle, ging ein subreddit an den Start das via Markovchain posts und kommentare generiert hat die zwar „unsinn“ waren, aber schon auf parodierende Art nah dran kamen wie typische redditdiskussionen so aussehen. Mit einem modernen LLM wäre es ein leichtes ein subreddit einfach auf automatik laufen zu lassen.
Ein anderer Aspekt der mir in der Diskussion wenig beachtet wird: ich glaube einfach nicht daran dass KI Unternehmen es werden lassen können ihre KI Modelle gegen die Wand zu fahren um sie in Richtung werbefähigkeit und bestimmte Gesinnungen zu trimmen.
Klar kann man sich gut über das Beispiel von Elon der verzweifelt versucht seiner KI die „wokeness“ abzutrainieren lachen, aber ich glaube genau das wird im breiten KI Markt bei allen großen Firmen passieren. Man ersetze eben nur „woke“ vs „nicht woke“ durch irgendwelche Werbeanreize oder sontige gewünschte. Manipulationen der Ergebnisse.
Wie seht ihr das?
Die Wünsche nach einem fairen umgang mit crawlern sind ja schön und gut.
Aber mein kleiner server über den ich nur einen kleinen Blog und ein paar Git repos hoste wird bereits massiv bombardiert so dass ich persönlich alles was nach bottraffic aussieht inzwischen tarpitte und kein Verständnis mehr habe. Robots.txt scheint inzwischen etwa den gleichen wert zu haben wie der „do not track“ toggle den browser mal eingeführt haben, erinnert sich noch jemand daran?
Ein anderes beispiel wo ich fast täglich das feindliche Verhalten von KI unternehmen zu spüren bekommen aus Nutzersicht wäre etwa die Tatsache dass die seit Monaten die GNU Server nahezu lahmlegen:
https://www.fsf.org/bulletin/2025/spring/defending-savannah-from-ddos-attacks
Naja, wenn du dein Modell vor die Wand gefahren hast, fängst du einfach mit Gewichten von vorher nochmal neu an. Schlechter als jetzt werden die Modelle nicht mehr.
Ich frag mich ob Grok-4 nur die Musk-source-groundete, mit X-scraped Daten fine-getunte Version des Vorgängers ist. Zu dem lässt sich ja einiges an Infos & den Quellcode finden (z.B. hier https://zenodo.org/records/15227014/files/Grok3_Architecture_Beyond_GPT4_Afridi.pdf).
Ich weiß aber auch nicht ob Architektur und Gewichte uns das Produkt so gut bewerten lassen wie bei einem klassischen Softwareprodukt, explainable AI ist ja schon noch ein sehr frisches Feld. Mal schauen. Das wäre für potentielle ISO-Audits in einer noch imaginären Zukunft ja schon relevant.
Vieles der Diskussion, aber auch viele Probingmethoden in der Literatur, beleuchten ja vorallem den IO-Stream der Modelle statt der Architektur usw. Ich denk so ein Black-Box Approach macht ganz pragmatisch schon mal Sinn, um die ganzen sozio-technischen Kontexte überhaupt bearbeiten zu können. Und schafft auch Vergleichbarkeit zwischen den doch sehr unterschiedlichen Produkten. Wo ich irgendwie gefühlt bei Prompt Engineering angekommen wäre?
Nachdenklich macht mich auf jeden Fall das Anpreisen dieses Modells für Robotik Kontexte, grad bei der Entwicklung die das Feld grade macht.
Da wäre es bestimmt spannend zu wissen, was Regulierungsframeworks dazu sagen und welche Hebel man hätte so etwas zu sanktionieren. Und eben auch ab wann es juristisch überhaupt möglich wäre zu fassen? Und ab wann wäre das demokratietheoretisch oder auch (situations?)ethisch gewollt?
Mir schmilzt echt regelmäßig das Hirn weg in dem Versuch da was zu fassen, weil das echt große Sachzusammenhänge sind, auf die wir oft auch noch keine Antwort haben. Da hilft es meiner Meinung nach echt nur sehr vorsichtig zu antizipieren, viel zu lesen und flexibel zu bleiben, falls man doch mal falsch liegt wie so oft. Und sich nicht über Forschungsfelder lustig machen, von denen sich einen der Anwendungswert nicht ganz erschließt. You never know, when it kicks in.
Ich fand die Diskussion um die Lizenzthematik übrigens auch sehr lehrreich, gelungen und spannend. Vielen Dank, da war echt Mehrwert für mich drin!
Ihr Moderatoren macht meiner Meinung nach übrigens nicht alles falsch. Nur fast alles manchmal :D
Es gibt neue, diesmal echte technische Probleme in der Fliegerei. Diesmal mit dem Kollisionsvermeidungssystem, das gejamt und unter Laborbedingungen sogar gespooft werden kann.
Wie immer ist MentorPilot da, um uns auf zu klären: https://www.youtube.com/watch?v=hRZYAkS9UFk