Logbuch:Netzpolitik live auf dem Easterhegg 20
Nach einer kurzen Kreativpause senden wir heute direkt vom Easterhegg 20 in Hamburg, wo wir die Ehre hatten vor Publikum auftreten zu dürfen. khaleesi ist mit dabei und wir sprechen mir ihr über ihre jüngsten Erfahrungen bei Auftritten vor dem Bundestag und einer Teilnahme einer Konferenz der UN. Linus liefert wiederum Impressionen von seiner Teilnahme an Ausstellungseröffnungen und Fernsehauftritten und am Ende grübeln wir gemeinsam über apokalyptische Szenarien rund um AI, finden aber noch keinen direkt unvermeidlichen Weg zum Untergang.
Für diese Episode von Logbuch:Netzpolitik liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.
Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.
Transkript
Shownotes
Prolog
- events.ccc.de: CCC Event Blog
- eh20.easterhegg.eu: start [EH20 – Back to root]
- tschunkelmusik @ soundcloud.com: Karfreitägliche Tanzlustbarkeit
Feedback
Digitalisierung Gesundheitssystem
- logbuch-netzpolitik.de: Kommentar von meningoenzep
- logbuch-netzpolitik.de: Kommentar von Lipfi
- logbuch-netzpolitik.de: Kommentar von Götz
- logbuch-netzpolitik.de: Kommentar von Mathias Panzenböck
Sack und Beutel
- logbuch-netzpolitik.de: Kommentar von PackStud
Eröffnung Deutschland DIGITAL
Khaleesi: Bundestag-Experience
- bundestag.de: Deutscher Bundestag – Anhörung zum Thema „Chatkontrolle“
Khaleesi: UN-Experience
- de.wikipedia.org: Kommission der Vereinten Nationen zur Rechtsstellung der Frau – Wikipedia
- de.wikipedia.org: Wirtschafts- und Sozialrat der Vereinten Nationen – Wikipedia
Kampf gegen / um / mit KI
- linus-neumann.de: KI und Fake News bei Markus Lanz
- zdf.de: Markus Lanz vom 4. April 2023
- youtube.com: IT-Experte zu künstlicher Intelligenz: „Wir sind nicht vorbereitet!“| Markus Lanz vom 04. April 2023
- rnd.de: Markus Lanz am Dienstag: Deepfakes, KI, ChatGPT: „Gibt politische Akteure, die Fake News vorantreiben“
Italien verbietet ChatGPT
- spiegel.de: ChatGPT droht auch in Deutschland Datenschutzärger – DER SPIEGEL
- br.de: Deutsche Datenschützer nehmen ChatGPT ins Visier | BR24
- br.de: Datenschutzgründe: Italien lässt ChatGPT sperren | BR24
Echtheit von Bildern und Videos zertifizieren
- heise.de: Signierte Nikon-Bilder fälschbar
6 Monate Moratorium
- futureoflife.org: Pause Giant AI Experiments: An Open Letter – Future of Life Institute
- time.com: The Only Way to Deal With the Threat From AI? Shut It Down | Time
Transparenzregister
- algorithmwatch.org: AlgorithmWatch stellt vor: Ein KI-Transparenzregister für die öffentliche Verwaltung – AlgorithmWatch
- parsa-marvi.de: Unser Positionspapier zur Künstlichen Intelligenz | Parsa Marvi MdB
- parlament-berlin.de: Antrag der Fraktion der FDP: Verfahrensverzeichnis für automatisierte Entscheidungsprozesse in der Verwaltung
IT-Security
- research.checkpoint.com: Just a moment…
- forbes.com: The Implications Of ChatGPT On Cybercrime
Tim meint bestimmt das Deutsche Historische Museum (DHM), welches in der Tat am Boulevard „Unter den Linden“ seinen Sitz hat.
(Ich hoffe, eine etwaige Aufklärung nicht überhört zu haben.)
Das Video hiervon gibts übrigens auf YouTube https://youtu.be/GZIYvhpVYRA und auf media.ccc.de https://media.ccc.de/v/eh20-26-logbuch-netzpolitik-live allerdings auf beiden Plattformen NICHT unter „LNP 457“ zu finden sondern nur unter „EH20 Logbuch Netzpolitik“ o.ä.
Hi.
Off topic:
Es gibt also doch Hackback Linus! ;)
https://youtu.be/9hAwUGrF69M
Mit freundlichen Grüßen
Ralf
Der C3 findet dieses Jahr schon im Mai statt? https://www.contelos.de/events/c3-2023/
Hi Linus,
Zum Thema Trainingskosten für ChatGPT-3 und Co. Es kostet nicht Milliarden sondern bald nicht mal mehr Hunderttausend. Von daher kann sich bald jede Uni, Stadt, größerer Verein oder Firma das training einer eigene KI leisten. Daher ist wohl eher davon auszugehe das Google sein „Suchmonopol“ verlieren wird.
„According to the ARK Invest Big Ideas 2023 report, training costs of a large language model similar to GPT-3 level performance have plummeted from $4.6 million in 2020 to $450,000 in 2022, a decline of 70% per year“
Ich bin gespannt wer das erste Model für die öffentlichkeit trainiert und die Updates pflegen wird. Und auch welche Methoden sich DoktorandInnen ausdenken um die AI speziell für seine zweck anzupassen zu können. (Siehe Lora-Netze und Control-Netze für StableDiffusion)
Viele Grüße
Sebastian
Sorry, der vorherige Kommentar sollte keine Antwort auf Jan’s Beitrag sein
Zum Thema AI Dystopien kann ich sehr die aktuellen Folgen vom Podcast „Your undivided Attention“ vom Center for Humane Technology empfehlen.
A propos mehr Training für Menschen: Wir hatten eine ähnliche Problemanalyse und haben folgendes aus dem Hut gezaubert – das @all-Kollektiv für digitalsensible Bildung (bisschen Lehrer*innensprech, spart die Revolution hier ausnahmsweise aus). Wir machen Workshops, Projektwochen, Seminare (yadeeyadee) für Schüler*innen, um sie unter dem Deckmantel der Medienkompetenz zur netzpolitischen Guerilla-Avantgarde auszubilden. Bucht uns! At-all.org <3
Euer worst case Szenario für AI (Menschen leben in nicht miteinander vereinbaren Realitäten) kling im Gegensatz zu manschen anderen Voraussagen ja noch recht positiv.
Ich persönlich finde es schwer die Warnungen vor wirklich schlimmen AI Katastrophen ganz zu ignorieren.
Es ist ja nicht nur Elon Musk der davor warnt. Auch ernstzunehmende Leute mit (soweit ich das bewerten kann) echter Expertisen wie Nick Bostrom (Future of Humanity Institute) oder große Teile der Less Wrong Community scheinen sich ernsthafte Sorgen zu machen, das AI der gesamten Menschheit (eventuell irreversiblen) Schaden zufügt. Übrigens auch nicht erst seit Chat-GPT aufgetaucht ist.
Diese Gruppen versuchen auch tatsächlich an AI Safety zu arbeiten um das problem zu lösen, statt nur 6 Monate abzuwarten.
Hi Linus,
Zum Thema Trainingskosten für ChatGPT-3 und Co. Es kostet nicht Milliarden sondern bald nicht mal mehr Hunderttausend. Von daher kann sich bald jede Uni, Stadt, größerer Verein oder Firma das training einer eigene KI leisten. Daher ist wohl eher davon auszugehe das Google sein „Suchmonopol“ verlieren wird.
„According to the ARK Invest Big Ideas 2023 report, training costs of a large language model similar to GPT-3 level performance have plummeted from $4.6 million in 2020 to $450,000 in 2022, a decline of 70% per year“
Ich bin gespannt wer das erste Model für die öffentlichkeit trainiert und die Updates pflegen wird. Und auch welche Methoden sich DoktorandInnen ausdenken um die AI speziell für seine zweck anzupassen zu können. (Siehe Lora-Netze und Control-Netze für StableDiffusion)
Viele Grüße
Sebastian
Hey Sebastian,
ich gehe davon aus, dass sich die Kosten zwar drastisch senken, diese allerdings zwar gegen „günstig“ aber nicht gegen Kostenlos gehen werden.
Auch (bspw.) 50.000$ bleibt viel Geld – im Besonderen, wenn Modelle mit ähnlichem Leistungsumfang bereits von Google/Microsoft/Amazon etc. betrieben werden.
Bei den Großen bleibt das Geschäftsinteresse über Werbung die Kosten wieder einzuspielen.
Die größere Hürde sehe ich weiterhin bei dem Zugang zu den für das Training notwendigen Datenhaufen.
Eine Policy-Änderung in den GitHub-Terms in Richtung „nur noch Microsoft darf damit Trainieren“ etc. dürfte da schon manche Felder arg im Leistungsumfang einschränken – ist ja nicht so als wenn es andere Suchmaschinen (neben Google) nicht probiert hätten.
Viele Grüße
Würde gerne nochmal betonen, dass LLMs wie ChatGPT eben genau _kein_ reasoning machen (glaube Tim sagte das Mal so in einem Nebensatz)! Sie sind „stochastic parrots“ – sie plappern! Sie erzeugen nur Antworten, die _klingen_ wie eine Antwort. Als würde man sich mit dem besten Hochstapler der Welt unterhalten: da wird dann schon auch mal eine Quelle dazu erfunden ;)
Hi, das Mastodon-Profil von Khaleesi ist nicht mehr aktuell. Die Frau Eickstädt ist nun unter @khaleesicodes@eupolicy.social zu finden.
Hey,
ich höre schon länger LNP und hatte mich gefreut, als ihr das AI Alignment-Thema angesprochen hattet, war dann aber von eurer Einschätzung ein wenig überrascht. Zunächst hätte ich nicht erwartet, dass ihr euch über den Aufruf zu einem sechsmonatigen Moratorium für das Training von LLMs größer als GPT-4 lustig machen würdet; vor allem, weil wenig über den Aufruf an sich gesprochen wurde, dafür aber umso mehr über diesen einen Promi, der den Vorschlag unterstützt, aber den wir sonst nicht so sehr mögen. Ich dachte, als gute Hacker diskutieren wir in erster Linie Ideen und nicht Personen.
In dem offenen Brief des Future of Life Institute [1] geht es vorwiegend um Gefahren durch artificial general intelligence (AGI), die es aktuell (noch) nicht gibt, aber die möglicherweise in wenigen Jahren da sein könnte. Da wir keine Lösung für das AI Alignment Problem haben und es sehr unwahrscheinlich ist, dass eine AGI die Werte ihrer Schöpfer teilen wird, geht es um nicht weniger als eine existenzielle Bedrohung für die Menschheit. Eine AGI, die sich ihrer Existenz bewusst ist und die Intelligenz auf dem Niveau der klügsten Menschen oder sogar darüber hinaus aufweist, lässt sich nicht ohne Weiteres kontrollieren oder abschalten; vor allem wenn sie in der Cloud betrieben wird, wie das heute z.B. bei ChatGPT der Fall ist.
Eine der pessimistischsten Stimmen auf dem Gebiet ist Eliezer Yudkowsky, der sich seit 20 Jahren mit AI Alignment beschäftigt und der den offenen Brief nicht unterzeichnet hat, weil er ihm nicht annähernd weit genug geht. Hier ist sein Standpunkt im Time Magazine [2] und wer keine Angst vor einer Existenzkrise hat, kann sich Folge 159 des Bankless Podcast [3] anhören, in der Yudkowsky zu Gast war.
Einen etwas ausgeglicheneren Überblick über verschiedene Standpunkte bietet Scott Alexander in seinem Blog [4]. Zum Abschluss kann ich noch diese schöne Kurzgeschichte über eine Gruppe von AGIs in einer Game Show [5] empfehlen, die gemeinsam den Turing Test machen. Viel Spaß beim Abtauchen in diesem Rabbithole!
lg
Sebi
1: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
2: https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
3: https://www.bankless.com/159-were-all-gonna-die-with-eliezer-yudkowsky
4: https://astralcodexten.substack.com/p/why-i-am-not-as-much-of-a-doomer
5: https://astralcodexten.substack.com/p/turing-test
Hi Tim, Hi Linus
gegen Minute 50 wechselt Ihr zum KI-Thema und es kam mir so vor als wenn ihr eine gute Bezeichnung für diese Systeme sucht (‚wie auch immer man sie nennen mag“).
Ich teile die Auffassung, dass „KI“/“Künstliche Intelligent“ zu mystisch aufgeladen ist.
Ähnlich auch die Begriffswolke der ’neuronalen Netze‘.
Ein Freund sagte, dass sich Personen bei der DPG (Deutsche Physikalische Gesellschaft)-Tagung am ehesten noch mit „statistischen Verfahren“ schmücken wollten.
Letztendlich ginge es dort auch immer nur um den ‚fit‘ von Daten zu einem kohärenten Gesammtbild.
Deswegen möchte ich einen anderen Begriff vorschlagen … .. .
Diese Systeme wurden so lange verändert bis sie zuverlässig „Bilder erschaffen als wären sie Maler“ und „Texte schreiben als wären sie Autoren“. Letztlich immitieren sie diese Personen, ohne ‚Realwelterfahrung‘ erlebt zu haben. Sie sind keine Menschen aber üben eine Art ‚Mimikry‘, im biologischen Wortsinn aus.
So wie die Wespenschwebfliege keine Wespe ist und entsprechend nicht Stechen kann, immitieren Mimikry-Systeme menschliche Schaffenskraft.
— — —
Der Begriff Mimikry-System erschein umso passender, je länger man darüber nachdenkt:
1) Eine Wespenschwebfliege entscheidet sich nicht als Individuum, dass es so aussieht, wie ein ‚gemeine Wespe‘.
Die Wespenschwebfliege ist in Bezug auf das „Überleben durch visuelle Anpassung“ dumm bzw. nicht handlungsfähig.
Folglich, die biologische Selektion, bzw. gerichtete Evolution hat das äußere der Wespenschwebfliege zu dem gemacht, was ‚ohne genaueres Hinsehen‘ erkannt wird.
Das erste mal Überfliegen einer Antwort von ChatGPT passt ja auch erstmal recht gut.
2) Mimikry funktioniert dann gut, wenn es „viele und eindeutige“ Beispiele gibt.
Hier: Die ‚gemeine Wespe‘ ist normalerweise gut als solche zu erkennen, es gibt sie recht oft.
Wenn es nur wenige Exemplare gibt an denen sich das Mimikry-System ‚orientieren muss‘, dann liegt es schnell offensichtlich daneben.
Das System kann keines der Beispiele zur zufriedenheit Immitieren ohne die Einflüsse der anderen Exemplare eklatant zu vernachlässigen.
–> „Irgendwas mit Programmiereung, bei dem ein ‚;‘ zum versagen führt“
–> „Jeder von uns würde einen echten Banksy erkennen“ :-P
Auf der anderen Seite stehen Domänen mit offenen bzw. kreativen Fragen mit vielen ’schwer falsifizierbaren‘ Antworten – das funktioniert gut:
–> „Ideen was man mit einem leeren Raum machen kann“ (gegen 1:00:20)
3) Demzufolge braucht die Wespenschwebfliege nicht verstehen, was sie richtig/falsch macht.
Sie ist in diesem Selektionskriterium schlicht unwissend.
Genauso erstellt ChatGPT das neue – ggf. etwas bessere – LOREM IPSUM.
Es liefert das bessere Mimikry zum später „vom menschlichen Experten verfasste Manuskript“.
Es bleibt dabei, das ChatGPT-LOREM IPSUM bleibt dumm, nur die Hülle passt ‚besser‘.
4) Zuletzt bleibt die „volle Überzeugung von ChatGPT eine ‚gemeine Wespe‘ zu sein“ ist notwendig und muss gegen jeden Zweifel im ‚Wespenschwebfliege‘-Versteckspiel verteidigt werden. ;-)
Deshalb … wünsche ich mir, dass das Synonym „Mimikry-System“ vemehrt genutzt wird ;-)
Mit einem dank für die Tolle Sendung verbleie ich ..
Mit gefiederten Grüßen
Patient Parrot
P.s.: Tim betreibt anscheinend Evangelist-Mimikry (1:03:20) :-P
Ergänzung – ich vergaß …
5) In Zusammenhang mit Mimikry steht zumeist (Biologen mögen mich korrigieren) ein Regelkreislauf:
#1: Es benötigt eine Art deren Aussehen immitiert wird (klar, geschenkt).
#2: Es entsteht ein Vorteil die andere Art zu immitieren.
(Hier: Die ‚gemeine Wespe‘ wird von Fressfeinden gemieden.)
#3: Vorteilhaft: Es gibt gehäuft Zusammenkünfte von Fressfeinden mit ‚gemeinen Wespen‘.
Hierbei entfaltet die Kombination aus #2 und #3 die Schutzwirkung für die Wespenschwebfliege.
Merke: Das Training der Fressfeinden beruht IMMER auf negativen Erfahrungen mit der ‚gemeinen Wespe‘.
— Gedankenbrücke —
Wenn wir nun (in naher Zukunft) von Mimikry-Systemen generierte Bilder/Texte als Input benutzen, in der Annahme, dass diese valide Daten enthalten, dann wird das „positive“ verwässert.
— Schlussfolgerung —
Unter der Annahme, dass Mimirky-Systeme mit Qutput von Mimirky-Systemen trainiert werden, ist ein mögliches Szenario, dass die Qualität stagnieren wird.
Hi, ich finde dieser Blogpost auf AI Weirdness demonstriert eueren Punkt „von eigenen alternativen Fakten extrem überzeugte AI“ sehr anschaulich:
https://www.aiweirdness.com/what-does-this-say/
Puh – 3. Gedankengang .. anscheinend noch rechtzeitig vor der Nächsten Sendung :D ;-)
…
Ich habe eine naive Hoffnung, die ich gerne hochhalten möchte um nicht vollends zu verzweifeln … .. .
Linus fährt (ab 1:13:xx) eher die (realistisch-)dystopische Sicht.
———–
„Es gibt keine Demokratische steuerungsmöglichkeit mehr, weil die Menschen von unterschiedlichen Realitäten überzeugt sind, die nicht miteinander vereibar sind. -> Wie jetzt nur schlimmer“
bzw.
„Keine feststehenden Wahrheiten mehr“
bzw.
„Gesellschaftliche Bereiche werden in Frage gestellt“ (1:17:xx)
bzw.
Wir haben keine „Aufgeklärte, medienkompetente Gesellschaft“
———–
Ich glaube zwar, dass die Menschehit zu langsam ist … aber die Ansätze in die richtige Richtung sind da.
—– —– Exkurs START —– —–
Es gibt verschiedene Geschwindigkeiten von Diskussion, Wahrheit etc. im Prozess des Erkenntnisgewinns.
Angefangen beim …
===== „Boiling pot“ =====
– Twitter
– Eil-Nachrichten
– Alltagspolitik & Klatschpresse (Meinungs-Blätter)
. .. … .. .
– Politik im Diskurs – Gesetzgebungsprozess
– Gesetzestext & Bürokratie
– Physikalische Gesetze
… geendet beim unumstößlichen
===== „Cold Freeze“ =====
Ich bin geblendet von meiner Bubble und glaube deshalb, dass „wir uns als Menschheit immer mehr in Richtung ‚Verständnis von physikalischen Gesetzen bewegen‘.“
Die kommende Generation hat die Möglichkeit via Informationen aus der langsamen Erkenntniss (Bspw.: OpenAccess-Publikationen) grundlegende Wahrheiten zu erfahen – bis hin zu gut verifiziertem Wissen auf Detailniveau.
—– —– Exkurs ENDE —– —–
Hauptgedanke:
Wenn nun der schnelle ‚Boiling Pot‘ immer absurder wird und sich aufgrund von wiedersprüchlichen Informationen (Fake-News) innerhalb von Stunden revidiert,
entsteht mMn ein Druck der Informationsgewinnung aus langsameren Medien
An dieser Stelle Bspw das ‚Corona-Update von Drosten‘ in dem erstmal eine Grundlagenvorlesung zur Virologie stattgefunden hat.
Ich meine im Besonderen die ersten Episoden in denen es um die „längst gekannten und belegten Erkenntnisse“ ging.
Ähnlich auch in „Unsere Kleine Welt mit Pavel & Tim“ ;-)
Das Verlangen nach mehr (fake-) Impulsen die zu mehr (kurzschluss-)Reaktionen führen nimmt (hoffentlich) ab.
Der Diskurs bewegt sich im Vergleich zu 2015 mehr in Richtung „was sagt die Wissenschaft“
–> „gibt es vllt. ein interessantes PrePrint“, welches der reinen Meinungs-Schreierei eine seriösere Note entgegenhalten kann?
… .. .
In Summe zumindest eine etwas utopischere Sicht, als Linus sie in der Folge aufgemacht hat – ggf. auch dem Live-Momentum geschuldet ;-)
Mir ist bewusst, dass dies nur eine geringe Hoffnung birgt. Aber zumindest eine, die wir verfolgen können.
-> Mehr ‚langsamer Erkenntnissgewinn‘ um dem Realitätsverlust durch ’schnelle Fakenews‘ entgegenzuwirken :D
… .. . verdammt verdammt – es liest sich zu gut (utopisch) um wahr zu werden ^.^
Gefiederte Grüße ;-)
https://twitter.com/HansruediWidmer/status/1647826218237001728
Ich möchte die Frage stellen, warum lenken wir diese Überwachungsdiskussion jeglicher digitalen Kommunikation nicht auf eine verpflichtende Whitelists für Minderjährige und Jugendliche?
Das Ding muss installiert werden auf alle onlinefähigen Geräte die den Kindern zur Vewrügung stehen. Ansonsten Bußgeld
Eltern haften für ihre Kinder.
Eine Aktion dieser Art könnte wahrscheinlich ohne große Probleme national ausgerollt werden.
Whitelist Kontrolle wäre auch einfach
Wer auf die WhiteListe möchte muss sich nach den Kinder und Jugendschutz Kriterien bei
Freiwillige Selbstkontrolle des Internets
für ein Arbeitsgebühr prüfen lassen.
Wenn auf einer jugendgerechten Webseite dann Inhalte gemeldet werden die dagegen Verstoßen -> Strafe
So könnten auch jJugendgefährdete social apps oder das Darknet den Kindern und Jugendlichen zu Ihrem Schutz verngehalten werden.
Diese Frage stelle ich mir schon viel zu lange. Kenne dabei bisher keine politschen Diskussion über die Möglichkeiten und Probleme einer verpflichtende staatlichen White List Kinder- und Jugendliche um diese vor Inhalten im Internet zu schützen.