Linus Neumann 0:46:36
Also ich hatte ja darüber gesprochen, dass ich davon ausgehe,dass der Bereich der Psychotherapie durch KI-Modelle sehr stark verändert werden wird.Und das hat unterschiedlichste Reaktionen herausgekitzelt. ähm.Eine sehr wichtige hatte ich bei Enno Park gelesen auf Mastodon,der dann zum Beispiel auch sagte, naja, macht sich eigentlich bei dieser Aussageniemand darüber Gedanken, wenn dann alle,also beispielsweise ihre Psychotherapie jetzt mit ChatGPT machen,was für Inhalte dann da gerade an OpenAI geliefert werden. Da müssen ja alle durchdrehen.Und das ist natürlich, das fand ich eigentlich, finde ich, noch den wichtigstenAspekt an der ganzen Sache.Und gleichzeitig ist die Historie der Chatbots, fängt mit Elisa an,mit der Idee, einen Gesprächstherapeuten in einem einfachen Programm zu simulieren.Warum ich aber davon ausgehe, und jetzt kommen wir erstmal zu den Kommentaren,also es kommentiert, Sandra sagt, zum Thema KI in der Psychotherapie wurde jaschon einiges gesagt, zumindest in der Verhaltenstherapie sagt die Studienlage relativ deutlich,dass einer der wichtigsten Faktoren für den positiven Verlauf einer Therapiedie Beziehung zwischen Patientin und Therapeutin ist.Ich kann mir nicht vorstellen, dass eine KI das kurzfristig ersetzen kann.Außerdem birgt das durchaus Gefahren. Die aktuellen Modelle reden einem ja vorallem nach dem Mund und stimmen erstmal immer zu, was auch immer man sagt.Es gibt vermehrt Berichte von Personen, die sicherlich auch mit entsprechenderPrädisposition regelrechte Psychosen entwickeln durch die Nutzung von Chat, GPT und Co.Zwei Punkte, zu denen ich da gerne was sagen würde.Es stimmt, Verlauf einer Therapie ist maßgeblich auch durch die Passung vonPatientin und Therapeutin geprägt.Vorhergesagt oder mitbestimmt.Jetzt überleg mal, wie schwierig das Potenzial ist, unter echten Menschen jemandenmit der richtigen Passung zu finden. Deswegen ist das ja auch ein großes Problem.Aber meine These wäre, dass die Passung zwischen Patientin und Therapeutin einentscheidender Faktor daran liegt, liegt nicht daran, dass die Passung gut seinmuss, sondern wie oft sie schlecht ist.Und ein darauf ausgelegtes Modell, glaube ich, könnte mit höherer Wahrscheinlichkeiteine Passung zu einem Menschen finden.Zumindest sagen die wenigsten Leute, dass ihnen Chat-GPT irgendwie unsympathisch ist.Also ich glaube, dass dieser Fakt eigentlich in der Interpretation genau umgedreht ist,nämlich die Passung musst du erstmal bei Menschen finden und bei einem Modellkannst du die potenziell einstellen.Dann, ja, die aktuellen Modelle reden einem nach dem Mund, schaffen die LeutePsychosen und so weiter.Die sind aber auch noch nicht auf Psychotherapie trainiert worden.Ja, das sind ja keine spezialisierten Modelle. Womit wir bei dem dritten Punktwären, komme ich zurück zu dem Post von Enno.Also sicherlich wäre es so,dass in einer für Therapie tatsächlich zugelassenen KI sehr strenge Regelungen gelten würden,von wem die betrieben werden darf, dass sie überhaupt verschrieben werden kannund so weiter, dass sie am Ende Diagnostik machen kann oder so.Da würde sicherlich noch eine Menge passieren.Was ich mir aber durchaus zum Beispiel vorstellen kann, ist,dass man das quasi auch eine Therapie ergänzt.Dass du quasi nicht mehr nur einmal oder zweimal die Woche oder einmal allezwei Wochen zu deiner Therapeutin gehst, dann eine Dreiviertelstunde mit derRede ist und man davon ausgeht, dass dieses eine Gespräch,jetzt irgendwie einen nachhaltigen Effekt bis zur nächsten Therapiesitzung haben wird.Wir hatten ja eingangs schon ein bisschen darüber gesprochen,es spielt halt schon eine Rolle, womit Menschen sich täglich befassen und woihre Aufmerksamkeit ist.Und selbst wenn so eine super passende Therapeutin mit einer Sitzung die Wochedich maßgeblich zum Denken anregt.Hätte ein Chatbot mit einer vielleicht nicht ganz so guten Passung,aber zumindest keiner Antipathie, potenziell sehr, sehr viel mehr Zeit auf dich einzuwirken.Und da würde ich dann schon davon ausgehen, dass es ...Dass es hier am Ende einen positiven Effekt geben kann.Oder zumindest einen ergänzenden, dass man sagt, keine Ahnung,jede Woche Therapie und den Rest der Zeit muss ich 20 Minuten pro Tag nochmalmit dem Chatbot sprechen oder so. Der passt auch auf, dass ich meine Therapiehausaufgaben mache.Ich bin mir absolut sicher, dass dieser Bereich davon beeinflusst wird und dadurch besser werden wird.Lealexandra, Lealexandra oder was? Zum Thema Psychotherapie hat Linus gesagt,dass diese idealerweise nach evidenzbasierten Manualen stattfindet.Das ist für die Verhaltenstherapie im Prinzip richtig, allerdings muss ich auseigener Erfahrung berichten und ich habe dies von Kolleginnen ebenfalls gehört,dass es selten möglich ist, eine manualisierte Therapie nach Plan durchzuziehen,da ja die meisten Patientinnen zwischen den Sitzungen viel erleben und sichauch die generelle Problemlage ständig ändern kann.Da muss man als Therapeutin oft improvisieren können und ad hoc überlegen,was denn in der neuen Situation sinnvoll wäre.Es geht also um situative Flexibilität.Ich bin nicht sicher, ob KI dies so leisten könnte. Ähm.Da würde ich jetzt erstmal kurz eine Pause machen. Ich lese den Kommentar gleich weiter vor.Ich denke, auch hier ist die Antwort ja schon drin.Zwischen den Sitzungen kann sich viel ändern. Die Leute erleben viel zwischenden Sitzungen. Klar, die Therapie geht über Monate zwischendurch.Was weiß ich, erkrankt ein Familienmitglied oder du gewinnst im Lotto oder so.Da ändern sich ja Faktoren.Wetter ändert sich, deine Winterdepression ist weg. Was auch alles.Klar, muss die Therapeutin alles drauf reagieren. Aber da ist doch auch eintäglich verfügbarer Chatbot in einer besseren Ausgangslage.Und vor allem auf unterschiedliche Situationen zu reagieren.Also Chat-GPT kann ich zu allem fragen, kann ich auch ein Rezept noch erfragen.Zudem gibt es Studien, die belegen, dass die Therapieform,also Verhaltenstherapie und so weiter und die Inhalte, Cognitive BehavioralTherapy, wohl weniger oder höchstens genauso relevant sind hinsichtlich Therapieerfolgals bestimmte Merkmale, Fähigkeiten der Therapeutin hinsichtlich Empathie, Wertschätzung.Auch Humor in der Psychotherapie hat sich als ein wirksames Mittel erwiesen.Und da es jetzt schon Kolleginnen gibt, die sich mit dem Einsatz von Humor schwertun, bin ich nicht sicher, wie gut das mit KI laufen würde.Ebenso was echte Empathie, Wertschätzung und so weiter betrifft.Da bin ich auch ehrlich gesagt nicht so von überzeugt.Das ist ja genau das gleiche Argument, Passung oder Fähigkeit der Therapeutin.Empathie, Humor, also all das,glaube ich, kann ein Chatbot für einen längeren Zeitraum aufrechterhalten undliefern als ein Mensch und streckenweise vielleicht sogar besser.Insofern, das Einzige, was am Ende wirklich fehlt, sind die Möglichkeiten desChatbots durch nonverbale Cues, das auch zu vermitteln.Aber ich glaube, da unterschätzen wir, wie einfach sich diese menschlichen Gefühle auch triggern lassen.Also dann machst du dem Ding halt ein Gesicht und das Gesicht lächelt halt undguckt traurig, wenn du was Trauriges erzählst und guckt, lacht mit dir odermacht mal einen Witz und vermittelt dir Emotionen.Wir reagieren als Menschen auf sowas. Wir reagieren ja auch zum Beispiel,wir gehen in ein Kino und da sind Zeichentrickfiguren, das sind auch nicht malMenschen. Wir wissen, die gibt es nicht.Und wenn die sich ein Bein brechen, dann haben wir ein Mitgefühl mit denen.Ein blöder Smiley in einer WhatsApp-Nachricht löst in uns Emotionen aus.Da wird ein Chatbot das nicht schwer haben, das auch wohldosiert zu triggern.Also ich glaube, am Ende haben wir die Frage,wie oft können unsere Gedanken an therapeutische Inhalte gebracht werden undwas wir noch gar nicht in dem, und da hat der Chatbot eben halt gegenüber den45 Minuten normale Therapiesitzung einfach einen massiven Vorteil.Und der kann potenzielle Nachteile einfach durch Zeit wahrscheinlich ausgleichen. So meine These.Und dann haben wir noch gar nicht darüber gesprochen, dass es auch eine ganzeReihe Störungsbilder gibt, wo allein das sich zu Therapeutinnen bewegen ein riesiges Problem ist.Also Depression und Agoraphobie sind jetzt nur mal so einfache Beispiele.Wer US-Podcasts hört, dem bluten wahrscheinlich auch schon die Ohren von dieserTherapie-App-Werbung.Also da gibt es ja schon jetzt eine App in den USA, die, ich glaube,die nennt sich BetterHelp oder sowas, wo du im Prinzip mal eben so spontan soeine Therapeutin herbeitindern kannst oder so.Und wenn dir die nicht gefällt, dann swipes du die weg und nimmst eine andere.Und da werden Menschen ja heute schon dran gewöhnt, mit Menschen.
Zum Prolog: Bei Tantes Vortrag auf der GPN (unbedingte Anschau-Empfehlung!) ging es um den Begriff Faschismus und was ihn in Einzelheiten so ausmacht. Was mich dabei besonders nachhaltig beeindruckt hat, ist, dass ein Grundpfeiler dabei die Prämisse ist, dass alles schlimm ist, und es früher besser war. Sei es die Islamisierung des Abendlands, die jüdische Weltverschwörung, der Corona-Impf-Terror oder was auch immer man sich da für Blödsinn ausdenken kann.
Da fällt einem natürlich gleich eine Parallele zum eigenen Denkmuster auf: Alles ist schlimm, früher war es besser, ohne Klimawandel, Nazis in den USA, Nazis bei uns im Parlament, Krieg in der Ukraine, bröckelnde Infrastruktur etc. Jetzt könnte man natürlich sagen der Unterschied zwischen mir und den Faschos ist, dass ich Recht habe, aber das wäre mir auch ein bisschen zu einfach.
Meine Schlussfolgerung ist, genau wie es im Prolog auch empfohlen wird, sich bewusst zu machen, wie viel besser fast alles fast immer wird. Und dass das alles daran liegt, dass extrem tolle Menschen extrem tolle Dinge tun. Natürlich darf man dabei große Probleme nicht ausblenden, aber man muss sie konkret fassen können, weil das einerseits der erste Schritt richtung Lösung ist, und andererseits es niemandem hilft, wenn daraus ein überwältigendes Gefühl von Hilflosigkeit entsteht.
Rechtsbelehrung – Recht, Technik & Gesellschaft: Rechtsbelehrung 136 – Bußgelder gegen Apple und Meta: Wirkt der DMA?
Webseite der Episode: https://rechtsbelehrung.com/136-dma-bussgeld/
Mediendatei: https://media.blubrry.com/rechtsbelehrung/rechtsbelehrung.com/wp-content/uploads/podcast/rechtsbelehrung136-DMA2.mp3
Und
Rechtsbelehrung – Recht, Technik & Gesellschaft: Digital Markets Act: Zähmung der Tech-Giganten – Rechtsbelehrung 117
Webseite der Episode: https://rechtsbelehrung.com/117-dma/
Mediendatei: https://media.blubrry.com/rechtsbelehrung/rechtsbelehrung.com/wp-content/uploads/podcast/rechtsbelehrung117-DMA.mp3
Und dann reden wir weiter über was apple wann muss und gegenüber wem und ob nicht doch was dran ist das Apple versucht mit unzufriedenen Kondunenten die EU Rechtssetzung zu ändern.
Das Geblubberle, wenn man schon zu lange an der eigenen Filterblase nuckelt…
Progress ist machmal einfach nur anstrengend…
Zum Thema Limitierung durch Energie: Fakt ist dass seit ca. 2008 sich folgendes Verhältnis nicht wesentlich geändert hat: Der gesamte Stromverbrauch der Welt kann durch PV auf einer Fläche von etwa Österreich unter guten/idealen Bedingungen abgedeckt werden. Steigender Stromverbrauch und Effizienzgewinne in PV haben sich da über ca. 20 Jahre die Waage gehalten.
Nun ist das nicht alle Energie die gebraucht wird, schon klar. Aber dass Energie auf lange Sicht ein limitierender Faktor für uns ist halte ich für eine Annahme die noch weit weg von Relevanz ist.
Limitierend ist vor allem die Old Fossil Economy die ihre Pfründe verteidigt. Und wenn man sieht, wie weit die Profiteure dieser Old Fossil Economy sich durch die gesamte Wirtschaft ziehen scheint mir da das wesentlich akutere Problem zu liegen.
Btw. die Bitcoin economy ist da nochmal ne Ausnahme weil die ja vor allem von den Kosten der Energieerzeugung abhängig ist. Sinken die Kosten der Energieerzeugung steigt automatisch der für das Aufrechterhalten der Blockchain notwendige Energieverbrauch. Das ist ein nie mehr behebbarer Konstruktionsfehler dieser Sache und m.E. der wesentliche Totengräber der Technologie.
Zu dem wohin man seine Aufmerksamkeit gibt: Jedesmal wenn man mir eine Nachricht von Trump vor die Nase hält, stolpere ich über das „Thank you for your attention to this matter.“ am Ende. Und es macht mich zunehmend nachdenklich. Es gibt nicht viele Sachen für die sich Trump bedankt, also scheint er das wirklich dringend zu brauchen.
Spannende Folge, und ich finde Linus hat ein guten Punkt gemacht mit den echten Kosten vs. Kosten für Unternehmen, Dinge zu tun, wie zB AKWs zu bauen oder LLMs zu betreiben oder beides.
Was ich auch noch erwähnen möchte, ist das Hardware im Rechenzentrum nicht für immer hält. Das sollte ein relativ grosser Faktor sein für die ökologischen Kosten des Betriebs von massiven RZs.
Dieses Apple-Draufhauen-Ding besteht doch zur Hauptsache darin, das Apple einfach mal demonstrieren muss, das es sich als Instituation überhaupt noch bewegen KANN bei diesem 30%-Appstore-Scheissdreck.
Ich verstehe die Ansicht, das man Apple einmal mit dem Vorschlaghammer von ihren Schlumpfbären-Milliarden wegprügeln muss. Also mit dubiosen Regulierungen, Druck etc.
… Einfach damit nachher die Change besteht, das künftige, vernünftigere Regulierungen auch mal eingehalten und ernstgenommen werden, ohne das vorher 10 Jahr lang Rechtsstreit durch alle Instanzen gefochten werden muss und das ganze dann so ausgewaschen umgesetz wird das es nichts bringt. Siehe dazu Facebook.
Diese Ansicht teilen auch viele amerikanische Apple-Fans.
Ich finde die Haltung, dass man das Recht als „Vorschlaghammer“ verwendet um etwas „wegzuprügeln“ nicht so ganz im Sinne unserer Verfassung (oder der europäischen). Sinn jeglicher Regelung ist, das „richige“ zu tun und nicht als Strafe per se.
Was ist denn Deine konkrete Kritik am „30%-Appstore-Scheissdreck“? Das würde mich mal interessieren. Ich sehe immer viel generalisierten Ärger, höre aber selten eine wirklich konkrete Beschreibung des angeblichen Missstands geschweige denn konkrete Vorschläge, was eigentlich wie geändert werden soll, damit es für wen wie besser wird.
Die Vorschlaghammer Strategie oder Exempel statuieren finde ich auch nicht den richtigen Weg.
Ich muss auch sagen, dass Tims Argumentation, warum das Vorgehen der EU vermutlich nicht zu dem gewünschten Ergebnis führt, in dieser Folge sehr gut war.
Zu den 30%: hier wird schon relativ deutlich die Macht ausgenutzt. Klar es fallen auch Kosten an, und sicher sollte man auch die beteiligten, die von der Plattform profitieren. Ein Beispiel wo es absurd wird: 30% vom Netflix Monats Preis an Apple, für was genau?! Ein Indie Entwickler mit kleiner App muss 30% abgeben, während die Sparkasse 100€ pro Jahr zahlt und 3x pro Woche ein Update zur Review einreicht. Riesen Tech Konzerne werden von kleinen Leuten subventioniert. Keine anderen Zahlungsmittel zuzulassen, klarer macht missbrauch.
Verbesserungsvorschläge:
Eine Metrik finden, die den Aufwand für Apple abbildet, und dementsprechend kassieren (viele Updates, viele User, viel Bandbreite, etc.)
Unterscheiden zwischen Apps/in App Käufen, wo die App nur eine view ist (Netflix, ChatGPT,…) und wo die Plattform einen essenziellen Anteil an dem Produkt hat (Games, AR-Kit, etc. ).
Hallo,
zum Thema KI-Psychologen:
Ich denke wenn jemand, z.B. Samstags Nachts, wo gerade kein Psychologe zur Verfügung steht, dankbar ist, wenn er bei einer Psychose, mithilfe eines Chatbots, wieder runter kommen kann, bevor er sich notfallmäßig in die nächste Psychiatrie bringen lässt. Daher denke ich wenn die Wirkung eines Chatbots in der Psychologie bewiesen ist, wird es den Betoffenen egal sein ob sie mit einem richtigen Menschen, oder einer Maschiene sprechen.
KI und Proteinfaltung
Linus und alle Interessierten sollten sich unbedingt die Vorträge von David Baker, Demis Hassabis und John Jumper ansehen, die sie in Stockholm im Rahmen der Nobel-Preisverleihung gehalten haben.
· „2024 Nobel Prize lectures in chemistry“
Stellt man sich eine Kette aus Aminosäuren vor, die als sequenzieller Abdruck aus DNS oder RNS entstanden ist, kann man sich überlegen, dass mit jedem Aminosäurenglied die Restkette nach links oder rechts knicken kann. Dann hat man allein schon ein auf Basis 2 exponentiell anwachsenden Möglichkeitenraum, wie sich ein sich dann ergebendes Protein darstellt (1, 2, 4, 8, 16, 32, …). Zusätzlich wirken noch viele andere chemische und physikalische Effekte auf die entgültige Form ein, so wie Tim es formulierte. Ein einzelner Fehlknick, „linksdrehend“ statt „rechtsdrehend“, kann z. B. ein sonst wirksames Medikament zu einem Gift machen.
Unser Körper besteht aus geschätzt 120 Billionen Zellen. In und zwischen diesen Zellen schwimmen und werkeln jeweils tausende, zehntausende, … Proteinroboter und Proteinbauteile. Wer sich jetzt mal auf die Hand schaut und versucht geistig reinzuzoomen, kommt am Bild eines umherwandelnden Ameisenhaufens auf Steroiden nicht vorbei. Das ist fast überwältigend. Eine hervorragende Doku mit beeindruckenden Animationen dazu ist:
· „Wie Viren unseren Körper angreifen (ZDF)“ [Archive]
·„Our Secret Universe The Hidden Life of the Cell (BBC)“ (ungekürztes Original, 2012)
MediathekView oder yt-dlp helfen beim Herunterladen und Sichern.
Gerade am Beispiel der Proteinfaltung eine möglicherweise philosophische Frage, aber ich denke eine Frage mit Relevanz: Wenn nun Machine Learning die besten Vorhersagen zur Proteinfaltung macht, wurde dadurch „Wissen generiert“? Obwohl die „Regeln“ nur impliziert im Modell vorhanden sind und es somit im Wesentlichen unmöglich ist, explizite Erkenntnisse auf andere Probleme zu übertragen oder auf diesen Erkenntnissen basierend weitere Erkenntnisse zu gewinnen oder Falschannahmen der bisherigen Ansätze zu entdecken etc etc? Und daraus folgend, hat Machine Learning dann zur Forschung (=Erkenntnisgewinn?) beigetragen oder nur zum technischen Fortschritt?
Die explizite Kenntnis, wie ein bestimmtes natürlich vorkommendes Protein geformt ist, anstatt nur die zugehörige Gen-Sequenz zu kennen, ist wichtig um zu verstehen, warum es funktioniert, wie es funktioniert, und das ist wiederum hilfreich, Medikamente zu entwickeln, die mit diesem Protein interagieren können. Also ja, aus den Erkentnissen, die α-fold hervorbringt, lassen sich weitere Kenntnisse ableiten, die einen praktischen Nutzen haben und die Forschung voranbringen.
Eine Frage zum Einsatz von KI in der Psychotherapie. Linus sprach davon, dass es ja auch darum ginge, dass die Therapeut*in über beispielsweise die Mimik reagiert. Das mag man ja über ein irgendwie animiertes Bild ersetzen können. Wie sieht es aber umgekehrt damit aus, die Mimik der zu therapierenden Person zu sehen oder auch die Stimme zu hören, wenn sie etwas erzählt? Ist das wenig relevant für die Therapie?
Zur Frage, seit wann es die Idee eines Registers für psychisch auffällige Menschen gibt, würde ich mal (mindestens) drittes Reich sagen.
Auch auf die Gefahr hin, mich zu wiederholen, wenn Blackrot wirklich vier Jahre durchhält und so weitermacht, dann weiß ich nicht, welche Ziele noch übrig sind, die die AfD ins Wahlprogramm schreiben kann.
Zum Thema drohende Strafen für Apple, mal etwas weiter gedacht: Schon erstaunlich, wie wir über die Jahre still und heimlich Smartphones als „Plattform“ akzeptiert haben. Bei Android ist das nicht viel besser, in Teilen sogar schlimmer. Völlig normal, dass wir abseits der Stores kaum noch Software installieren. Und gute Hardware wird obsolet, weil einfach irgendwann keine Updates mehr kommen. An sich ist ein Smartphone ein Computer, den man sich gekauft und bezahlt hat. Dann wird man als User, oder Entwickler künstlich eingeschränkt, erst mal egal aus welchen Gründen.
(Microsoft schmeißt jetzt jedes Jahr CPUs aus dem Windows 11 Support raus, sodass PCs, die heute offiziell Windows 11 tauglich sind, in 1-2 Jahren gar keine Updates mehr bekommen könnten.)
Ich finde, sobald eine Hardware vom Hersteller aufgegeben wird, dann sollte alles transparent veröffentlicht werden müssen, sodass es wenigstens theoretisch die Möglichkeit für alternative Betriebssysteme gäbe. Aktuell wird es ab Android 16 leider noch schlimmer für Entwickler alternativer und offener Betriebssysteme. Führt jetzt dazu, dass GrapheneOS eigene Hardware bauen will…
Und wer ein sehr teures iPhone, mit Phantasiemargen für Apple, gekauft hat, sollte darauf Software aus allen möglichen Quellen installieren dürfen und können, auch abseits der Bezahlinfrastruktur von Apple. So wie früher bei der eigenen und persönlichen Computer-Hardware, damals war eh alles besser!
Ob Apple jetzt sofort jedes Feature öffnen sollte oder nicht, finde ich eine alberne Diskussion. Da gibt es viel größere Baustellen. … und bei meinem Samsung kann ich Kopfhörer auch ohne Pin pairen, mit schönen Animationen, auch jedes Mal wenn ich die Buds aus dem Case nehme.
Das Argument mit dem iPhone Mirroring verstehe ich nicht so richtig. Das Smartphone auf den Rechner zu spiegeln und dort zu nutzen kann doch jedes Android im Zusammenspiel mit Windows und der Link zu Windows App. Wo ist denn das das revolutionäre Feature, das Apple als Innovation unbedingt schützen muss, oder kann das iPhone Mirroring irgendwie mehr?
Es geht nicht darum, ob Apple mehr oder weniger kann, sondern es geht darum, dass die EU Apple zwingt, das selbe Feature auf ihrem eigenen Betriebssystem auch für andere Anbieter öffnen zu müssen.
Jedes „Android“ mag das vielleicht können, zumindest bei Samsung kann ich sagen, dass es (firmenseitig gesteuert, vermutlich) modellabhängig ist. Zuletzt führte mir ein Arbeitskollege diese Funktion mit seinem Galaxy Sxy vor. Wir steckten mein Galaxy A15 dran – nüscht…
Zur Frage KI und Wissenschaft/Emergenz/Kreativität ein Gedankenexperiment:
Würde eine KI zu Beginn des Jahres 1905, gefüttert mit dem Wissensstand von 1905, daraus auf die Relativitätstheorie kommen? Und wenn ja, würde ihr Benutzer, wenn er nicht gerade Albert Einstein heißt, im dem Moment überhaupt fähig sein zu erkennen, dass die KI gerade eine der umwälzendsten Entdeckungen der Wissenschaft ausgespuckt hat? Würde die KI wiederum einsehen, dass ihre Entdeckung so umwälzend ist, dass sie damit bis auf Weiteres auf Unverständnis stoßen wird, aber diese Entdeckung so wichtig ist, dass sie sich maximal ins Zeug legen muss und sollte, der Menschheit diese ihre Entdeckung fortan begreiflich zu machen?
Insb. die spezielle Relativitätstheorie beruht in der Art wie sie aufgestellt wurde und bis heute vermittelt wurde ja auch auf Gedankenexperimenten (Lichtuhr usw.). Das ist ein Erkenntnismodus, der nach meinem Dafürhalten für KI komplett egal und ein reines Hilfsmittel für Menschen ist. Ich kann mir vorstellen, dass eine KI zu denselben Schlüssel kommt, aber nicht über den Weg eines Gedankenexperiments, außer man baut eine KI, die für genau so etwas gedacht ist.
Zum Thema „Ist die Idee mit dem Register für psychisch Kranke nicht schon früher mal aufgekommen:
a) Natürlich ist man 1939 auch schon mal auf den Trichter gekommen:
„Mit Runderlass vom 9. Oktober 1939 der von Leonardo Conti geleiteten Abteilung IV des Reichsministeriums des Innern wurden die in Frage kommenden Heil- und Pflegeanstalten zur Benennung bestimmter Patienten mittels Meldebögen aufgefordert, mit detaillierten Fragen zu Krankheit und Arbeitsfähigkeit. In einem beiliegenden Merkblatt waren folgende Kriterien angegeben: [u.a. Schizophrenie, Demenz, „Schwachsinn“, „Kriminelle Geisterkranke]“ (https://de.wikipedia.org/wiki/Aktion_T4)
b) In jüngerer Vergangenheit war es allerdings der CDU-Sympathieträger (und Generalsekretär) Carsten Linnemann der das Anfang des Jahres vorgeschlagen hat (damals in Bezug auf den Weihnachtsmarkt-Anschlag): https://www.zdfheute.de/politik/deutschland/linnemann-register-psychisch-kranke-gewalttaeter-cdu-kommentar-100.html
Ergänzend:
Und – und ich bin mir sicher das war auch im Podcast Thema – das „Psychisch-Kranken-Gesetz“ war 2018 in Bayern schonmal ganz großes Thema.
https://de.wikipedia.org/wiki/Bayerisches_Psychisch-Kranken-Hilfe-Gesetz
„KI und Psychotherapie“ als Thema sind spannend. Mich würde freuen, wenn ihr auch das Thema „KI und Rechtspflege“ durchleuchtet, vielleicht auch mit einem Gast, der sich auskennt.
Meine Meinung zu Rechtsanwälten aber auch den Rechtspflegern an den Gerichten erodierte im Laufe der Zeit. Die Rechtsanwälte halten nur die Hand auf, fürs Nichtstun und die Gerichtsgestalten sind heillos überfordert und längst in den inneren Ruhestand entflüchtet. Da diese Typen eh nur „Gedichtauswendiglernen und Hofknicksmachen“ an den juristischen Fakultäten der Universitäten studiert haben, könnten Sprachgenies, wie KIs das doch allemal ersetzen.
Schade, dass unsere Politiker fast ausschließlich ehemalige Juristen sind. Die werden Ihresgleichen nicht hängen lassen.
– Bei Staatsanwaltschaften stapeln sich unerledigte Fälle
– 15.000 unerledigte Fälle bei der Staatsanwaltschaft Dortmund „Das darf sich ein Rechtsstaat nicht erlauben“
– Staatsanwaltschaften verzeichnen rekordverdächtig viele neue Verfahren
– Dutzende Mörder wegen nicht vollstreckter Haftbefehle auf freiem Fuß
– Richterbund schlägt Alarm: In NRW fehlen Staatsanwälte
Ich nehme mal an, dass Haftbefehle nicht vollstreckt werden, liegt weniger an den Jurist*innen. Denn, die Haftbefehle liegen ja vor.
Der Rest riecht eher nach einem eklatanten Personalmangel, und weniger nach einer schlechten Ausbildung oder Arbeitsmoral.
Derek Muller von Veritasium hat jüngst einen sehr guten Vortrag zum Thema AI in der Bildung gehalten. Zusammen auch mit der historischen Herleitung, was gute Bildung sei.
https://www.youtube.com/watch?v=0xS68sl2D70
Re: Re: AI
Ich denke die Chancen und Risiken sind hier gigantisch, ähnlich wie bei Kernspaltungen/-fusion.
Auch beim Thema Therapie gibt es IMO gigantische Potentiale. Wenn man sich ansieht wie viele Kranke keinen Platz finden (unabhängig davon ob es ein Match ist) und wie viele klinisch „noch“ gesunde ebenfalls davon profitieren könnten, gibt es schon mal riesig Bedarf (auch hier gerne mal an Länder denken die nicht Deutschland sind und bspw. Tabuthemen haben die sich „westliche“ nicht vorstellen können). Wie beim Autofahren ist hier schon was gewonnen, wenn die KI nur so gut wie ein durchschnittlicher Therapeut ist, alles darüber ist Bonus. Entscheidend ist hier aber IMO das es gemeinnützig oder zb. Von Krankenkassen entwickelt wird, profitiert darf hier keine Rolle spielen und es muss extrem gut getestet werden. Im Idealfall läuft es dann on-device und offline für die Privatsphäre. Das Risiko wäre wiederum die ultimative mind control AI zu füttern, die dann auch noch A-B Tests an Patienten durchführt um dann wirklich next level Propaganda zu verbreiten / zu irgendwelchen Dingen anstiftet (Regime change ganz ohne boots on the ground). Aber ich freu mich auf die Chancen!
Bezüglich der Messerattacke in Hamburg möchte die Stadt jetzt eine neue Strategie verfolgen, um den psychisch Kranken und Drogenabhängigen besser helfen zu können. Scheinbar war die Attacke einer der Auslöser, dass dieser Plan nun auch umgesetzt wird. Die Stadt scheint sich hiermit nun auch einzugestehen, dass die frühere „Law & Order“-Strategie nicht funktioniert hat – so viel zum Thema „Zentralregister“.
Die Zeit hat das gut zusammengefasst wie ich finde (übrigens ein super Feature der Zeit, dass man als Abonnent die Paywall-Artikel auch verschenken kann): https://www.zeit.de/hamburg/2025-06/suchtkranke-hamburg-repsoldstrasse-drob-inn-psychiatriezentrum-uke?freebie=9a5b014e
Für mich als Laien klingt das Konzept erst mal schlüssig, aber vielleicht kann Linus das ja besser einschätzen.
KI und Beethoven: empfehle diese Sendung des Deutschlandfunk (09.07.25): https://share.deutschlandradio.de/dlf-audiothek-audio-teilen.html?audio_id=dira_F53C273447A711F0723DB883034C2FA0
Die Pianistin Sophie Pacini und der Deutschlandfunk-Moderator Christoph Schmitz sprechen über Beethovens 3. Klavierkonzert, Sophie Pacini spielt dazu die entsprechenden Stellen. Im Anschluss gibt es das ganze Konzert. Wenn man das hört, versteht man glaube ich, warum eine KI Beethoven nicht glaubhaft kopieren kann. Eine Komposition – oder auch jedes andere Kunstwerk – setzt neben technischem Können vor allem Ausdruckswillen voraus, der wiederum Bewusstsein voraussetzt. Ohne diese bleibt es eben bei musikalischem Gebrabbel – egal wieviele Regeln man befolgt oder bricht – Und das will doch keiner hören; ich jedenfalls nicht … ;-)
Ich finde es sehr spannend, dass ihr den Einsatz von (generativer) KI unter der Ueberschrift einordnet, ob wir uns das „leisten“ wollen und es uns „das wert“ sei und ihr das vor allem mit einer (finanziellen) Wert-Einordnung besprecht, ob der Ertrag mit dem Einsatz der notwendigen Ressourcen in einem akzeptablen Verhaeltnis stehen wuerde. Auch im Verhaeltnis eines finanziellen bemessbaren „Mehrwerts“ im Verhaeltnis zu den eingesetzten Ressourcen. Ihr stellt das so dar, als bestuende die Einordnung solcher Systeme vor allem im Verhaeltnis der Aufwaende zu einem wirtschaftlichen(!) Mehrwert der Nutzenden.
Was mir bei der Einordnung fehlt, ist eine Einordnung, ob wir all das eigentlich _wollen_ sollten, begruendet mit einer Zielvorstellung, wo wir eigentlich perspektivisch landen wollen. Tim ordnet das ein in das Verhaeltnis zu Energie verbrauchenden Rechenzentren fuer Hyperscaler – da ist die Parallele eigentlich naheliegend.
Egal ob Hyperscaler oder generative KI-Systeme: Sie alle gruenden ihre Dominanz in der aktuellen politischen Debatte darauf, dass sie unter Ausnutzung des wirtschaftlichen Systems auf Vorarbeiten anderer eine Rolle einnehmen, die anderen sonst nicht zugaenglich sind. Eine einseitige Ausnutzung weniger Maechtiger auf dem Ruecken der Commons.
Hyperscaler nutzen in grossem Umfang Freie und Open-Source-Software und haben sich eine Nische geschaffen, in der sie aufbauend auf Vorarbeiten anderer einen Dienst anbieten koennen, den quasi kaum niemand in vergleichbarer Qualitaet wirtschaftlich anbieten kann. Da kann man jetzt lamentieren, dass man viel mehr auf EUPL und AGPL mit Share-Alike-Prinzipien haette setzen sollen, aber das uebersieht halt auch Skaleneffekte, und da sind wir nunmal.
Nicht viel anders sieht das bei den Produktionsmechanismen fuer generative KI-Systeme aus: Nur wenige, energie- und GPU-reiche Akteure koennen ueberhaupt die generativen KI-Systeme herstellen, die gerade Gegenstand einer krassen, politischen FOMO-Debatte sind, die Blockchain und Co. auf wirklich ueberraschende Weise in den Schatten stellt.
Das ist ein krasser Kontrast zu den Ideen hinter z.B. Freier Software, dass wir damit so ganz altmodisch die Methoden der Produktion vergesellschaften wollten: Du kannst dir halt deinen Editor selber herstellen. Du kannst auch sagen, puh, wer will denn selber Zeug kompilieren, sehe ich aus wie jemand, die/der so ein komisches Rolling-Release-Linux betreiben will, wo ich alles moegliche Zeug selbst kompilieren will, das ist mir zu Hardcore, ich haette gerne Pakete – kein Ding. Kannst du haben. Gibt’s genuegend Optionen fuer. Du _koenntest_ das aber selber herstellen.
Bei genAI hast du diese Option nicht. Du kannst Kompilate anpassen, aber das war es. Und man kann berechtigterweise schon hier fragen: „wollen wir das ueberhaupt?!“. Angefangen bei der Frage, ob wir angeblich(!) gesellschaftlich so wichtige Komponenten nur von wenigen Akteuren herstellbar machen wollen, bis hin zur Frage, ob es wuenschenswert waere, dass alle sich ihr konfabulierendes Wahrscheinlichtkeitsmodell selber kompilieren, wenn man die jetzt schon bestehende Last auf Web-Infrastrukturen gegenueber genAI-Scrapern betrachtet.
Wir haben derzeit faktisch ein Modell, in dem 1) ressourcenstarke Akteure einseitig allen Shit im Web aufsaugen und einhegen. Ganz klar mit fraglichem Business Model, aber das ist mal nur die rein kapitalistische Betrachtung. In dem aber auch 2) das bestehende Web unter all dem leidet, weil da ein paar dutzend Arschkrampen sagen „ja fickt euch einfach, ich hab VC-Geld ohne Ende und die Aussicht auf Gewinne, ich scrape euch zu Tode“. Wo es 3) _krasse_ FOMO gibt, dass man nun auch unbedingt „was mit (generativer) KI machen“ muesse. Ich wohnte neulich einem Workshop bei, wo das oeffentlichen Stellen uebergeholfen wurde, weil „eure »Gegner« benutzen ja auch (generative) »KI«, ihr wollt doch »Waffengleichheit« herstellen, oder?!“ Und in dem 4) laufend und staendig genAI als vermeintliche Loesung fuer Probleme vorgeschlagen wird, fuer die es seit teilweise erstaunlich langer Zeit viel sinnvollere, zielfuehrendere und ressourcentechnisch laecherlich leichtgewichtige Loesungen _gibt_. Und nicht zuletzt 5) Good Old Fashioned AI – also so ganz abgehangenes Zeug wie mit Prolog wirklich _verlaessliche_ Auskuenfte aus strukturierten Wissensbasen zu ziehen – komplett unter den Tisch faellt und man das dann lieber nochmal mit statistischer Unsicherheit neu erfindet.
Bitcoin ist vielleicht tatsaechlich der passende Vergleich. Die Frage in beiden Faellen sollte nicht sein „ist es uns das wert“ – sowohl bei Bitcoin als auch bei genAI gibt es derzeit genuegend Gluecksritter, die sagen „ja, ich kann da persoenlichen Gewinn draus ziehen“, und wenn die genuegend strukturelle Macht haben, beeinflussen die auch die Debatten darum. Bei genAI kann man immerhin noch argumentieren, dass vergleichsweise weig maechtige Menschen einen nachgeordneten Wert daraus ziehen koennen, Zum Beispiel, indem sie Boilerplate-Code generieren lassen, einordnen und dann ggf. wiederverwenden zu koennen. Da sind wir dann aber schon lustig nahe am Rant von Doug Engelbart, der sich schon in den 1960ern ueber den KI-Begriff aufgeregt hatte und meinte, man sollte das viel besser “Intellect Augmentation” nennen. So wie halt auch das beste Podcast-Mischpult keine Klaeranlage ist: Wenn der Input Scheisse ist, wird auch das bearbeitete Ergebnis nicht besser. Aber selbst diese Menschen, denen der Einsatz von genAI „etwas wert ist“ staerken damit den Eindruck, dass man hier unbedingt vorne mitspielen wolle. Das ist so ein bisschen wie mit so einem kleinen Gott, der staerker wird, wenn ihn nur genuegend viele Menschen verehren.
Die Frage sollte wirklich sein, welche Gesellschaft wir eigentlich wollen. Nicht, was sich im bestehenden System hinreichend „wertvoll“ ausbeuten laesst. Sondern was fuer uns als, ka, Nerd-Szene o.ae. eine Vision sein koennte, wie die 20er wirklich golden werden koennten, anstatt eines weiteren Gilded Age fuer IndustriemagnatInnen. Selbst wenn wir davon profitieren koennen, irgendwie schneller zu unserem Python-Script zu kommen: _Wollen wir_, dass das alles darauf aufbaut, dass einige wenige das Web ausnutzen, was eigentlich auch so aussehen koennte, dass es auf Augenhoehe allen dient?