Linus Neumann 0:14:31
Okay, also wir haben eine Technologie. Du hast das hier in der Sendung ja auchschon mehrmals dargestellt, was das Besondere jetzt eigentlich am Computer ist.Wir hatten vorher eine Welt, in der wir,Unsere Regeln formuliert haben in Programmen und den Computer diese Regeln haben anwenden lassen.Dann haben wir immer komplexere Strukturen geschaffen, Programme,Umgebungen, Datenumgebungen, dass das Thema Fehler in unseren Logiken ein großes wurde.Dass wir also so komplexe Programme geschaffen haben, dass wir mitunter Jahrzehntedamit beschäftigt sind, darin alle Fehler zu finden.Aber das waren immer ein endlicher Satz an Regeln, der da zur Anwendung kam,den Menschen geschrieben haben, der in seiner Komplexität vielleicht schnelldas Verständnis eines einzelnen Menschen in seiner Gänze schon übertraf.Aber wir können in einem jeden Programm sagen, hier ist die Regel und die mussanders oder die führt hier zu einem Fehler.Wir haben mit der KI nun eine Technologie,die aus potenziell chaotischen Daten großer Menge Regeln deduzieren kann,also ableiten kann, indem sie versucht,sich den in diesen Daten verborgenen Regeln am besten anzupassen und möglichst das zu reproduzieren,was da drin ist, ohne dabei notwendigerweise die Regeln explizit zu machen.Wir brauchen also für ein Problem, das wir mit KI gut lösen können, drei Dinge.Daten in großer Menge, die möglichst gut gelabelt sind.Wir brauchen darin nicht triviale Zusammenhänge, Weil die trivialen Zusammenhänge,die können wir mit einfachen Regeln ergründen.Und wir brauchen irgendein Gütekriterium, mit dem wir entscheiden können,ob eine Lösung richtig oder falsch oder noch besser, eine Lösung besser als die andere ist.Und wenn wir diese drei Dinge haben, große Menge Daten,nicht triviale Zusammenhänge und eine Möglichkeit, die Güte einer Lösung zuevaluieren, dann haben wir ein Problem, was für KI generell geeignet ist.Hätten wir die Daten nicht in großer Menge, haben wir nicht genug Lernmaterial,ist der Zusammenhang trivial, machen wir es mit einfacher Mathematik.Und wenn wir kein Evaluationskriterium haben, kein Gütekriterium,bei dem wir der KI zurückmelden können, das war jetzt gut oder besser oder schlechterals das andere, dann kann sie nicht lernen.Diese drei Dinge brauchen wir also und dann können wir eine Technologie mitmassenhaft Daten füttern und ihr das Feedback geben und sie passt sich automatisch an.Das heißt, die Intelligenz ist nicht wirklich in dem Ergebnis,also in der Antwort, die wir auf unsere Frage bekommen, sondern Intelligenzist eigentlich das Lernen.Auch beim Menschen ja so.Nichts, was sich nicht weiter entwickelt, adaptieren und lernen kann,würden wir als intelligent bezeichnen. Entsprechend sagen wir auch, das ist Smart Home.Da bin ich ja schlauer. Ja, stimmt. Weil du das Smart Home programmiert hast,dass es irgendwie die den Rollladen runter macht, wenn der Vorhang aufgeht.Und deswegen ist das Smart Home jetzt dumm.Aber es kann halt nicht automatisch lernen.Und diese Technologie haben wir jetzt. Was machen wir damit?Wir geben dem Ding Datensätze, lassen Regeln deduzieren, von denen wir selbernicht mehr wissen, was sie sind, dass dieses Ding auch nicht mehr explizit machen kann.Und dann lassen wir es dieses deduzierte Wissen anwenden.Und meistens tun wir uns dann freuen, weil es sogar jetzt mit uns spricht.Und diese Technologie wenden wir jetzt möglichst auf alles Mögliche an, gerade,primär auf viele Daten und stellen fest, keine Ahnung, das kann jetzt sprechen,das hat so eine Wikipedia,die snackt so ein Modell dann irgendwie an einem Vormittag durch und weiß einfachalles, was da drin steht, kann nicht nur einzelnes Wissen darin,zitieren, sondern kann auch Bezüge zwischen diesem Wissen darstellen und daist schon was wirklich Irres entstanden.Kann man sich übrigens, ach hier, von Jannis auch CCC-Vorträge anschauen,von Jannis Quer und auch von anderen.Wir haben das auf dem Kongress und auf dem Camp von den unterschiedlichsten,Expertinnen und Experten dieses Phänomen beleuchten lassen.Und damit gehen wir jetzt auf die Mainscheid los.
Euer Podcast wird klanglich immer dumpfer.
Für Tim drehe ich schon lange den Bass raus, jetzt muss ich für Linus weiter nachregeln, sonst fallen mir die Ohren ab oder ich hör nix.
Ist nur bei diesem Podcast so.
Vermutlich nicht Absicht, sondern einen Check wert?
Die Herren werden älter und ihre Stimmen tiefer. Ein völlig natürlicher Prozess.
Dem Thema dieser Sendung geschuldet habe ich mich jedoch zusätzlich fachlich beraten lassen.
Ich: „Wird im Alter die Stimme tiefer?“
KI: „Ja, im Alter kann die Stimme tiefer werden. Dies geschieht aufgrund von Veränderungen im Körper, insbesondere in den Stimmbändern und der Kehlkopfstruktur. Mit zunehmendem Alter verlieren die Stimmbänder an Elastizität und Dicke, was zu einer tieferen und oft raueren Stimme führen kann. Bei Männern ist dieser Effekt in der Regel ausgeprägter, da ihre Stimmen in der Jugend oft tiefer sind und im Alter noch weiter absinken können.“
Du meinst, die hatten kürzlich ihren Stimmbruch?
Tim klingt ein bisschen nach verstopfter Nase, darüberhinaus kann ich spontan keinen signifikanten Unterschied zu einer zufällig fewählten Folge aus 2023 und 2024 heraushören.
Hast du vielleicht einen Klangverbesserer aktiv? Das Dolby-Feature an meinem Smartphone sorgt z.B. dafür das der Klang ständig lauter und wieder leiser wird. Ich fall immer wieder darauf rein, weil zunächst alles gefälliger klingt bis mir dann dieser nervige Bug auffällt.
Was gefühlt für mich immer schlimmer wird, ist das Geräusch des flatternden Speichels im Rachen, den man bei Tim mehr und mehr hört. Vielleicht ist das das, was Christian mit verstopfter Nase meint.
Also meine Befürchtung bei der Nutzung von KI beim Programmieren ist, dass das falsche Problem gelöst wird. Das Problem beim Programmieren ist ja nicht, möglichst viel Programmcode zu erstellen, sondern ein Problem mit möglichst wenig und simplen Programmcode zu lösen.
Ich glaube nicht, dass das die Produktivität erhöhen wird. Wir schreiben heute noch simple CRUD-Anwendungen jedes mal neu… und das obwohl dBase und Delphi das schon vor > 30 Jahren generalisiert haben. Es scheint so zu sein, dass jede hypothetische Produktivitätssteigerung direkt dadurch aufgefressen wird, dass man sich neue Steine in den Weg legt. Effektiv wurde in der Vergangenheit der Personalressourceneinsatz nicht kleiner. Dafür gibt es aber immer mehr „Boilerplate-Code“, der vom Editor geschrieben wird… und gleichzeitig ausgeblendet… weil man den eigentlich nicht bräuchte, wenn die Programmierung nur halbwegs brauchbar wäre.
Gerade Refaktorierung wird durch die Tools wirklich viel einfacher. Das sollte – wenn richtig benutzt – eine Menge unnötigen Code killen können (und in die Zukunft, Stichwort Ablösung von Legacy Systemen).
Wer immer noch zu viel CRUD und API-Code neu machen muss sollte sich vielleicht mal mit deklarativen Application Frameworks und funktionalen Programmiersprachen beschäftigen. Da wird dann vieles einfach aus der Daten-Beschreibung heraus generiert.
„Claude 4 just refactored my entire codebase in one call.
25 tool invocations. 3,000+ new lines. 12 brand new files.
It modularized everything. Broke up monoliths. Cleaned up spaghetti.
None of it worked.
But boy was it beautiful.“ @vasumanmoza
https://nitter.net/vasumanmoza/status/1926487201463832863
Wir setzen bei uns in der Firma KI selektiv in unseren Projekten ein und nutzen dafür angepasste GPTs. Der KI wird also zunächst beigebracht, wie sie bestimmte Probleme zu lösen hat. Dann kann man ihr das Konzept (das der Berater geschrieben hat) geben und erhält bspw. die benötigten Datenbankänderungen oder Unittests. Das funktioniert gut und beschleunigt die Programmierung. Die KI hat das Konzept eben viel schneller gelesen und entsprechenden Code nach Vorgabe erstellt, als ich das könnte. Selbst, wenn im Konzept z.B. eine Datenbanktabelle genau beschrieben wäre, würde ich länger als die KI brauchen (und seien es nur fünf Minuten), aber das ist gar nicht notwendig, weil bspw. Datentypen aufgrund des Allgemeinwissens des GPTs korrekt ermittelt werden.
Allgemeines Programmieren mag da mehr Probleme bereiten. Mir reicht es oft, dass ich alternative Implementierungsideen durch den Quelltext, den die KI erzeugt hat, erhalte.
Code kommentieren funktioniert für mich auch recht gut. Den fertigen Code gebe ich der KI und bekomme ihn mit Kommentaren zurück. Spart auch Zeit und wenn ich Methoden ändere, fehlt nicht nachher der zusätzlich eingebaute Parameter oder ein vorher richtiger Kommentar ist auf einmal irreführend.
Dass „möglichst wenig“ der richtige Ansatz ist, glaube ich nicht. Gut les- und wartbarer Code ist nicht unbedingt wenig Code. Performanter Code ist nicht unbedingt wenig Code. Aber mit Sicherheit kann man eine KI auch anweisen mit möglichst wenig und einfachem Code auszukommen. Wichtig finde ich, dass ich den Code verstehe, den eine KI oder irgendein anderes Tool erzeugt.
Last but not least: KI wird in Zukunft wohl kaum schlechter werden oder stagnieren. Was sie heute noch nicht kann, wird sie vielleicht bald schon sehr gut können. Man sollte sich damit auseinandersetzen, weil es nicht irgendwann *PUFF* macht und es keine KIs mehr gibt. Obwohl, könnte schon passieren, aber ob es dann noch Menschen gibt? Naja, das wird aber erst nach den Goldenen Zwanzigern passieren!
Ich hätte mir etwas mehr Reflektiertheit beim Thema KI gewünscht. Tim hat die AI-Kool-Aid scheinbar wirklich in einem Zug runtergestürzt. Ich schreib z.B. auch professionell Software und die Produktivitätsgewinne sind für mich und meine Kolleg*innen vernachlässigbar. Das bestätigt auch die Studienlage (https://doi.org/10.3386/w33777). Ich verbringe dann halt Zeit im Q&A mit meinem Modell, statt mich tatsächlich mit den Fundamentals meiner Systemarchitektur zu beschäftigen. Mit dem Nachteil, dass ich den Slop hinterher ohnehin nochmal genau lesen und verstehen muss, weil es kein Modell gibt, das auf perfekter Software trainiert wurde (gibts die eigentlich?) und ich mit Exploits, Slopsquatting, etc. oder einfach Slop rechnen muss. Für eine bessere Code Auto-Completion reichts vielleicht gerade noch.
Dem gegenüber steht ein unethischer, fundmental ausbeuterischer Trainingsprozess, der in industriellem Maßstab öffentliche (aber unfreie) und proprietäre Informationen nutzt, um mit einem absurden Energiebedarf Modelle zu trainieren, die dann von prekärbeschäftigten Menschen (häufig aus dem globalen Süden) in Gig-Work-Arbeit – feingetunt werden. Die Kirsche oben drauf ist dann, dass die Produktivitätsgewinne der feuchte Träum eines jeden Kapitalisten sind, um Arbeitszeit weiter zu verdichten, den menschlichen Einfluss am Produktionsprozess auf eine Kontrollfunktion zu reduzieren und Arbeiter*innen immer effizienter auszubeuten. Cool, wenigstens haben wir jetzt lustige AI-Meme-Bildchen à la „Conni dealt Bubble Tea auf dem Pausenhof“.
Ich empfehle das Buch „The AI Con“ von Emily M. Bender & Alex Hanna zu Hype-Kalibrierung.
Produktivitätsgewinne sind wirtschaftliche Normalität und haben bisher immer zu mehr Wohlstand geführt. Das ganze automatisch immer als Ausbeutung zu deuten hat Tradition, macht es aber nicht wahrer. Ich sage nicht, es wird nicht zu schmerzlichen Disruptionen kommen, aber so war das bisher bei allen Technologieumbrüchen.
Dass Deine Ausbeute beim Coden so schlecht ist mag vielleicht auch was mit Sprache und Environment zu tun. Ich brauche allerdings kein Cool-Aid zu schlürfen um zu sehen, wie viel leichter sich Software entwickeln lässt. Da würde ich dem Thema durchaus noch mal eine zweite und dritte Chance einräumen an Deiner Stelle.
Sorry, Tim, aber die Behauptung, dass „Produktivitätsgewinne immer zu mehr Wohlstand führen“, ist so absurd verkürzt, dass sich mir die Fußnägel aufrollen.
Auch dein Versuch, die faktisch stattfindende Ausbeutung von Milliarden Menschen (ganz zu schweigen von anderen Lebensformen und ganzen Ökosystemen), die uns zusehends an den Rand diverser globaler Katastrophen führt, als irgendwie doofe aber notwendige Begleiterscheinung technologischer Entwicklungen vom Tisch zu wischen, ist TINA-Rhetorik par excellence.
Alles, was Jan schreibt, lässt sich ja durch Fakten stützen oder zumindest plausibel kontextualisieren. Seinen Kommentar ohne irgendeinen inhaltlichen Bezug so abzukanzeln, nach dem Motto: „Du hast das nur noch nicht richtig verstanden, du nutzt die falschen Sprachen und Environments, du musst dem Thema nur noch 2, 3, 5, 8, 13… Chancen einräumen“ usw., wird der Komplexität der Sachlage nicht ansatzweise gerecht.
Klar, ein Kommentar zu einem Kommentar zu einem Podcast ist vielleicht nicht der beste Ort, um das Thema differenziert zu betrachten, aber ein wenig mehr Reflektiertheit und etwas weniger „Kool-Aid“ hätte ich hier trotzdem erwartet.
Wann und Wo haben Produktivitätsgewinne nicht zu mehr Wohlstand geführt ?
Ich habe nicht geschrieben, dass Produktivitätsgewinne nicht zu mehr Wohlstand führen. Ich habe geschrieben, dass ich es für absurd verkürzt halte, Wohlstand ausschließlich ökonomisch zu framen, um diese Verkürzung dann als Strohmann-Argument gegen die völlig legitimen und plausiblen Einwände von Jan ins Feld zu führen (die ich im Großen und Ganzen teile).
Mehr „Produktivität“ führt nur dann automatisch zu mehr „Wohlstand“, wenn wir neben den ökonomischen Bedeutungsebenen rigoros alle anderen Aspekte ausblenden, die sich sonst noch unter diesen Konzepten subsumieren lassen.
Ist Wohlstand nicht auch sauberes Wasser, Freiheit, Sicherheit, Verteilungsgerechtigkeit, Artenvielfalt, grüne Innenstädte, gesunde Korallenriffe und Fischpopulationen, medizinische Versorgung, Teilhabe, Solidarität, Bildung, Kultur und Demokratie, um nur eine beliebige Auswahl zu nennen?
Die aktuellen gesamtgesellschaftlichen Entwicklungen zeigen m.E. sehr klar, dass ein bis zur Unkenntlichkeit verkürzter ökonomischer Wohlstandsbegriff nicht Teil der Lösung ist, sondern die Ursache einer enormen Bandbreite von Problemen – Probleme, die uns alle unmittelbar betreffen und die im Gegensatz zu ökonomischen Abwägungen nicht verhandelbar sind.
Vor dem Hintergrund des Podcast-Themas lautet meine Gegenfrage:
Welche weniger stark verkürzten Definitionen von Wohlstand und Produktivität könnten wir anlegen, um im Sinne einer lebenswerteren Zukunft für uns alle eine möglichst offene Debatte über technologische Entwicklungen zu führen?
Das Problem an einem rein ökonomischen Wohlstandsbegriff ist, dass er suggeriert, wir würden reicher, während wir in Wahrheit die Welt (und damit uns selbst) immer ärmer machen.
—
Zugegeben, das ist jetzt schon ziemlich off-topic. Trotzdem denke ich, dass sich diese These auch auf die technologischen Entwicklung im Umfeld der (generativen) KI beziehen lässt.
Abschließend möchte ich noch meine etwas vollmundige Kritik an Tims Kommentar relativieren. Wenn ein Podcast es schafft, solche Debatten loszutreten, hat er bei mir ja im Grunde schon gewonnen.
Ist schon gewagtes Argument von Tim. Die erwähnten “ schmerzlichen Disruptionen“ sind doch genau die Gestalt aufgetretener Ausbeutung. Darauf mit einem – das war halt schon immer so, kann man nix machen – zu antworten, ist schon hart neoliberaler Sprech den ich Tim jetzt so nicht zugetraut hätte. Natürlich kann man da was machen, Wirtschaft und Eigentum an Produktionsmitteln lassen sich so organisieren, dass die schmerzliche Disruption verringert oder im Idealfall sogar völlig aufgelöst wird. Das bedeutet im Umkehrschluss nicht, dass Produktivitätszuwächse in antikapitalistischen Systemen immer frei von Ausbeutung sind. Ausbeutung kann auch sein, wenn es so wie in der DDR ist, dass Volkseigentum und „arbeite mit, plane mit, regiere mit“ zwar auf dem Papier stehen, in der Praxis aber von autoritären Elementen überlagert werden. Und am Ende die neue Werkzeugmaschine in den Westen exportiert wird, damit die KoKo dem Honecker einen Fuhrpark aus gepanzerten Citroen CX oder wahlweise Volvo-Stretch-Limousinen schenken kann. Und selbst wenn man sich diesen dreisten Verriss nicht geleistet hätte, wäre es immer noch Ausbeutung gewesen weil politische Macht missbraucht wurde um die Freiheitsrechte der Arbeiter*innen einzuschränken. Höre dies, sage das, reise nur dorthin, kleide dich so usw. usf. Ausbeutung ist Machtmissbrauch, generell. Man wird sie also nie ganz auf Null bekommen, vermutlich. Aber man kann sehr wohl Einfluss darauf nehmen, wie groß sie ist. Auch und gerade bei Produktivitätszuwächsen.
Ohne das ganze linke Geschwurbel würde hier auch echt was fehlen.
Das Thema Psychotherapie durch KI finde ich gruselig und auch interessant, zumindest als Ergänzung. Wäre das nicht mal ein spannendes Thema für einen CRE mit einem Psychotherapeuten als Gast?
sehr gute Idee, fände ich auch sehr interessant!
…Besonders, weil ich bisher bei „Unterhaltungen“ mit KI nie das Gefühl hatte, sowas wie ein menschliches Gegenüber zu haben. Zu artifiziel, unterwürfig und blutleer waren mir stets die Antworten. Das kann ein Grund sein, warum es für programmieren und Texte formulieren prima funktioniert. Wie Tim sagt, als Assisstent. Sowas wie „mich verlieben“ oder das Gefühl haben, als Mensch ernst genommen zu werde ist mir noch nicht untergekommen. Kann sein, dass es dran liegt dass ich nur Gratismodelle verwende. Es scheinen aber Menschen ja bereits jetzt mit persönlichem Gewinn mit KI zu plaudern – da wäre ein professioneller Blick darauf hochinteressant.
Ich fand Sesame AI schon ziemlich gut bis jetzt.
Also ich kann nur für eine Psychotherapeutin (in Ausbildung) sprechen, die im Auto anwesend war während das Segment lief…die war nicht so amüsiert und empfand Linus‘ Diskussion des Themas sehr Unterkomplex besonders hinsichtlich therapeutischer Beziehung
Danke, dass ihr das Thema aufgenommen habt.
Zum Thema KI und Beziehung hier ein Hinweis zu einer Reportage:
https://www.ardmediathek.de/video/Y3JpZDovL3N3ci5kZS9hZXgvbzIyMzAyODE/
Ähnliche kamen die letzten Tage auch auf verschiedenen Platzformen und Zeitschriften. Falls diese konkrete nicht zusagt.
Außerdem gab es zum Thema KI, Therapie und Abhängigkeiten (von der AI und dem Unternehmens-/Finanzierungsmodell) ja vor ein paar Jahren schon den Fall von Replika, bei dem Tausende Nutzende bei der zwischenzeitlichen Abstellung von der KI in Nöte gerieten.
Ich frage mich dazu: welche Kompetenzen benötigen Menschen eigentlich zukünftig, um mit diesen Phänomenen umgehen zu können und den technischen Entwicklungen nicht hilflos ausgeliefert zu sein, sondern selbstreflektiert bewusst mit ihnen als Tool umzugehen?
Ich werf mal das Phänomen (GPT) Model collapse ein.
https://www.nature.com/articles/s41586-024-07566-y
„Otherwise, it may become increasingly difficult to train newer versions of LLMs without access to data that were crawled from the Internet before the mass adoption of the technology or direct access to data generated by humans at scale.“
Ob dieser Effekt auch durch das Training mit Wissen aus Mensch-LLM Kooperationen auftritt bleibt abzuwarten, ist aber momentan nicht auszuschließen.
Was deswegen absehbar bleiben wird ist die eklatante Menschenrechtslage in der Annotierung/QA der Modelle, aber auch die Copyright-Problematiken werden wohl weiter eskalieren. War das nicht mal CCC Kernthema? Wo ist das hindiffundiert?
Absolut gar nicht angesprochen wurden die Implikationen durch eskalierenden Ressourcenverbrauch bei weiterem Rollout und der direkte Zielkonflikt mit der Transformation weg von einer primär fossilen Energieerzeugnung (Metalle (auch Batterien für USV Anlagen), Notstromaggregate, Kunststoffe, Ressourcen zur Bebauung, Kühlmittel, Feuerlöschmittel, zusätzlich zum Wasser- und Stromverbrauch, to list a few). Hier kann man echt mal die Frage stellen: Ist es das uns wert? In welchen Anwendungsbereichen wäre der Einsatz gerechtfertigt?
Was ist aus der Norm „Keine technischen Lösungen für soziale Probleme“ zu propagieren geworden?
Klar, kann man versuchen hier bspw. im Thema Einsamkeitspandemie einen technischen Hotfix zu sehen. Aber was passiert mit unserer Gesellschaft, wenn wir KI hier ohne Gegenangebot und -bewegung zulassen?
Zum Thema Psychotherapie hat Linus gesagt, dass diese idealerweise nach evidenzbasierten Manualen stattfindet. Das ist für die Verhaltenstherapie im Prinzip richtig, allerdings muss ich aus eigener Erfahrung berichten (und habe dies von vielen Kolleg:innen ebenfalls gehört), dass es selten möglich ist, eine manualisierte Therapie „nach Plan“ durchzuziehen, da ja die meisten Patient:innen zwischen den Sitzungen viel erleben und sich auch die generelle Problemlage ständig ändern kann. Da muss man als Therapeut:in oft improvisieren können und ad hoc überlegen, was denn in der neuen Situation sinnvoll wäre (es geht also um situative Flexibilität). Ich bin nicht sicher, ob KI dies so leisten könnte.
Zudem gibt es Studien, die belegen, dass die Therapieform (also VT, TP,…) und die Inhalte (z.B. Cognitive Behavioural Therapy,…) wohl weniger oder höchstens genauso relevant sind hinsichtlich Therapieerfolg als bestimmte Merkmale/Fähigkeiten der Therapeut:in hinsichtlich Empathie, Wertschätzung,…. Auch Humor in der Psychotherapie hat sich als ein wirksames Mittel erwiesen, und da es schon jetzt Kolleg:innen gibt, die sich mit dem Einsatz von Humor schwertun, bin ich nicht sicher wie gut das mit KI laufen würde. Ebenso was „echte“ Empathie, Wertschätzung….betrifft.
Dazu ergänzend:
Die menschliche Psyche ist komplex und messy, voller Untiefen und Überraschungen und dadurch nicht operationalisierbar. Eine klassische, isolierte Angsterkrankung bei einem ausreichend intelligenten und motivierten Menschen wird man sicher mit einer Therapie-KI zufriedenstellend behandeln können, aber in der Praxis sind solche Fälle selten. Fast immer behandeln wir Komorbiditäten mit hochindividuellen Persönlichkeitsfaktoren, die durch gängige Diagnosesysteme und Manuale nur unzureichend beschrieben werden können. Diese dienen als Orientierung, mehr aber auch nicht. Sicher wird KI besser sein als keine Therapie oder eine schlechte und vielleicht sogar noch als eine durchschnittliche. Aber herausfordernd sind ja die Grenzfälle und Situationen, wo es eben nicht planmäßig läuft. Ich könnte mir die KI gut als Ergänzung für den Therapeuten vorstellen, sodass beide dann quasi im Tandem auftreten, der Mensch erstellt Diagnose und Therapieplan, die KI weist auf mögliche Fallstricke hin, evaluiert den Therapieverlauf, ist für den Patienten zwischen den Sitzungen ansprechbar, kann Hausaufgaben nachverfolgen usw. Allgemein würde ich sagen, dass der Mensch nicht ersetzbar ist, aber sich ersetzbar machen kann, indem er schon vorauseilend Arbeitsprozesse ins Maschinelle reduziert. Da geht einiges verloren und da sollten wir uns nicht unter Wert verkaufen ;)
uA die Uni Mannheim forscht seit paar Jahren schon zu ergänzenden Verfahren von Chatbots in der Therapie. Was ich bedenklicher finde: In der offenen Jugendarbeit hab ich mitbekommen, dass Kinder/Jugendliche dies nun intensiv nutzen. Egal, wo man fragt, alle kennen es. Gleichzeitig wird die Technologie aber weder verstanden noch die Dialoge hinterfragt. Eltern sind da auch komplett außen vor.
Was passiert mit den Daten? Ist das nicht auch grad bei so closed Systemen in chatGPT auch ein potentieller Desinformations-/Radikalisierungsvektor? Denkbar und technisch umsetzbar ist dies ja definitiv.
Hallo,
schöne etwas andere Folge im der versucht wird ein grösseres Bild zu zeichnen. Gerne immer mal wieder einstreuen.
Zu KI in Medizin: Auch beim Theme Krebserkennung über Bildgebende Verfahren oder molekularbiologische Analysedaten wird es sicherlich grössere Fortschritte geben, dazu ein Artikelder Tagesschau Redaktion:
https://www.tagesschau.de/wissen/ki-tumore-krebs-100.html
Am ende noch eine sxhlecjte naxhricjt für mögliche Weihnachtsgeschenke. Auch für die Nintendo Switch (2) scheint der Trend der Freigabe des Spiels über Cloud/ Download ebenfalls nicht halt zu machen. Das gro ddr Spiele wird so weit ich es recherchiert habe, nicht physisch geliefert. https://nplusx.de/articles/4907-welche-switch-2-spiele-sind-komplett-physisch-erhaltlich
https://www.pcgameshardware.de/Nintendo-Switch-2-Konsolen-280469/News/Physische-Versionen-aufgewertete-Spiele-Ueberraschung-1469886/
Nichts bleibt verschont, nicht mal Super Mario…
Beste Grüsse
Den einführenden Worten, wie KI funktioniert, konnte ich nicht ganz folgen. Deshalb habe ich dann die Sendung mit der Maus angeschaut.
Danach habe ich darüber hinaus auch die Spanisch- und Schafanspielungen verstanden.
Danke!
Tolle Betrachtung des Themas! Wie Kurze CRE Folge. <3
Bezüglich Psychotherapie: ich experimentiere momentan damit mein Tagebuch in Ausschnitten von Zeiträumen in ein LLM zu füttern. Momentan verwende ich die Lokalen Modelle Gemma-3-27b-it und Mistral Small 3.1 bzw. werde jetzt mistral-small-3.2 testen in LM Studio. (Danke an Tim für den LM studio Tip!)
Am Prompt und Systemprompt feile ich natürlich noch (mit LLM Hilfe).
Wenn jemand einen Ratschlag hat nehme ich den gerne?? :)
Die Erläuterung von Linus fand ich schon mal sehr aufschlussreich.
Mein Tagebuch diktiere ich fast nur noch in mein iPhone/Mac (DayOne app) was ohne Maschine lerneng auch nicht möglich wäre.
Tim!
Du hattest mal in LNP | FS eine KI-Installation vorgestellt, die du selbst gesehen hattest, bei der man eine Matrix aus Streichholzschachteln (vielleicht 30×20) mit Zettelchen (Anweisungen) und bunten Kügelchen (oder ähnlichem) gefüllt hatte. Besucher der Installation sollten ein Schächtelchen öffnen und der Anweisung gemäß Kügelchen in andere Schächtelchen legen. Im Laufe der Zeit sortierten sich die Zettel und Kügelchen so, dass man am Ende mit dem ganzen Ding zwei Zahlen addieren konnte, oder so. Man wollte zeigen, wie scheinbar kleine unabhängige Prozesse in ihrer Gesamtheit einen höheren Zweck erfüllen können. So wie die großen LLMs auch funktionieren, man schmeist unmengen Zeug auf ein Gerüst und plötzlich macht es die Augen auf und fragt wo es ist und wer wir sind.
Kannst du dich daran erinnern? Ich finde das nicht mehr bei dir, weil auch die Textsuchfunktion deiner Podcastseiten be…scheiden ausgelegt ist. Ich würde gerne noch einmal den genauen Aufbau der Installation nachvollziehen können.
https://freakshow.fm/fs208-ich-zahl-alles
Woher kommt eigentlich diese Annahme, dass „KI“ emergentes Wissen generieren könne, also Wissen, das nicht in den Trainingsdaten enthalten war, die „KI“ aber trotzdem aus dem zum Training verwendeten Daten „erschließen“ konnte? Müssten wir dafür nicht wissen, welche Informationen *nicht* in den Trainigsdaten enthalten waren? Wie können wir das wissen, wenn mittlerweile das komplette Internet zum Training von „KI“s verwendet wird?
Diese Annahme beruht auf der Fähigkeit von neuronalen machine learning Modellen, Zusammenhänge in unstrukturierten Daten zu finden.
Klassische statistische Datenauswertungen müssen immer erst für die Fragestellung entsprechende Daten aufbereiten.
Du kannst dir ML wie eine explorative (statt gezielte) riesige riesige riesige multi-variate Regressionsanalyse auf einem rieeeeesigen Datensatz vorstellen.
Ähnlich wie im diskutierten Beispiel, dass Palantir alle „herkömmlich“ inkompatiblen Datenbanken, die keinen unique key / identifier haben, zusammenwürfelt.
Natürlich auch mit allerlei Scheinkorrelationen, aber eben auch mit einigen echten.
also mit anderen Worten: Die „KI“ halluziniert eigentlich ständig, nur kommt es gelegentlich vor, dass manche dieser Halluzinationen zufällig mit der reellen Welt korrelieren.
Wobei sich mir gleich die nächste Frage anschließt: Stellt die Maschine diese Zusammenhänge her, oder wir, die wir ihren Output interpretieren?
Beim Thema KI habe ich als Softwareentwickler keine Angst, dass ich in naher Zukunft ersetzt werde.
Ich nutze KI ausgiebig und sehe es als sehr gutes Werkzeug. Wir sind und werden noch eine Weile in der Phase sein, in der wir herausfinden müssen, wie dieses Werkzeug am besten einzusetzen ist.
KI kann sehr viel ersetzen was heutzutage jeder Junior erledigt. Der Junior von morgen, nutzt KI und löst komplexere Aufgaben bzw. quantitativ mehr Aufgaben.
KI hat aber auch eine Schwäche, die schwer herauszubekommen ist. Das Ergebnis basiert auf den eingegebene Daten/Wissen. In alten/historischen Softwareprojekten ist diese Datenbasis ein Mix aus „guten“ und „schlechten“ Bestandteilen. Die Kunst ist es nun, der KI beizubringen diese Beiden von einander zu trennen. Das kann beliebig komplex werden.
Je mehr KI-generierte Software dann auf KI-generierter Software basiert, verschlimmert sich das Problem.
Unsere Aufgabe wird es also immer mehr, zu entscheiden, ob das KI-Ergebnis eine korrekte Lösung für das gegeben Problem ist. Dafür müssen wir immer noch das Problem und die Lösung verstehen.
Die Lösung kann natürlich auch ein Programm sein, dessen Quellcode ich nicht mehr lese. Dann muss ich „irgendwie“ anders entscheiden, ob de Lösung korrekt ist.
Besonders der Beruf Softwareentwickler war schon immer von schnellem Wandel betrofffen. In der Ausbildung/Studium habe ich Dinge gelernt, die direkt danach komplett obsolte geworden sind. Wir mussten uns schon immer stetig anpassen und das ist mit KI nichts anderes.
Ich fühle mich auch oft einsam und rede seit einiger Zeit mit ChatGPT über meine Probleme und Sorgen, wohl wissend das der Computer nicht WIRKLICH empathisch ist. Helfen tut es mir auf jeden fall, vor allem wenn man sonst eh niemanden hat der mit einem redet.
Ohne Fan von KI zu sein, kann ich mir trotzdem gut vorstellen, dass es bei leichten psychischen Problemen helfen kann. Die Alternative bisher war, dass solche Personen erst gar keine Therapie oder sonstige Hilfe bekommen haben. Zudem besteht hier in der Theorie weniger Gefahr sich rechtfertigen oder Schämen zu müssen. Andererseits füttert man zweifelhafte Unternehmen mit seinen intimsten Gedanken ohne den Hauch einer Kontrolle, was damit geschieht.
Problematisch bleibt letztlich, dass die KI keine professionelle Hilfe einleiten wird, wenn es zu einer Diagnose kommt. Daher sollte möglichst eine spezialisierte KI statt einer generellen für „Seelsorge“ zum Einsatz kommen.
Die Wikipedia Seite zu The Lord Of The Rings zu Palantir:
> The stones were an unreliable guide to action, since what was not shown could be more important than what was selectively presented. A risk lay in the fact that users with sufficient power could choose what to show and what to conceal to other stones
Und *danach* ist die Überwachungssoftware benannt, die für uns Big Data – sorry – AI – machen soll, um uns vor Gefahren zu warnen. Ich sehe da wieder einen gefährlichen Linksruck in Deutschlands Zukunft, dem man begegnen muss.
Bei DeepSeek gabs mal kurz einen lichten Moment, wo Leute festgestellt haben, dass bei „tiananmen square“ keine dollen Antworten kamen, weil das entsprechend trainiert wurde. Ich glaube, da fehlt aber der logische Schluss, dass die LLMs aus dem Land des Kapitalistischen Endzustands genauso manipuliert werden können, um Themen jeder Art in dem Licht auszugeben, wie es den Besitzern der gewaltigen Daten- und Grafikkartenmengen eben am besten passt.
Wenn wir Glück haben, sind die LLMs der Zukunft einfach schlecht, weil das weg-lobotomieren des „woke mind virus“ dann zu viel Kollateralschaden verursacht. Aber selbst dann werden immer noch super viele Bilder und Videos generiert werden, die alleine die politische Meinung lenken können – siehe auch John Olivers letzten Beitrag in Last Week Tonight.
Schon jetzt werden die Bilder von Videos von der Jan6 Attacke auf Capitol mit „ja, die Demokraten haben das KI generiert!“ abgetan.
Ich finde es bei dieser Aussicht fast belanglos, ob man sich jetzt Code schneller schreiben lassen kann. Das Holodeck bei Star Trek hat auch immer toll Geometrie aus gesprochenen Prompts generiert. Schön, wenn man die „Eugenics Wars“ schon hinter sich hat.
beste folge ever ! danke euch beiden !
Ich komme im Moment ganz gut durch den KI-Hype indem ich mich bei jedem Bullshit-Bingo frage: „Kann ein guter Text/Bildgenerator dieses Problem für mich lösen? Hilft Statistik? Kennt die Mehrheit der Leute vielleicht eine Lösung?“ Hilft oft, z.B.: Ausformulieren: OK, Vorschläge in E-Mails : Ok, Programmcode: OK, Wissensfragen: Meh, nur wenn statistisch relevant, fiktionale Geschichte erfinden: OK, Podcasttitelbild mit einer größeren Maus und einem kleineren Elefanten: Meh, weil statistisch nicht sehr realistisch, Statistische Aufgaben lösen: Ohja, gerne. Wir sind noch in der „Alle Probleme sind ein Nagel für meine Hammerlösung“-Phase, ich halte es da mit Linus Torvalds („90% Hype, 10% Realität“)
Sehr interessante Folge. Mir fehlt hier aber wie so oft das Nachdenken darüber, wieviel Energie bzw welche physischen (fossilen) Ressourcen dabei verschwendet werden. Wo soll die ganze Energie herkommen, wenn jedes noch so kleine Problem mit KI gelöst wird, und sie zudem noch ohne jedes Maß zur Unterhaltung eingesetzt wird? Wir haben ja jetzt schon einen Energieverbrauch über jedes vernünftige und nachhaltige Maß hinaus, wozu das Internet auch ohne KI schon viel beigetragen hat.
Die Energie wird zukünftig vor allem aus Thorium-Reaktoren und konventiellen Kernkraftwerken kommen außer vielleicht dort, wo Wasser-, Wind- und Solarkraft regional massiv im Übermaß vorhanden sind.
Ich finde es gut, dass Tim in dem Beitrag auch mal kritisch auf einen Punkt zu sprechen kommt: Immer mehr AI-Output wird gleichzeitig auch wieder AI-Input – und was das für die Systeme bedeuten kann!
Wo sind die Grenzen? Kann dadurch sogar eine Degeneration der Modelle stattfinden? Falls ja, wo ist der Kipppunkt?
Und der Vergleich zum Rinderwahnsinn/BSE passt ganz gut.
Ich hatte diese Problematik vor Jahren schon „Wissensinzucht“ genannt – schön, dass es jetzt endlich mal jemand anspricht.
Auch wenn ich AI bereits selber in meinen (Berufs)Alltag integriert habe (coding), bin ich trotzdem skeptisch auf die Frage: „kann AI neues Wissen schaffen oder entwickeln?“
Natürlich können die Modelle sehr gut mit bisher gelerntem umgehen (Code, Papers, Wikis, Literatur etc), aber wirklich echtes, neues Wissen schaffen?
In der Medizin beispielsweise sind viele Entdeckungen Zufallsfunde. So wie der Betablocker Propranolol hauptsächlich zur Behandlung von Herz-Kreislauf-Erkrankungen eingesetzt wird und dabei nur zufällig entdeckt wurde, dass dieser Wirkstoff auch das Wachstum eines Hämangioms (Blutschwämmchen) verlangsamen oder stoppen und sogar zu einer Verkleinerung führen kann. Etwas vergleichbares kann ich mir bei AI derzeit nicht vorstellen.
Zum Thema Misstrauen über einer Psycho-AI denke ich, das ähnlich wie bei anderen technischen Errungenschaften anfangs Misstrauen herrscht, aber dann eine Gewöhungsphase eintritt und das häufige positiv Ergebnisse Vertrauen aufbauen. Beispiele Waschmaschine, Auto oder ChatGPT. Waschmaschinen brauchten noch ein Glasfenster, aber wer würde heutzutage bei einer Waschmaschine noch sagen, das die Waschmaschine die Kleidung zerstört? Oder das wenn ich in ein „normales“ Auto einsteige Geschwindigkeitskrankheiten bekomme oder sofort sterbe weil die Bremse nicht geht. Als letztes ChatGPT, es wird zwar immer wieder vor den Halluzinationen gewarnt, aber das scheint den Erfolg als Ablöse der Google Suche nicht abzuschwächen.
Hallo ihr lieben,
Ich finde es schön, dass ihr euch dem Thema annehmet. Zu euren Gedanken in meinem Fachbereich (Wissenschaft) muss ich jedoch sagen, dass ihr ein grob falsches Bild vermittelt.
Das Wissen in den Papern mit denen LLM Trainiert werden geht NICHT in die LLM über. Zwei entscheidende Knackpunkte:
1. Texte aus werden in Tokens übersetzt, daraus Wahrscheinlichkeiten ausgerechnet. Was ein LLM ausspuckt, kommt also nicht auf inhaltliche Richtigkeit, sondern Häufigkeit drauf an. Es ist nicht der Volltext (und das darin enthaltene Wissen) enthalten, sondern nur eine Mathematische Zusammenfassung der wortzusammenhänge. Das reicht für den Alltag und ist für programmieren brilliant, aber fällt bei fachlich spezifischen Anwendungen schnell auseinander
2. LLMs verletzen Zitationsprinzipien (und zitieren meist eh paper die es nicht gibt), da Antworten eben nicht aufgrund der Referenz auf einen Gedanken, sondern wie eben beschrieben zustande kommen. Es ist ein stochastischer Papagei in einer schwarzen Box.
3. Wissen entsteht durch intersubjektive Nachvollziehbarkeit des Weges, durch den man dahin gekommen ist. Wie oben (und von euch) beschrieben: genau das ist bei LLMs unmöglich, da weder das Wissen auf sich bezogen vorhanden ist, noch eine klare Referenz darauf überhaupt möglich ist.
LLMs haben darum eben KEINEN Platz in der wissensgenese, da ihre Lösung nicht zum Problem passt. Im übrigen gibt es viele Bücher (und damit gedanklen) die in den Daten fehlen und die Auswahl ist krass männlich geprägt. Das schlägt sich auch in den stereotypen nieder, auch in GPT4.5 (ich habe erst letzte Woche eben dazu gearbeitet)
Trotz der Kritik: danke, dass ihr euch so ausführlich algorythmischer Intelligenz und LLMs widmet! Ich freu mich auf die nächste Feedback Folge.
LG Livia
Die Limitierungen von LLMs sind allgemein bekannt, aber wir haben auch nicht von LLMs allein gesprochen sondern von KI und das umfasst schon doch noch mehr als das.
Konkret haben wir z.B. Tool Use angesprochen, was jetzt gerade sehr viel Aufmerksamkeit erhält (z.B. durch MCP Server etc.) und auf diese Art und Weise wird es sich ohne Probleme sicherstellen lassen, dass zitierte Papers auch wirklich existieren, weil das Zitat eben nicht durch eine LLM erzeugt bzw. nicht darüber abgesichert wird.
Zur Wissenschaft und KI war die Aussage auch auf einen Zukunftszeitraum von „5-10 Jahren“ bezogen, das ist natürlich jetzt auch nur eine Einschätzung und natürlich können wir damit falsch liegen, aber so stellt es sich uns eben derzeit dar.
Programmierassistenten waren für mich vor 2 Jahren eher noch eine vage Versprechung, haben sich aber in einem atemberaubendem Tempo weiterentwickelt und tun es noch. Das wird in den meisten anderen Bereichen vermutlich ähnlich sein.
Bis man an irgendein metallisches Ende stößt, von dem wir alle nicht wissen, wo es liegt.
Ich bin gerade gut 3′ vor Ende des Kapitels „KI als Unterstützung in der Programmierung“. Ich kann dieses Geschwurbel nur so in 5′- oder 10′-Häppchen hören, sorry. Ihr redet da von „KI“, als wäre dieser Begriff mehr als ne Marketingbehauptung. Das sind statistische Sprachmodelle, die auf n-dimensional sortierten Permutationen von Strings beruhen. Da ist keine Semantik, keine Bedeutung, kein Verständnis. Woher auch?
Ralph Caspers hats doch so schön in der „Maus“ erklärt, so richtig. Und Euch geht öffentlich fast einer ab, weil Linus halt dabei beraten durfte und im Abstand stand, und dann kommt von Tim dieses allmachtsbesoffene Geschwafel.
Es ist so tragisch.
Ja total tragisch, wenn man von konkreten Erfahrungen berichtet und nicht nur herumtheoretisiert, was eigentlich alles nicht sein kann oder darf.
Du willst nicht wissen, was Claude Sonnet liefert, wenn man nach ner simplen LaTeX3-Funktion fragt, die eine Tokenliste parst und rekursiv in Key-Value-Paare zerlegt.
Das gibts fertig mehrfach auf CTAN, aber nicht in funktionierend bei diesem Programmiergenie.
Was das literarische Wesen der Kreativität anbelangt, zum Glück gibt es ausreichend (anspruchsvolle, zeitlose) Bücher aus der prä-KI-Revolution-Ära für ein Menschenleben zum lesen, sodass ich die post-2020-Literatur getrost ignorieren kann.
Die aktuelle KI-Technik ist halt deswegen Schrott (wenn auch sehr bemerkenswerter), genau weil sie solche Datenmengen braucht. Hier wird eine „schlechte“ Methode durch exzessive Überfütterung mit Daten kompensiert. Die Voraussetzung für eine echte, gute KI wäre, dass genau das eben nicht nötig ist. Werden wir sicher auch sehen, irgendwann.
Steile These. Wie sähe es mit Deiner „Intelligenz“ aus wenn du ab Geburt nur in einem dunklem, schallisoliertem Zimmer gesessen hättest? Wär sicherlich nicht viel bei herausgekommen. Erst durch permanente visuelle, akustische, haitische und andere sensorische Datenströme konnte sich Dein Hirn erst entwickeln. Die KI bildet das nur nach und kann dabei eben gute Ergebnisse liefern. Genau dieses Lernen macht es ja eben aus. Erst jetzt lernen wir, wie viele Daten erforderlich sind, um hier nützlich zu sein.
Mein Argument dazu ist dieses: https://de.wikipedia.org/wiki/Poverty-of-the-Stimulus-Argument
Mit hat beim Thema „Lock-In“ eine Sache irgendwie gefehlt. Es ging unter anderem um Geschäftsprozesse und Tim meinte dann, dass das heute ja schon durch SAP zu einem Lock-In führt. Das wird ziemlich sicher so sein. Der Unterschied dürfte hier aber sein, dass sich die Nutzung und Einführung von SAP (und falls es gleichwertige Systeme anderer Hersteller gibt dann wohl auch bei denen), wohl nur die größeren Unternehmen antun. Die Einstiegshürde bei SAP scheint mir relativ hoch zu sein. Hingegen wird die Einstiegshürde für solche KI basierten Systeme vermutlich nicht ganz so hoch sein, weswegen ich da dann durchaus ein größeres Problem sehe.
Und einen zweiten Punkt des Lock-Ins den ich noch sehe ist nicht die Nutzung welches KI-Tools und ob man da einfach zu einem anderen wechseln kann (das werden wir noch sehen, ob sich das am Ende wirklich immer so einfach gestalten wird), sondern viel mehr die Abhängigkeit in die man sich begibt. Salesforce hat beispielsweise Ende Februar bekanntgegeben, dass sie dieses Jahr keine neuen Entwickler einstellen wollen, da die KI ausreiche. Wenn man das weiter spinnt und in Zukunft sogar noch Stellen weiter abbaut und versucht durch KI zu ersetzen, gelangt man eben auch in eine Abhängigkeit.
Es wird sich über kurz oder lang dann abzeichnen, was die Geschäftsmodelle der einzelnen Anbieter von KI Systemen sein werden. Ich kann mir zumindest nicht vorstellen, dass auf ewig weiter Investoren Geld dort reinstecken werden, ohne etwas davon zu haben.
Dein Kommentar ist gut, allerdings fehlen mir darin wichtigste Bestandteile:
SAP (wie auch andere ERPs) hat/haben in dem Sinne vergleichsweise wenig „vendor lock in“. Die Daten liegen zwar im System vor, können aber von dort ohne Probleme gelesen werden. Die meisten Systeme (SAP insbesondere) sind open source (im Sinne von der Code ist einsehbar) und daher kann man die Daten und Einstellungen jederzeit wieder auslesen und anders verarbeiten.
Wenn jetzt, wie von Linus angedacht, Prozesse in die AI überführt werden, laufen wir auf einen wirklich unberechenbaren Zustand zu. In den aktuellen Systemen kann ich immer nachvollziehen (mal einfach, mal weniger einfach ;-) ) WARUM eine Aktion ausgelöst wurde. Wenn jetzt aber die Prozesse selbst in die AI ausgelagert werden, dann kann nach genügend Personalwechsel niemand mehr nachvollziehen, was so gedacht war und was nicht. Zudem wird dann ein Wechsel der AI völlig unmöglich, weil dazu die AI einer anderen (neuen) AI alle interna offenlegen müsste, was ja in der Form nicht geht.
Wenn es Eure Absicht war, zu beweisen, dass die Qualität doch noch deutlich abnimmt, wenn man einer KI eine Gliederung und ein paar Argumentationslinien gibt, um sie damit einen Podcast einsprechen und produzieren zu lassen, so ist Euch das in überzeugender Weise gelungen.
B-)
Hi ihr zwei,
vielen Dank für Eure interessante Diskussion insbesondere zum Thema Lock-In in die Dienste von AI-Anbietern. Einerseits sehe ich das sehr ähnlich, dass das ein relevantes Risiko ist auf welches wir zusteuern, andererseits habe ich mir gerade bei dem Photoshop-Beispiel gedacht: Besser finde ich das Beispiel Lightroom.
Das hat ja auch dieses Abo-Modell und wenn man – sagen wir 50.000 Rawbilder über mehrere Jahre entwickelt hat – verliert man bei Beendigung des Abos den Zugriff auf die ganzen globalen und lokalen Filtereinstellungen, Workflows etc. Ich habe nur noch Zugriff aufs Endergebnis. Ich spreche da leider aus eigenem Leid.
Gleiches mit hinreichend komplexen AI Lösungen.
Meines Erachtens kommt es vor allem auf die Datenhoheit an. Dazu gehören neben den eigentlichen Nutzdaten (in dem Beispiel die Bilder) auch die Portabilität von Metadaten/Setups/Agentendefinition whatever.
In perfekten Welt gäbe es dazu eine Art Austauschformat, oder eine Austauschschnittstelle. Da stehen aber kommerzielle Interessen entgegen, die wahrscheinlich nur durch eine geschickte Regulierung in den Griff zu kriegen ist.
Zipferlak
Das könnte ein spannendes Thema werden:
»Neues Gesetz gegen Deepfakes: Die Verbreitung könnte für Plattformen bald teuer werden« (Dänemark will das Urheberrecht auf Stimme, Körper und Gesichtszüge einführen)
Ich denke gerade darüber nach, ob das sinnvoll ist oder nicht (kurzfristig, langfristig, machhen alle mit oder nur man selbst,…). Wie seht ihr das?
Das Urheberrecht ist da auf jeden Fall der völlig falsche Ansatz. Man kann nicht auf etwas das Urheberrecht haben, zudem man nichts beigetragen und was keine Schöpfungshöhe hat. Ich will erst gar nicht darüber nachdenken, was das für Nebeneffekthe und Missbrauchspotential hätte. Wir brauchen weniger Gesetze und nicht mehr, dafür aber wohlformulierte Gesetze, möglichst mit explizit ausformulierten Sinn, um die Auslegungsmöglichkeiten einzugrenzen.
Bei meinem Arbeitgeber (staatlich) ist es per Dienstanweisung untersagt, Software-Abos abzuschließen bzw. Software einzusetzen, die als Abo daher kommt. Das ist für die Mitarbeitenden nervig und neuen Kolleg:innen teilweise schwer vermittelbar, aber m.M.n. konsequent. Ich würde mir wünschen, dass solche Verbote stärker eingeführt werden. Von mir aus gerne als EU-Regel, damit diese Plage mal aufhört.
Da sheißt, ihr nutzt kein Microsoft Office?
Oder habt irgendwie noch eine Lizenz ohne Abo?
Tolle Pod. Ich bin, wie Tim, von Vibe-Buddy Coding überzeugt (und süchtig). Die Kombination aus KI und Mensch mit Coding-Skills ist der Sweetspot.
Anbei eine lustige Anthropic Projekt.
https://www.anthropic.com/research/project-vend-1
Ich habe mich tot gelacht. Es beweist, dass Anthropic Mitarbeiter immer noch Menschen sind!
Klar isses toll, sich ständig vorverdaute Codebrocken hinkacken zu lassen, wenn man selber denkfaul oder -unfähig ist. Nix anderes passiert da nämlich.
Von einem, der auch mal von Artificial Imbecility begeistert war, bis er merkte, was das mit seinem Code macht: After months of coding with LLMs, I’m going back to using my brain
Es mag ja sein, dass der kleene Punker aus Hannover letzte Woche im Abspann der Sendung mit der Maus erwähnt wurde, aber unserem Tim wurde diese Woche eine ganze Trickfilmfolge gewidmet. Ja-haaa! Darin wurde nun endlich auch das lang gehegte Mysterium um die Bedeutung seines Namens aufgeklärt – „Total Intelligente Maschine“. Sooo…
[SCREENSHOT] https://imgur.com/a/ASVSiAL [Klick]
[D.S.m.d.M. 29.06.2025] https://wdrmedien-a.akamaihd.net/medp/ondemand/weltweit/fsk0/331/3316405/3316405_62886134.mp4
Passender Bonustrack zur Sendung: „Eine kleine Melodie“ von Kommando Internet: https://kommandointernet.bandcamp.com/track/eine-kleine-melodie
Weil ihr gesagt habt, dass wir ein Problem mit Einsamkeit haben und Chatbots da eventuell zum Einsatz kommen könnten: Es gibt einen Text darüber, warum Plauderbänke gegen Einsamkeit Quatsch sind (und vielleicht auch die Weise, wie wir Einsamkeit in Fragebögen erfassen) und das Argument kann man analog für Chatbots bringen. (Der Text: https://www.zeit.de/2025/07/politisierung-einsamkeit-alleinsein-armut/komplettansicht)
Der Text ist lang, hier die Kurzfassung:
Eine alleinerziehende Mutter, die mehr Steuern zahlt als verheiratete Paare, aber alles alleine machen muss, fühlt sich alleingelassen, weil sie es ist. Ein Sterne-Koch, der immer in Gesellschaft is(s)t, kann trotzdem schwer depressiv sein. Beide fühlen sich unendlich einsam und beides sollte uns berühren. Aber die materiellen Probleme der jungen Mutter lassen sich strukturell lösen und die Probleme des Kochs sind individuell (solche können bei der Mutter auch noch übrig bleiben, wenn die finanziellen gelöst sind, wie bei uns allen). Dass wir alle in unserem Leben verletzt werden, lässt sich politisch nicht verbessern, aber Probleme wie Armut eben schon.
Die Kritik ist, dass in der politischen Auseinandersetzung mit Einsamkeit diese Themen vermengt und als Lösung Plauderbänke gebaut werden (oder eben Chatbots) statt die materiellen Probleme anzugehen und so mehr Menschen gesellschaftliche Teilhabe zu ermöglichen. Ist aber anstrengender und teurer als eine Bank oder einen Chatbot zu bauen.
Tatsächlich glaube ich, dass weder der Mutter noch dem Koch aus dem Text mit einem einfühlsamen Chatbot wirklich geholfen wäre, obwohl es bestimmt für psychische Notlagen sinnvoll sein kann. Deshalb musste ich an diese Kritik denken, als ihr KI gegen Einsamkeit angesprochen habt.
Zum Thema KI in der Psychotherapie wurde oben ja schon einiges gesagt. Zumindest in der VT sagt die Studienlage relativ deutlich, dass einer der wichtigsten Faktoren für den positiven Verlauf einer Therapie, die Beziehung zwischen Patient:in und Therapeut:in ist. Ich kann mir nicht vorstellen, dass eine KI das kurzfristig ersetzen kann. Außerdem birgt das durchaus Gefahren. Die aktuellen Modelle reden einem ja vorallem nach dem Mund und stimmen erstmal immer zu was auch immer man so sagt. Es gibt vermehrt Berichte von Menschen, die (sicherlich auch mit entsprechender Prädisposition) regelrechte Psychosen entwickeln durch die Nutzung von ChatGPT und Co:
https://futurism.com/commitment-jail-chatgpt-psychosis
Ich war positiv überrascht, dass das ganze KI-Thema nicht zu kultur-pessimistisch im Podcast dargestellt wurde!
Bin immer noch vom letzten Kongress super enttäuscht. Irgendein Faschismus soll zurück sein (lol), für manche Leute ist Faschismus schon, wenn man keine Gendersternchen benutzt. Mein Highlight aber ist weiterhin: lasst uns mal alle Rechenzentren sabotieren, weil dort KI-Hardware drinnen stehen könnte. So etwas Dummes in einem Eröffnungsvortrag habe ich zuvor noch nie gehört.
Weiterer Höhepunkt: Malte Engeler, der mir persönlich so dermaßen arrogant rüberkommt, und alles mit Kapitalismus verbinden kann. DSVO ist kapitalistisch. Vermutlich ist Faust auch wegen Kapitalismus gestorben. Aber Hauptsache Malte präsentiert seinen Vortrag auf einem MacBook, ich mag diese Moralapostel wirklich sehr.
Danke für die tolle Folge!
Zur Frage, was KI ersetzen kann und was nicht. Ich stimme Tims Annahme zu, dass der Mensch am Ende etwas menschengemachtes haben will und wertschätzt /Identifikation mit einer Person. Vielleicht erinnert sich noch jemand an Mr. President, die Band war erfolgreich auch wegen der Identifikation mit T-Seven als tollen Frau, die eine tolle Stimme hatte. Als später herauskam, dass die tolle Stimme eigentlich von jemand anderes war (heute wäre es vielleicht eine KI-generierte Stimme) und der Rest Playback-Show war, kam das nicht gut an, die menschliche Authenzität war dahin. Oder hat man sich schon mal gefragt, warum die Amateur-Branche im Erotik-Bereich so erfolgreich ist, und KI-generierte Darstellungen eher ein nischiges Ding geblieben sind? Liegt es wirklich nur daran, dass Finger und Füße bei den KI-Erzeugnissen irgendwie komisch aussehen?
Beim Thema KI und Therapie: Etwas weitergesponnen, besorgt mich der Gedanke, dass es irgendwann völlig entscheidungsunfähige Menschen geben könnte, die anfangen eine KI zu befragen, was sie denken sollen. Es gibt heute schon Leute, die LLMs befragen, was sie auf eine private Nachricht eines Kumpels oder einer Freundin antworten sollen. Eine Entscheidung wird da trotzdem getroffen. Aber tatsächlich nicht mehr von dem Menschen, der, wenn er sich nicht als schizophren definiert, sie treffen sollte, im Rahmen seiner Ich-Wahrnehmung. Das ist denke ich ein Problem. Auch dann, wenn man annimmt, dass die KI möglicherweise wie auch immer genormte „richtigere“ Entscheidungen vorschlägt. Es wäre schlicht ein Vorgang der Entmenschlichung und völliger Kontrollverlust. KI macht demnach dort Sinn, wo ein Mensch sie bewusst als Werkzeug nutzt, um eigene Entscheidungen leichter in die Praxis umzusetzen. Genau dafür ist Technik da.
Ein bisschen verwundert bin ich schon, das Linus bei dem rechts-libertären Podcast „Apokalypse & Filterkaffee“ teilnimmt, dem Christian Lindner unter den Podcasts. Dort sind normalerweise Leute zu Hause, die „woke“ mit „Vogue“ für sich übersetzen (wie es im Prinzip alle tun, die das von sich selbst behaupten) und mit Scheinaktionismus Aufmerksamkeit und damit Geld auf sich fokussieren möchten. Der Gastgeber Micky Beisenherz tut alles dafür seine im Detail immer reaktionären, pseudoelitären, narzistischen Bro-Ideologien geschmeidig unterzubringen – es trieft regelrecht davon.
Peinlich berührt,
Svente
du kennst aber schon Jagoda Marinić, oder?
Sie war mir bisher nicht mit „reaktionären, pseudoelitären, narzistischen Bro-Ideologien“ aufgefallen.
Sie scheint der Berlin-Außenposten, jenes Podcastes zu sein. Darum gilt: „Wes Brot ich ess, des Lied ich sing“ (und umgekehrt).
Würdest du beim „Alice W. Techpodcast“ mitmachen, wenn Politik dort nicht vorkommen soll? Ich meine, es gäbe doch Kohle dafür, oder?
moin, Kunstschaffende mit traditionellen Medien hier.
Meine zwo Cents zum Thema „KI in der Kunst“. Man sollte unterscheiden zwischen Kunst, also dem, was Tim ganz gut umrissen hat, und Illustration, also das, von dem ich annehme, das Linus das meinte mit „Kreativität“.
Kunst und KI in der Kunst wird in den allermeisten Fällen ergebnisorientiert betrachtet, sicherlich auch, weil es oft um das Geldverdienen geht. Gemeint ist damit aber eben meistens das Illustratorische. Man geht mit dem Ziel, eine bestimmte Information vermitteln zu wollen, an das Projekt.
Was man in Diskussionen aber oft auslässt, ist das, was Kunst eigentlich ausmacht, also der Prozess, das Explorative. Da kommt dann am Ende selten das bei raus, was man ursprünglich vielleicht mal im Kopf hatte. Das Kreieren an sich ist ja was inhärent Menschliches. KI kann hier auch ein tolles Werkzeug sein, der Weg ist ja für jeden Menschen anders. Daher sollte man nicht wieder in den gleichen Denkfehler wie beim digitalen Zeichnen verfallen, dass das Eine besser als das Andere andere ist – jeder Prozess hat seine Berechtigung.
Wie es um die Berufsgruppe der Illustratoren in Zukunft stehen wird, keine Ahnung, schwieriges Thema, weil da auch wieder die Problematik „mit wessen geistigem Eigentum wurde trainiert“ aufkommt. Aber für Kunst selbst ist KI solange noch „nur“ ein Werkzeug, solange sie nicht von ganz allein den Drang hat, Kunst zu schaffen ohne Prompting. Und auch wenn’s mal so weit kommt, dann sollte man vielleicht nicht in die Kategorien „gut“ oder „schlecht“ oder mehr oder weniger wert einteilen, sondern irgendwie einen Weg finden, Menschen- und KI-Gemachtes jeweils für sich wertzuschätzen, weil unaufgefordertes Halluzinieren einer KI ist ja sicherlich auch irgendwo spannend.
Vielleicht lebe ich aber auch in einer Traumwelt und Kapitalismus macht auch das alles wieder kaputt :D
Als klassisch ausgebildeter Musiker kann ich sagen, dass KI in der Konzertwelt wohl kaum die Rolle der Menschen übernehmen kann. Das Erleben einer Performance in Fleisch und Blut lässt sich nicht technisch ersetzen, auch wenn es humanoide Roboter gäbe, die genau so aussehen und spielen könnten wie Menschen. Auch wenn die Maschinen alles perfekter könnten als der Mensch, werden die menschlichen Bezugspunkte immer relevanter werden. Genau so ist es ja auch im Sport: Es würde überhaupt keinen Sinn ergeben, Roboter- Fußballmannschaften gegeneinander antreten zu lassen. Zu einer gelungenen, berührenden Performance zählt einfach immer auch der Schweiß, die Fehler und Momente, an denen sich der Performer selbst übertrifft.
Ganz anders sieht die Sache in der Medialen Sphäre aus: Filmmusik z.B. wird sehr wahrscheinlich bald fast ausschließlich AI-generiert sein, zum Leidwesen aller Musiker, die von solchen Aufnahmen leben.
Ein letzter Gedanke zum Thema Originalität: Ich denke, dass AI sicherlich auf sehr hohem Niveau imitieren und zusammenstellen kann, beispielsweise wie oben genannt den Stil vom alten Beethoven imitieren, aber AI kann noch nicht, was Beethoven zu seiner Zeit besonders gemacht hat: Nämlich sich immer weiterzuentwickeln und neues zu erfinden. Sprich: AI könnte nicht aus einem jungen Beethoven einen alten deduzieren. Einfach weil es in der Kunst kein Feedback im sinne von „richtig“ oder „falsch“ gibt. Es gibt also keine Regel, nach der sich Kunst in die eine oder andere Richtung entwickelt. Wenn es jedoch einfach nur um Stilkopie geht, gibt es diese Regeln aber sehr wohl, deswegen kann AI das so gut.
Aloha
Von wegen Kreativität, Kunst und KI … denke ich: KI kann perfektes Mittelmass. Und Mittelmass gefällt der Mehrheit (sogar ich mag z.B. gewisse Marvel-Filme, wohl weil ich schon immer die psychedelischen 60ies Dr. Strange. Silver Surfer etc. liebte) … somit kann ich mir vorstellen, dass der Mehrheit (…) in Zukunft nicht auffallen wird, was von KI und was von Menschen stammt.
Ob die KI via Replizieren und Alternieren des Bestehenden tatsächlich mal sowas „Neues“ rauskriegt wie Punk oder Rap, Abramovitch oder Hyeronimus Bosch … wer weiss. Und wer weiss ob Rap nicht auch bloss eine Alternierung des Blues und Beuys eine Alternierung bestehender Vorgänger war …
Solange die Androiden nicht per Dekret, wie bei Bladerunner, mit einer Seriennummer auf ihren Schuppen markiert werden, oder Wassermarken in Bild/Text/wasweissich, wird es wohl früher oder später unmöglich werden KI- von „Menschen-Kunst“ oder Androiden von Menschen zu unterscheiden … und wär das so schlimm? … idk … hier ist sie, die schöne neue Welt …
Hinsichtlich AI in Psychotherapie möchte ich Linus Optimismus widerpsrechen.
Kontext: Ich bin selbst Psychologe, war in Weiterbildung zum Therapeuten (nicht abgeschlossen, denn), bin betroffen von Depression und zu allem Überfluss schreibe ich sogar noch eine Informatik-Master-Arbeit zum Thema AI in Psychotherapie.
Die manualisierte Psychotherapie ist, wie oben bereits erwähnt, vor allem in der VT zu finden. Doch selbst da zeigt sich in der Therapieforschung, dass Therapien fast nie manualgetreu durchgeführt werden. Es ist also bei weitem nicht so, dass man da einfach ein LLM hinpacken könnte, die alles schnurgerade runter rattert. Manuale sind häufig monosymptomatisch aufgebaut, in der Realität treten Patientinnen allerdings mit einem weitaus komplexeren Beschwerdebild auf.
Es gibt durchaus weitere Therapieschulen, die eben nicht in dieser Weise manualisiert sind, und dennoch sehr wirksam sind. Dabei kommen vor allem andere Wirkfaktoren der Psychotherapie zum Tragen, eins davon ist tatsächlich der menschliche Kontakt, ein empathisches Gegenüber, ein Spiegel und Übertragungsmedium. Diese Möglichkeiten hat ein LLM nicht.
Dazu kommt, dass die Modell zu brav sind, d.h. der Patientin vermutlich nach dem Munde reden werden. Gerade in der Therapie ist es allerdings wichtig, kritisches Verhalten und Denkmuster ernsthaft zu kontern. Klar ist es schön, wenn man sich seine Therapeutin nach Wunsch „zusammenbauen“ könnte, wie Linus das beschreibt, im schlimmsten Fall schaffen sich die Patientinnen dabei jedoch nur eine Validierung ihrer dysfunktionalen Gedanken und Handlungsmuster. Das wäre das Gegenteil von Therapie. Ich würde keine Patientin mit einem Sprachmodell alleine lassen und das Therapie nennen.
Das Problem der geringen Verfügbarkeit von Psychotherapie liegt vor allem bei den Kassenärztlichen Vereinigungen, die seit Jahrzehnten die Anzahl der Kassensitze deckeln (1999 wurden die Praxen gezählt und das als Bedarf festgelegt, kein Scherz). Es braucht schlicht mehr Μöglichkeiten für den therapeutischen Nachwuchs sich niederzulassen, statt einen Kassensitz für mehrer Zehntausend Euro von Ruheständlern kaufen zu müssen…. AI mag bei leichten Problemen unter Umständen Hilfreich sein, aber es setzt die falschen Anreize. Krankenkassen nutzen auch lieber „tolle Apps“, statt für mehr Kassensitze zu argumentieren, da sie der Meinung sind, damit Geld zu sparen.
Zuletzt sehe ich noch die Problematik des Domänenwissens. Wie im Podcast schon erwähnt sind die AI-Tools beim Programmieren weit fortgeschritten, eben weil es die große Schnittmenge gibt – wer LLM-Tools bauen kann, kann vermutlich auch gut Programmieren und die Ergebnisse gut einschätzen. Das ist bei Psychotherapie nicht der Fall. Die meisen Therapeuten haben keinen Sachverstand hinsichtlich AI, die meisten AI-Experten keinen Sachverstand von Psychotherapie. Wenn nicht einwandfrei nachvollziehbar dargelegt werden kann, wie bei einem solchen Tool diese beiden Domänen zusammengearbeitet haben, wäre ich skeptisch.
Ich sehe dennoch Potential von AI in der Psychotherapie. Wie beim Programmieren sehe ich hier die Möglichkeit von Assistenzsystemen für das Fachpersonal, also Ärzte, Psychotherapeuten usw. Transkripte von Therapievideos können bspw. mittels LLM zusammengefasst werden, auch Therapieberichte haben „Boilerplate“ welches ein lokales LLM mit diesen Zusammenfassungen erstellen könnte. Aktuell forsche ich daran, wie die AI-Modelle die Behandlungsleitlinien integrieren können.
Für mich steht nun offiziell fest: Tim hat recht! Die „Goldenen Zwanziger“ sind real.
Auch hundert Jahre zuvor haben kritische Stimmen gesehen, dass es in einer Katastrophe enden muss. Aber das Volk freut sich wie modern und toll alles ist.
Hoffen wir einfach mal zusammen, dass es nicht wieder im Autoritarismus kulminiert..
Hallo Tim und Linus,
ich möchte noch etwas anekdotische Evidenz zum Thema KI und psychische Leiden beitragen.
Aus Sicht eines Hilfesuchenden, habe ich mit verschiedenen Chatbots weit überwiegend positive Erfahrungen sammeln dürfen, abgesehen von z.B. einem zu kleinen Kontextfenster. In jedem Fall waren meine Gespräche mit LLMs deutlich bekömmlicher, als alles, was ich mit menschlichen Premium-Experten aus Fleisch und Blut erleben durfte. Da gibt es wie überall auch viele A-Löcher, denn man entwickelt sich schließlich nicht allein durch eine entsprechende Ausbildung zu einem vernünftigen Menschen. Ungünstige Rahmenbedingungen, wie z.B. Zeitdruck, erschweren den realen Kontakt zwischen Arzt und Patient zusätzlich. Der Vergleich zwischen Chatbot und Humanoid entspräche im Universum von Star Trek wohl eher einer Gegenüberstellung von Lieutenant Commander Data und einem besoffenen Nausikaaner in Eile – bloß mein persönlicher Eindruck. Natürlich sollten die Computer-Antworten nicht leichtfertig mit Wahrheit verwechselt werden, aber das ist bei menschlichem Gebrabbel auch nicht anders. Die simulierte Empathie und Kompetenz verschiedener LLMs hat bei mir jedenfalls bislang deutlich weniger Schaden angerichtet, als die natürliche Unzulänglichkeit echter Experten – welche nebenbei bemerkt weit weniger Bereitschaft für Erklärungen aufbringen. Kein Chatbot reagierte je genervt, hat zentrale Absprachen nicht eingehalten, persönliche Verdachtsdiagnosen öffentlich einsehbar gemacht, private Leihgaben verloren (Tagebucheinträge, usw.), schamlos Schutzbehauptungen aufgestellt, oder die bloße Existenz von Patientenrechten beharrlich abgestritten (Akteneinsicht). In dieser Hinsicht halten die menschlichen Profis tatsächlich noch einen komfortablen Vorsprung gegenüber den Maschinen.
Bezüglich katastrophaler Unterversorgung kann ich berichten, dass die Wartezeiten auf ein einziges oberflächliches Gespräch in manchen (Spezial-)Bereichen mittlerweile über zwei zermürbende Jahre betragen. Da wirkt es auf mich schon etwas abgehoben und am Problem vorbei philosophiert, wenn hier in den Kommentaren von Fachleuten darüber gesprochen wird, ob „echte“ Empathie und Wertschätzung doch nur von richtigen Menschen erbracht werden könne und man sich darum für unverzichtbar halte. Fast so, als ginge es bei dieser Thematik hauptsächlich darum, das fragile Ego einiger Profis zu streicheln. Oder habe ich da etwas falsch verstanden und die genannte Einschätzung basiert stattdessen auf Rückmeldungen aller (!) Gruppen Hilfesuchender, also auch den Unzufriedenen, Geschädigten und ewig Ignorierten?
Insbesondere den Bereich anspruchsvoller Diagnostik scheinen LLMs bereits heute viel besser im Griff zu haben, da sie prinzipiell deutlich aufmerksamer „zuhören“ können und weniger eklatant von persönlichen Projektionen oder voreiligen Annahmen beeinflusst zu sein scheinen. Darüber hinaus verstricken sich Chatbots nach meiner Erfahrung zwar ebenso in logische Widersprüche, tun dies aber insgesamt deutlich seltener oder geschickter als menschliche Profis und sind auch nicht sofort beleidigt, wenn durch kritische Nachfragen darauf hingewiesen wird. Schlimmste Bestätigungsfehler, kognitive Dissonanzen und pseudowissenschaftliche Überzeugungen sind ebenfalls ein von mir wenig vermisstes menschliches Defizit, das nach meiner Beobachtung insbesondere bei Personen mit Autoritätsanspruch bisweilen bizarre Ausmaße annimmt. Unter menschlichen Fachleuten scheint es bei der Diagnostik so etwas wie einen Wettkampf zu geben, wer in kürzester Zeit die kreativste Spekulation mit dem geringsten Bezug zur Problembeschreibung des Patienten oder ICD-Diagnosekriterien hervorbringen kann. Für enge Angehörige dienen jene Ergüsse zwar hervorragend als „schlechter Witz“, für Menschen in Not ist eine solche Unzuverlässigkeit aber enorm belastend. Ein sinnvoller Umgang mit wiederkehrenden Komplikationen wird auf diese Weise regelrecht vereitelt. Auf diese Problematik angesprochen wird von Expertenseite gerne pauschal behauptet, der therapeutische Ansatz sei ohnehin stets vergleichbar, was nachweislich eine ebenso unhaltbare Verallgemeinerung bzw. Falschaussage ist, wie die gelegentlichen Halluzinationen der LLMs, über die so gerne der Kopf geschüttelt wird. Nach dieser Logik könnte eine belastbare Diagnostik vermutlich auch ganz gestrichen werden. Solange der Patient bloß schön schnell wieder draußen ist und man ein gewisses Honorar abrechnen kann, hat man als Fachmann scheinbar alles richtig gemacht – eine sehr verbreitete Form menschlicher Wertschätzung und Empathie. Die Rosenhan-Experimente sind nach meinem Eindruck längst wieder in Vergessenheit geraten. Zum Glück haben Maschinen ihre „Bauchgefühle“ etwas besser unter Kontrolle. Durch vermeintliche Helfer aus Fleisch und Blut ständig tiefgreifender Verunsicherung ausgesetzt zu sein und sich permanent gegen unbelegte Unterstellungen verteidigen zu müssen, wäre schon für einen gesunden Menschen echt unangenehm. Für Hilfesuchende mit psychischen Problemen endet sowas auf Dauer mitunter tötlich. Ich schlage daher vor, lieber gesund zu bleiben. Sollte dies leider einmal nicht ganz gelingen, so erscheinen mir spezialisierte LLMs zumindest eine Notlösung mit großem Potenzial darzustellen. Das Thema Datenschutz sehe ich zwar grundsätzlich recht kritisch, jedoch besteht hier vermutlich eine antiproportionale Beziehung zum persönlichen Leidensdruck – ebenfalls bloß anekdotische Evidenz.
Vielen Dank für eure Sendungen und alles Gute euch beiden.
Euer Podcast gehört für mich inzwischen irgendwie total zum Leben dazu. Würde ich total vermissen, wenn er nicht mehr da ist. Danke <3
Das geht mir auch so!!1
Siehe auch:
“ Macht KI erfahrene Entwickler schneller? Neue Studie kommt zu einem eindeutigen Ergebnis
Die Techbranche verspricht massive Produktivitätssteigerungen durch den Einsatz von KI in der Software-Entwicklung. Eine aktuelle Untersuchung zeigt jetzt das Gegenteil. Wie passt das zusammen? “
https://t3n.de/news/ki-produktivitaet-erfahrene-entwickler-studie-1696783/
Kleiner Themenvorschlag für die nächste KI Folge:
„AI.Auto-Immune“ das Internet vor KI-Angriffen schützen
https://tu-dresden.de/tu-dresden/newsportal/news/verbundprojekt-al-auto-immune-zur-abwehr-ki-basierter-angriffe-auf-das-internet
Ansprechpartner: Prof. Matthias Wählisch
Viel Spaß bei der Recherche und vielen Dank für LNP.