Linus Neumann 0:14:31
Okay, also wir haben eine Technologie. Du hast das hier in der Sendung ja auchschon mehrmals dargestellt, was das Besondere jetzt eigentlich am Computer ist.Wir hatten vorher eine Welt, in der wir,Unsere Regeln formuliert haben in Programmen und den Computer diese Regeln haben anwenden lassen.Dann haben wir immer komplexere Strukturen geschaffen, Programme,Umgebungen, Datenumgebungen, dass das Thema Fehler in unseren Logiken ein großes wurde.Dass wir also so komplexe Programme geschaffen haben, dass wir mitunter Jahrzehntedamit beschäftigt sind, darin alle Fehler zu finden.Aber das waren immer ein endlicher Satz an Regeln, der da zur Anwendung kam,den Menschen geschrieben haben, der in seiner Komplexität vielleicht schnelldas Verständnis eines einzelnen Menschen in seiner Gänze schon übertraf.Aber wir können in einem jeden Programm sagen, hier ist die Regel und die mussanders oder die führt hier zu einem Fehler.Wir haben mit der KI nun eine Technologie,die aus potenziell chaotischen Daten großer Menge Regeln deduzieren kann,also ableiten kann, indem sie versucht,sich den in diesen Daten verborgenen Regeln am besten anzupassen und möglichst das zu reproduzieren,was da drin ist, ohne dabei notwendigerweise die Regeln explizit zu machen.Wir brauchen also für ein Problem, das wir mit KI gut lösen können, drei Dinge.Daten in großer Menge, die möglichst gut gelabelt sind.Wir brauchen darin nicht triviale Zusammenhänge, Weil die trivialen Zusammenhänge,die können wir mit einfachen Regeln ergründen.Und wir brauchen irgendein Gütekriterium, mit dem wir entscheiden können,ob eine Lösung richtig oder falsch oder noch besser, eine Lösung besser als die andere ist.Und wenn wir diese drei Dinge haben, große Menge Daten,nicht triviale Zusammenhänge und eine Möglichkeit, die Güte einer Lösung zuevaluieren, dann haben wir ein Problem, was für KI generell geeignet ist.Hätten wir die Daten nicht in großer Menge, haben wir nicht genug Lernmaterial,ist der Zusammenhang trivial, machen wir es mit einfacher Mathematik.Und wenn wir kein Evaluationskriterium haben, kein Gütekriterium,bei dem wir der KI zurückmelden können, das war jetzt gut oder besser oder schlechterals das andere, dann kann sie nicht lernen.Diese drei Dinge brauchen wir also und dann können wir eine Technologie mitmassenhaft Daten füttern und ihr das Feedback geben und sie passt sich automatisch an.Das heißt, die Intelligenz ist nicht wirklich in dem Ergebnis,also in der Antwort, die wir auf unsere Frage bekommen, sondern Intelligenzist eigentlich das Lernen.Auch beim Menschen ja so.Nichts, was sich nicht weiter entwickelt, adaptieren und lernen kann,würden wir als intelligent bezeichnen. Entsprechend sagen wir auch, das ist Smart Home.Da bin ich ja schlauer. Ja, stimmt. Weil du das Smart Home programmiert hast,dass es irgendwie die den Rollladen runter macht, wenn der Vorhang aufgeht.Und deswegen ist das Smart Home jetzt dumm.Aber es kann halt nicht automatisch lernen.Und diese Technologie haben wir jetzt. Was machen wir damit?Wir geben dem Ding Datensätze, lassen Regeln deduzieren, von denen wir selbernicht mehr wissen, was sie sind, dass dieses Ding auch nicht mehr explizit machen kann.Und dann lassen wir es dieses deduzierte Wissen anwenden.Und meistens tun wir uns dann freuen, weil es sogar jetzt mit uns spricht.Und diese Technologie wenden wir jetzt möglichst auf alles Mögliche an, gerade,primär auf viele Daten und stellen fest, keine Ahnung, das kann jetzt sprechen,das hat so eine Wikipedia,die snackt so ein Modell dann irgendwie an einem Vormittag durch und weiß einfachalles, was da drin steht, kann nicht nur einzelnes Wissen darin,zitieren, sondern kann auch Bezüge zwischen diesem Wissen darstellen und daist schon was wirklich Irres entstanden.Kann man sich übrigens, ach hier, von Jannis auch CCC-Vorträge anschauen,von Jannis Quer und auch von anderen.Wir haben das auf dem Kongress und auf dem Camp von den unterschiedlichsten,Expertinnen und Experten dieses Phänomen beleuchten lassen.Und damit gehen wir jetzt auf die Mainscheid los.
Euer Podcast wird klanglich immer dumpfer.
Für Tim drehe ich schon lange den Bass raus, jetzt muss ich für Linus weiter nachregeln, sonst fallen mir die Ohren ab oder ich hör nix.
Ist nur bei diesem Podcast so.
Vermutlich nicht Absicht, sondern einen Check wert?
Die Herren werden älter und ihre Stimmen tiefer. Ein völlig natürlicher Prozess.
Dem Thema dieser Sendung geschuldet habe ich mich jedoch zusätzlich fachlich beraten lassen.
Ich: „Wird im Alter die Stimme tiefer?“
KI: „Ja, im Alter kann die Stimme tiefer werden. Dies geschieht aufgrund von Veränderungen im Körper, insbesondere in den Stimmbändern und der Kehlkopfstruktur. Mit zunehmendem Alter verlieren die Stimmbänder an Elastizität und Dicke, was zu einer tieferen und oft raueren Stimme führen kann. Bei Männern ist dieser Effekt in der Regel ausgeprägter, da ihre Stimmen in der Jugend oft tiefer sind und im Alter noch weiter absinken können.“
Du meinst, die hatten kürzlich ihren Stimmbruch?
Also meine Befürchtung bei der Nutzung von KI beim Programmieren ist, dass das falsche Problem gelöst wird. Das Problem beim Programmieren ist ja nicht, möglichst viel Programmcode zu erstellen, sondern ein Problem mit möglichst wenig und simplen Programmcode zu lösen.
Ich glaube nicht, dass das die Produktivität erhöhen wird. Wir schreiben heute noch simple CRUD-Anwendungen jedes mal neu… und das obwohl dBase und Delphi das schon vor > 30 Jahren generalisiert haben. Es scheint so zu sein, dass jede hypothetische Produktivitätssteigerung direkt dadurch aufgefressen wird, dass man sich neue Steine in den Weg legt. Effektiv wurde in der Vergangenheit der Personalressourceneinsatz nicht kleiner. Dafür gibt es aber immer mehr „Boilerplate-Code“, der vom Editor geschrieben wird… und gleichzeitig ausgeblendet… weil man den eigentlich nicht bräuchte, wenn die Programmierung nur halbwegs brauchbar wäre.
Gerade Refaktorierung wird durch die Tools wirklich viel einfacher. Das sollte – wenn richtig benutzt – eine Menge unnötigen Code killen können (und in die Zukunft, Stichwort Ablösung von Legacy Systemen).
Wer immer noch zu viel CRUD und API-Code neu machen muss sollte sich vielleicht mal mit deklarativen Application Frameworks und funktionalen Programmiersprachen beschäftigen. Da wird dann vieles einfach aus der Daten-Beschreibung heraus generiert.
Ich hätte mir etwas mehr Reflektiertheit beim Thema KI gewünscht. Tim hat die AI-Kool-Aid scheinbar wirklich in einem Zug runtergestürzt. Ich schreib z.B. auch professionell Software und die Produktivitätsgewinne sind für mich und meine Kolleg*innen vernachlässigbar. Das bestätigt auch die Studienlage (https://doi.org/10.3386/w33777). Ich verbringe dann halt Zeit im Q&A mit meinem Modell, statt mich tatsächlich mit den Fundamentals meiner Systemarchitektur zu beschäftigen. Mit dem Nachteil, dass ich den Slop hinterher ohnehin nochmal genau lesen und verstehen muss, weil es kein Modell gibt, das auf perfekter Software trainiert wurde (gibts die eigentlich?) und ich mit Exploits, Slopsquatting, etc. oder einfach Slop rechnen muss. Für eine bessere Code Auto-Completion reichts vielleicht gerade noch.
Dem gegenüber steht ein unethischer, fundmental ausbeuterischer Trainingsprozess, der in industriellem Maßstab öffentliche (aber unfreie) und proprietäre Informationen nutzt, um mit einem absurden Energiebedarf Modelle zu trainieren, die dann von prekärbeschäftigten Menschen (häufig aus dem globalen Süden) in Gig-Work-Arbeit – feingetunt werden. Die Kirsche oben drauf ist dann, dass die Produktivitätsgewinne der feuchte Träum eines jeden Kapitalisten sind, um Arbeitszeit weiter zu verdichten, den menschlichen Einfluss am Produktionsprozess auf eine Kontrollfunktion zu reduzieren und Arbeiter*innen immer effizienter auszubeuten. Cool, wenigstens haben wir jetzt lustige AI-Meme-Bildchen à la „Conni dealt Bubble Tea auf dem Pausenhof“.
Ich empfehle das Buch „The AI Con“ von Emily M. Bender & Alex Hanna zu Hype-Kalibrierung.
Produktivitätsgewinne sind wirtschaftliche Normalität und haben bisher immer zu mehr Wohlstand geführt. Das ganze automatisch immer als Ausbeutung zu deuten hat Tradition, macht es aber nicht wahrer. Ich sage nicht, es wird nicht zu schmerzlichen Disruptionen kommen, aber so war das bisher bei allen Technologieumbrüchen.
Dass Deine Ausbeute beim Coden so schlecht ist mag vielleicht auch was mit Sprache und Environment zu tun. Ich brauche allerdings kein Cool-Aid zu schlürfen um zu sehen, wie viel leichter sich Software entwickeln lässt. Da würde ich dem Thema durchaus noch mal eine zweite und dritte Chance einräumen an Deiner Stelle.
Das Thema Psychotherapie durch KI finde ich gruselig und auch interessant, zumindest als Ergänzung. Wäre das nicht mal ein spannendes Thema für einen CRE mit einem Psychotherapeuten als Gast?
sehr gute Idee, fände ich auch sehr interessant!
…Besonders, weil ich bisher bei „Unterhaltungen“ mit KI nie das Gefühl hatte, sowas wie ein menschliches Gegenüber zu haben. Zu artifiziel, unterwürfig und blutleer waren mir stets die Antworten. Das kann ein Grund sein, warum es für programmieren und Texte formulieren prima funktioniert. Wie Tim sagt, als Assisstent. Sowas wie „mich verlieben“ oder das Gefühl haben, als Mensch ernst genommen zu werde ist mir noch nicht untergekommen. Kann sein, dass es dran liegt dass ich nur Gratismodelle verwende. Es scheinen aber Menschen ja bereits jetzt mit persönlichem Gewinn mit KI zu plaudern – da wäre ein professioneller Blick darauf hochinteressant.
Danke, dass ihr das Thema aufgenommen habt.
Zum Thema KI und Beziehung hier ein Hinweis zu einer Reportage:
https://www.ardmediathek.de/video/Y3JpZDovL3N3ci5kZS9hZXgvbzIyMzAyODE/
Ähnliche kamen die letzten Tage auch auf verschiedenen Platzformen und Zeitschriften. Falls diese konkrete nicht zusagt.
Außerdem gab es zum Thema KI, Therapie und Abhängigkeiten (von der AI und dem Unternehmens-/Finanzierungsmodell) ja vor ein paar Jahren schon den Fall von Replika, bei dem Tausende Nutzende bei der zwischenzeitlichen Abstellung von der KI in Nöte gerieten.
Ich frage mich dazu: welche Kompetenzen benötigen Menschen eigentlich zukünftig, um mit diesen Phänomenen umgehen zu können und den technischen Entwicklungen nicht hilflos ausgeliefert zu sein, sondern selbstreflektiert bewusst mit ihnen als Tool umzugehen?
Ich werf mal das Phänomen (GPT) Model collapse ein.
https://www.nature.com/articles/s41586-024-07566-y
„Otherwise, it may become increasingly difficult to train newer versions of LLMs without access to data that were crawled from the Internet before the mass adoption of the technology or direct access to data generated by humans at scale.“
Ob dieser Effekt auch durch das Training mit Wissen aus Mensch-LLM Kooperationen auftritt bleibt abzuwarten, ist aber momentan nicht auszuschließen.
Was deswegen absehbar bleiben wird ist die eklatante Menschenrechtslage in der Annotierung/QA der Modelle, aber auch die Copyright-Problematiken werden wohl weiter eskalieren. War das nicht mal CCC Kernthema? Wo ist das hindiffundiert?
Absolut gar nicht angesprochen wurden die Implikationen durch eskalierenden Ressourcenverbrauch bei weiterem Rollout und der direkte Zielkonflikt mit der Transformation weg von einer primär fossilen Energieerzeugnung (Metalle (auch Batterien für USV Anlagen), Notstromaggregate, Kunststoffe, Ressourcen zur Bebauung, Kühlmittel, Feuerlöschmittel, zusätzlich zum Wasser- und Stromverbrauch, to list a few). Hier kann man echt mal die Frage stellen: Ist es das uns wert? In welchen Anwendungsbereichen wäre der Einsatz gerechtfertigt?
Was ist aus der Norm „Keine technischen Lösungen für soziale Probleme“ zu propagieren geworden?
Klar, kann man versuchen hier bspw. im Thema Einsamkeitspandemie einen technischen Hotfix zu sehen. Aber was passiert mit unserer Gesellschaft, wenn wir KI hier ohne Gegenangebot und -bewegung zulassen?
Zum Thema Psychotherapie hat Linus gesagt, dass diese idealerweise nach evidenzbasierten Manualen stattfindet. Das ist für die Verhaltenstherapie im Prinzip richtig, allerdings muss ich aus eigener Erfahrung berichten (und habe dies von vielen Kolleg:innen ebenfalls gehört), dass es selten möglich ist, eine manualisierte Therapie „nach Plan“ durchzuziehen, da ja die meisten Patient:innen zwischen den Sitzungen viel erleben und sich auch die generelle Problemlage ständig ändern kann. Da muss man als Therapeut:in oft improvisieren können und ad hoc überlegen, was denn in der neuen Situation sinnvoll wäre (es geht also um situative Flexibilität). Ich bin nicht sicher, ob KI dies so leisten könnte.
Zudem gibt es Studien, die belegen, dass die Therapieform (also VT, TP,…) und die Inhalte (z.B. Cognitive Behavioural Therapy,…) wohl weniger oder höchstens genauso relevant sind hinsichtlich Therapieerfolg als bestimmte Merkmale/Fähigkeiten der Therapeut:in hinsichtlich Empathie, Wertschätzung,…. Auch Humor in der Psychotherapie hat sich als ein wirksames Mittel erwiesen, und da es schon jetzt Kolleg:innen gibt, die sich mit dem Einsatz von Humor schwertun, bin ich nicht sicher wie gut das mit KI laufen würde. Ebenso was „echte“ Empathie, Wertschätzung….betrifft.
Dazu ergänzend:
Die menschliche Psyche ist komplex und messy, voller Untiefen und Überraschungen und dadurch nicht operationalisierbar. Eine klassische, isolierte Angsterkrankung bei einem ausreichend intelligenten und motivierten Menschen wird man sicher mit einer Therapie-KI zufriedenstellend behandeln können, aber in der Praxis sind solche Fälle selten. Fast immer behandeln wir Komorbiditäten mit hochindividuellen Persönlichkeitsfaktoren, die durch gängige Diagnosesysteme und Manuale nur unzureichend beschrieben werden können. Diese dienen als Orientierung, mehr aber auch nicht. Sicher wird KI besser sein als keine Therapie oder eine schlechte und vielleicht sogar noch als eine durchschnittliche. Aber herausfordernd sind ja die Grenzfälle und Situationen, wo es eben nicht planmäßig läuft. Ich könnte mir die KI gut als Ergänzung für den Therapeuten vorstellen, sodass beide dann quasi im Tandem auftreten, der Mensch erstellt Diagnose und Therapieplan, die KI weist auf mögliche Fallstricke hin, evaluiert den Therapieverlauf, ist für den Patienten zwischen den Sitzungen ansprechbar, kann Hausaufgaben nachverfolgen usw. Allgemein würde ich sagen, dass der Mensch nicht ersetzbar ist, aber sich ersetzbar machen kann, indem er schon vorauseilend Arbeitsprozesse ins Maschinelle reduziert. Da geht einiges verloren und da sollten wir uns nicht unter Wert verkaufen ;)
uA die Uni Mannheim forscht seit paar Jahren schon zu ergänzenden Verfahren von Chatbots in der Therapie. Was ich bedenklicher finde: In der offenen Jugendarbeit hab ich mitbekommen, dass Kinder/Jugendliche dies nun intensiv nutzen. Egal, wo man fragt, alle kennen es. Gleichzeitig wird die Technologie aber weder verstanden noch die Dialoge hinterfragt. Eltern sind da auch komplett außen vor.
Was passiert mit den Daten? Ist das nicht auch grad bei so closed Systemen in chatGPT auch ein potentieller Desinformations-/Radikalisierungsvektor? Denkbar und technisch umsetzbar ist dies ja definitiv.
Hallo,
schöne etwas andere Folge im der versucht wird ein grösseres Bild zu zeichnen. Gerne immer mal wieder einstreuen.
Zu KI in Medizin: Auch beim Theme Krebserkennung über Bildgebende Verfahren oder molekularbiologische Analysedaten wird es sicherlich grössere Fortschritte geben, dazu ein Artikelder Tagesschau Redaktion:
https://www.tagesschau.de/wissen/ki-tumore-krebs-100.html
Am ende noch eine sxhlecjte naxhricjt für mögliche Weihnachtsgeschenke. Auch für die Nintendo Switch (2) scheint der Trend der Freigabe des Spiels über Cloud/ Download ebenfalls nicht halt zu machen. Das gro ddr Spiele wird so weit ich es recherchiert habe, nicht physisch geliefert. https://nplusx.de/articles/4907-welche-switch-2-spiele-sind-komplett-physisch-erhaltlich
https://www.pcgameshardware.de/Nintendo-Switch-2-Konsolen-280469/News/Physische-Versionen-aufgewertete-Spiele-Ueberraschung-1469886/
Nichts bleibt verschont, nicht mal Super Mario…
Beste Grüsse
Den einführenden Worten, wie KI funktioniert, konnte ich nicht ganz folgen. Deshalb habe ich dann die Sendung mit der Maus angeschaut.
Danach habe ich darüber hinaus auch die Spanisch- und Schafanspielungen verstanden.
Danke!
Tolle Betrachtung des Themas! Wie Kurze CRE Folge. <3
Bezüglich Psychotherapie: ich experimentiere momentan damit mein Tagebuch in Ausschnitten von Zeiträumen in ein LLM zu füttern. Momentan verwende ich die Lokalen Modelle Gemma-3-27b-it und Mistral Small 3.1 bzw. werde jetzt mistral-small-3.2 testen in LM Studio. (Danke an Tim für den LM studio Tip!)
Am Prompt und Systemprompt feile ich natürlich noch (mit LLM Hilfe).
Wenn jemand einen Ratschlag hat nehme ich den gerne?? :)
Die Erläuterung von Linus fand ich schon mal sehr aufschlussreich.
Mein Tagebuch diktiere ich fast nur noch in mein iPhone/Mac (DayOne app) was ohne Maschine lerneng auch nicht möglich wäre.
Tim!
Du hattest mal in LNP | FS eine KI-Installation vorgestellt, die du selbst gesehen hattest, bei der man eine Matrix aus Streichholzschachteln (vielleicht 30×20) mit Zettelchen (Anweisungen) und bunten Kügelchen (oder ähnlichem) gefüllt hatte. Besucher der Installation sollten ein Schächtelchen öffnen und der Anweisung gemäß Kügelchen in andere Schächtelchen legen. Im Laufe der Zeit sortierten sich die Zettel und Kügelchen so, dass man am Ende mit dem ganzen Ding zwei Zahlen addieren konnte, oder so. Man wollte zeigen, wie scheinbar kleine unabhängige Prozesse in ihrer Gesamtheit einen höheren Zweck erfüllen können. So wie die großen LLMs auch funktionieren, man schmeist unmengen Zeug auf ein Gerüst und plötzlich macht es die Augen auf und fragt wo es ist und wer wir sind.
Kannst du dich daran erinnern? Ich finde das nicht mehr bei dir, weil auch die Textsuchfunktion deiner Podcastseiten be…scheiden ausgelegt ist. Ich würde gerne noch einmal den genauen Aufbau der Installation nachvollziehen können.
Woher kommt eigentlich diese Annahme, dass „KI“ emergentes Wissen generieren könne, also Wissen, das nicht in den Trainingsdaten enthalten war, die „KI“ aber trotzdem aus dem zum Training verwendeten Daten „erschließen“ konnte? Müssten wir dafür nicht wissen, welche Informationen *nicht* in den Trainigsdaten enthalten waren? Wie können wir das wissen, wenn mittlerweile das komplette Internet zum Training von „KI“s verwendet wird?
Diese Annahme beruht auf der Fähigkeit von neuronalen machine learning Modellen, Zusammenhänge in unstrukturierten Daten zu finden.
Klassische statistische Datenauswertungen müssen immer erst für die Fragestellung entsprechende Daten aufbereiten.
Du kannst dir ML wie eine explorative (statt gezielte) riesige riesige riesige multi-variate Regressionsanalyse auf einem rieeeeesigen Datensatz vorstellen.
Ähnlich wie im diskutierten Beispiel, dass Palantir alle „herkömmlich“ inkompatiblen Datenbanken, die keinen unique key / identifier haben, zusammenwürfelt.
Natürlich auch mit allerlei Scheinkorrelationen, aber eben auch mit einigen echten.
Beim Thema KI habe ich als Softwareentwickler keine Angst, dass ich in naher Zukunft ersetzt werde.
Ich nutze KI ausgiebig und sehe es als sehr gutes Werkzeug. Wir sind und werden noch eine Weile in der Phase sein, in der wir herausfinden müssen, wie dieses Werkzeug am besten einzusetzen ist.
KI kann sehr viel ersetzen was heutzutage jeder Junior erledigt. Der Junior von morgen, nutzt KI und löst komplexere Aufgaben bzw. quantitativ mehr Aufgaben.
KI hat aber auch eine Schwäche, die schwer herauszubekommen ist. Das Ergebnis basiert auf den eingegebene Daten/Wissen. In alten/historischen Softwareprojekten ist diese Datenbasis ein Mix aus „guten“ und „schlechten“ Bestandteilen. Die Kunst ist es nun, der KI beizubringen diese Beiden von einander zu trennen. Das kann beliebig komplex werden.
Je mehr KI-generierte Software dann auf KI-generierter Software basiert, verschlimmert sich das Problem.
Unsere Aufgabe wird es also immer mehr, zu entscheiden, ob das KI-Ergebnis eine korrekte Lösung für das gegeben Problem ist. Dafür müssen wir immer noch das Problem und die Lösung verstehen.
Die Lösung kann natürlich auch ein Programm sein, dessen Quellcode ich nicht mehr lese. Dann muss ich „irgendwie“ anders entscheiden, ob de Lösung korrekt ist.
Besonders der Beruf Softwareentwickler war schon immer von schnellem Wandel betrofffen. In der Ausbildung/Studium habe ich Dinge gelernt, die direkt danach komplett obsolte geworden sind. Wir mussten uns schon immer stetig anpassen und das ist mit KI nichts anderes.
Ich fühle mich auch oft einsam und rede seit einiger Zeit mit ChatGPT über meine Probleme und Sorgen, wohl wissend das der Computer nicht WIRKLICH empathisch ist. Helfen tut es mir auf jeden fall, vor allem wenn man sonst eh niemanden hat der mit einem redet.
Die Wikipedia Seite zu The Lord Of The Rings zu Palantir:
> The stones were an unreliable guide to action, since what was not shown could be more important than what was selectively presented. A risk lay in the fact that users with sufficient power could choose what to show and what to conceal to other stones
Und *danach* ist die Überwachungssoftware benannt, die für uns Big Data – sorry – AI – machen soll, um uns vor Gefahren zu warnen. Ich sehe da wieder einen gefährlichen Linksruck in Deutschlands Zukunft, dem man begegnen muss.
Bei DeepSeek gabs mal kurz einen lichten Moment, wo Leute festgestellt haben, dass bei „tiananmen square“ keine dollen Antworten kamen, weil das entsprechend trainiert wurde. Ich glaube, da fehlt aber der logische Schluss, dass die LLMs aus dem Land des Kapitalistischen Endzustands genauso manipuliert werden können, um Themen jeder Art in dem Licht auszugeben, wie es den Besitzern der gewaltigen Daten- und Grafikkartenmengen eben am besten passt.
Wenn wir Glück haben, sind die LLMs der Zukunft einfach schlecht, weil das weg-lobotomieren des „woke mind virus“ dann zu viel Kollateralschaden verursacht. Aber selbst dann werden immer noch super viele Bilder und Videos generiert werden, die alleine die politische Meinung lenken können – siehe auch John Olivers letzten Beitrag in Last Week Tonight.
Schon jetzt werden die Bilder von Videos von der Jan6 Attacke auf Capitol mit „ja, die Demokraten haben das KI generiert!“ abgetan.
Ich finde es bei dieser Aussicht fast belanglos, ob man sich jetzt Code schneller schreiben lassen kann. Das Holodeck bei Star Trek hat auch immer toll Geometrie aus gesprochenen Prompts generiert. Schön, wenn man die „Eugenics Wars“ schon hinter sich hat.
beste folge ever ! danke euch beiden !
Ich komme im Moment ganz gut durch den KI-Hype indem ich mich bei jedem Bullshit-Bingo frage: „Kann ein guter Text/Bildgenerator dieses Problem für mich lösen? Hilft Statistik? Kennt die Mehrheit der Leute vielleicht eine Lösung?“ Hilft oft, z.B.: Ausformulieren: OK, Vorschläge in E-Mails : Ok, Programmcode: OK, Wissensfragen: Meh, nur wenn statistisch relevant, fiktionale Geschichte erfinden: OK, Podcasttitelbild mit einer größeren Maus und einem kleineren Elefanten: Meh, weil statistisch nicht sehr realistisch, Statistische Aufgaben lösen: Ohja, gerne. Wir sind noch in der „Alle Probleme sind ein Nagel für meine Hammerlösung“-Phase, ich halte es da mit Linus Torvalds („90% Hype, 10% Realität“)
Sehr interessante Folge. Mir fehlt hier aber wie so oft das Nachdenken darüber, wieviel Energie bzw welche physischen (fossilen) Ressourcen dabei verschwendet werden. Wo soll die ganze Energie herkommen, wenn jedes noch so kleine Problem mit KI gelöst wird, und sie zudem noch ohne jedes Maß zur Unterhaltung eingesetzt wird? Wir haben ja jetzt schon einen Energieverbrauch über jedes vernünftige und nachhaltige Maß hinaus, wozu das Internet auch ohne KI schon viel beigetragen hat.
Ich finde es gut, dass Tim in dem Beitrag auch mal kritisch auf einen Punkt zu sprechen kommt: Immer mehr AI-Output wird gleichzeitig auch wieder AI-Input – und was das für die Systeme bedeuten kann!
Wo sind die Grenzen? Kann dadurch sogar eine Degeneration der Modelle stattfinden? Falls ja, wo ist der Kipppunkt?
Und der Vergleich zum Rinderwahnsinn/BSE passt ganz gut.
Ich hatte diese Problematik vor Jahren schon „Wissensinzucht“ genannt – schön, dass es jetzt endlich mal jemand anspricht.
Auch wenn ich AI bereits selber in meinen (Berufs)Alltag integriert habe (coding), bin ich trotzdem skeptisch auf die Frage: „kann AI neues Wissen schaffen oder entwickeln?“
Natürlich können die Modelle sehr gut mit bisher gelerntem umgehen (Code, Papers, Wikis, Literatur etc), aber wirklich echtes, neues Wissen schaffen?
In der Medizin beispielsweise sind viele Entdeckungen Zufallsfunde. So wie der Betablocker Propranolol hauptsächlich zur Behandlung von Herz-Kreislauf-Erkrankungen eingesetzt wird und dabei nur zufällig entdeckt wurde, dass dieser Wirkstoff auch das Wachstum eines Hämangioms (Blutschwämmchen) verlangsamen oder stoppen und sogar zu einer Verkleinerung führen kann. Etwas vergleichbares kann ich mir bei AI derzeit nicht vorstellen.