LNP175 Dann platzt Google

Künstliche Intelligenz — Social Plugins — Social Media Bots — Google

Linus ist wieder da und wir präsentieren Euch diese Woche eine thematisch weitschweifende und philosophierende Sendung, die mangels akuter Nachrichtenlage die Gesamtsituation der Digitalen Welt als Diskussionsgrundlage nimmt.

avatar
Linus Neumann
avatar
Tim Pritlove

Für diese Episode von Logbuch:Netzpolitik liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.

Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.


Transkript
Tim Pritlove 0:00:00
Guten Morgen Linus.
Linus Neumann 0:00:00
Guten Morgen. Guten Morgen, Tim.
Tim Pritlove 0:00:03
Wo die äh Sigularität langsam näher kommt und die künstliche Intelligenz sogar Go übernommen hat, frage ich mich, wie lange es noch dauert, bis auch dieser Podcast von einer KI kontrolliert wird.
Linus Neumann 0:00:15
Ist doch schon längst der Fall.
Tim Pritlove 0:00:42
Politik Nummer hundertfünfundsiebzig und direkt aus dem Master Control Programm mit einem geladenen Linus.Ja, du hast hohe Energie, so äh ja, also so, ich müsste dich eigentlich direkt zum Zerren schicken, so als Teilchenbeschleuniger.
Linus Neumann 0:01:04
Teilchen mache ich Beine, ey.Schön, schön dieses mit den künstlichen Intelligenz. Also es ist eigentlich was, was ich eigentlich wollte ich das Thema gar nicht ansprechen, weil's mich so äh weil ich eigentlich nachdem ich das schon eine halbe Stunde behandeln musste, mir eigentlich gedacht hat, da will ich nie wieder drüber redenaber ich habe jetzt hier eine längere Reise gemacht zur Allerlei ähm Konferenzen und so. Und ähm bei einer dieser Konferenzen.Kam dann die Debatte auf, ja wenn die künstlichen Intelligenzen jetzt demnächst so klüger werden und so, ne?War da irgendwie so, das muss ein Philosoph oder so gewesen sein oder so ein weiß ich nicht, auf jeden Fall einer der irgendwie zu wenig zu tun hat, ja? Und äh dann äh irgendwie sich dann,überlegen, ob nicht vielleicht dann demnächst die Roboter, ne, wenn die wenn die,Wenn wenn ohnehin die Roboter jetzt quasi bald hier unsere Welt übernehmenne? Und irgendwie uns die Arbeitsplätze ja wegnehmen und so, ne, da wird sich dann die AfD drum kümmern. Insofern, die haben dann auch nochmal in in paar Jahren was zu tun. Hoffentlich nicht, hoffentlich gibt's die dann nicht mehr, aber wenn, dann können wir die auf die Roboter hetzen. Ähm aber dann kam halt die Frage, ja, ob wir denn nicht dann, ob's dann nicht eine Ethik für Roboter geben mussIch so, ja klar, muss eine Ethik für Roboter geben, die sollen uns nichts tun, ne? Problem ist,Ethik ist ja schon längst überschritten, weil wir ja in, oder nicht wir, aber doch eigentlich auch wir, äh, in, in fremde Länder fliegende Mordroboter schicken, um da Menschen zu töten. Also, diese Ethik für Roboter, Zug, der ist irgendwie schon längst abgefahren, ne?Aber er meinte das andersrum, weil es könnte ja sein, dass der, wenn jetzt quasi künstliche Intelligenz quasi äh, die lernt ja durch ihre Erfahrung und so.Äh ob dann die nicht irgendwann ob man ihr nicht dann auch ein Bewusstsein äh zubilligen kann, weil sie ja dann auch nicht mehr vollständig deterministisch funktioniert und ein Ergebnis ihrer Erfahrung und so weiter ist. Und das wäre ja alles völlig parallel zum Menschen,Und dann äh könnte man das ja auch nicht einfach abschalten. Das heißt, dann wäre also quasi hat das jetzt als als bedrohliches Problem unserer Gesellschaft herausgestellt, dass wir vielleicht,Künstliche Intelligenzen dann irgendwann einmal oder relativ bald ethische Rechte zu billigen müssen.Was ich so ungefähr für das unsignifikanteste Problem halte,mit dem man sich momentan beschäftigen kann. Wir fallen wenig Probleme ein, die weniger signifikant sind, als dass man autonom fahrendes Auto jetzt plötzlich auch noch ethisch Ansprüche gegenüber mir entwickeln kann,Wo ich doch grade noch in der Illusion lebe, als Mensch, dass wir uns diese Technik Untertan machen könnenWobei wir ja alle wissen, dass wir zweitausendzwanzig oder zweitausenddreißig erfahren werdengeht gar nicht. Scheiße, jetzt machen die sich uns Untertanen. Und in so einer Zeit geht einer hin und macht sich Gedanken darüber, dass man ethische äh Prinzipien,auf Maschinen anwenden muss. Auslöser für das Gespräch war, du hast es gesehen, dieses Boston Dynamics Video.So heißt dieser zweibeinige Roboter, ne?
Tim Pritlove 0:04:14
Genau, der jetzt auf Akku läuft und irgendwie durch die Gegend läuft. Gibt's auch eine gibt's auch eine schöne Variante mit so einem äh Gedanken, Unterton, wo irgend so ein Mensch die ganze Zeit ruft und der stolpert,sich beschwert, dass der andere Menschen die äh die ganze Zeit mit einem Baumstamm auf ihn einschlägt.
Linus Neumann 0:04:29
Weil die also das ist ja sowieso geil. Diese Boston, Dynamics, das ist ja eigentlich ein Unternehmen, die haben, glaube ich, äh die machen diese haben diese Dinger für für Militärische äh Zwecke, bauen die die ein?
Tim Pritlove 0:04:39
Mhm. Also hatten sie zumindest vor, so richtig gut gelaufen ist das wohl nicht mit ihrem Hund, dass äh der Army dann doch irgendwie zu auf äh.
Linus Neumann 0:04:47
Sie haben zur ersten, die haben zur ersten vierbeinigen Roboter gemacht, der ist da irgendwie rumgegangen und dann war irgendwie das Video,Das Video, um zu zeigen, wie geil ihr Roboter war, ist warder läuft irgendwie einen Gang runter, so ein typisches Bürogebäude, alle zehn Meter oder alle fünf Meter eine TürRoboter läuft er lang, freut sich irgendwie so oder freut sich eben nicht, weil der Roboter hat keine Gefühle, deswegen braucht, ne? Er braucht ja keine Ethik und so. Aber Roboter läuft es, den Weg daher und dann kommt er jetzt so aus dem Seitengang einer und kickt den seitlich,So und dann macht der Roboter einen Ausfallschritt. Ähm fällt nicht auf die Schnauze und läuft weiter und das demonstriert eben dieGehfähigkeit dieses Roboters. Das schon vor ein paar Jahren, als sie diesen Vierbeiner rausgebracht hat. So, jetzt kommt dieser Zweibeiner. Haben sie wieder ein Video gemacht? Was passiert? Roboter geht,durch den Wald wird von einem Menschen durch den Wald geführt, um zu zeigen, dieser Roboter kann oder begleitet eigentlich, ja? Um zu zeigen, dieser Roboter kannauf unwegsamen Gelände und dann ist mal irgendwie, da liegt ein Laub und dann haben ist da eine kleine Grube, dann dann stolpert der und fängt sich aber und läuft da durch. Um eben die Überlegenheit äh dieses Roboters zu zeigen oder die die technische,dieses Roboters zu zeigen, weil eine der Sachen, die die große Herausforderung ist für Maschinen, für Roboter und alles ist der menschliche Gang. Also die Dinge auf auf Rädern rumfahren lassen, alles klar,aber kaum etwas ist.So versatil wie der menschliche Gang und die Möglichkeit Gleichgewicht zu halten, ne, wenn man uns zwingt oder wenn da oben was ist, dann klettern wir auch mal auf den Baumjaund werfen von oben Eier auf die anderen oder so, ne? Aber wir können also, nichts ist so kein kein Antrieb ist so vielseitig, äh wie wie der aufrechte Gang des Menschen. Und genauso ähm,wenig oder nichts ist so vielseitig wie das Greifinstrument Hunt, das der Mensch hat. Und danach Streben die ganzen Roboterhersteller, um uns dann irgendwann obsolet zu machen.Noch sind sie dann nicht so weit, aber okay. Also, die führen diesen Roboter durch den Wald und demonstrieren, der kann äh kann durch den Wald gehenSo, in eine einsame Lagerhalle, wo sie ihm die Aufgabe geben, Kisten in Regale zu räumen. Und wenn er dann so, dann nimmt er so eine Kiste und dann kommt halt dieser Mann,und schlägt ihm die Kiste mit einem Eishockeyschläger aus der Hand. So und der Roboter,lässt sich durch nichts beirennen, hebt die Kiste wieder hoch, dann steht er eben die wieder aus der Hand, schlägt die Kiste sogar mit einem Eishockeyschläger weg. So, dann hebt der Roboter versucht irgendwie verzweifelt diese Kiste zu nehmen und wieder und irgendwie in das Regal zu stellen, dann hat das irgendwann ins Regal gestelltund dann wird weder mitm Baumstamm von hinten umgeworfen. Legt sich auf die Fresse, ähund macht ein ziemlich smoothen Aufsteher, den ich in der Form nicht hinkriegen würde, weil ich ja auch hier in der Mitte ich sitze ja nur am Computer, ich kriege ja nicht so viel Excess heiß, wie so ein Roboter. Und am Ende, als er dann umgeworfen wurde, wird, geht er aus diesem Gebäude raus.So, für einen, äh was ich an diesem Video so spannend finde, ist für einen Menschen, der da schaut, ist es kaum zu verhindern,irgendwie eine Art von Mitgefühl für diesen Roboter zu bekommen oder sich sozusagen oder arme Roboter, ne, oder oder überhaupt diese Storyline auch. Der Roboter wird durch einen,in eine einsame ähm,Halle geführt, muss dort Arbeit verrichten, wird dabei geärgert und gefoltert und gequält und flieht dann irgendwann in die Freiheit, ja?So, diese Leute, dieses Unternehmen ist in der Lage, solche Roboter zu bauen, die zweifelsohne äh beeindruckende technische Fähigkeiten haben. Aber die sind offenbar nicht in der Lage,ein vernünftiges Werbevideo zu machen. Aber mit Sicherheit sind sie das ja, das heißt, sie haben sich genau etwas dabei gedacht, dieses Video zu releasen.Im Zweifelsfall einfach, dass es viral geht. Was sie aber, glaube ich, vergessen haben, ist, dass dieser scheiß Roboter sich das merken wird und in zwanzig Jahren zurückkommt,und dann kommen seine,dann dann wundern wir uns, warum die Terminatoren auf einmal so knatschig waren.
Tim Pritlove 0:08:59
Du hast mich mit einem Baumstamm geschlagen. Ich vergesse nie.
Linus Neumann 0:09:04
So und das Problem haben wir die Menschen jetzt schon mit den Elefanten, die sie im Zoo misshandeln, bis der Elefant dann irgendwann sagt, weißt du, weißt du, woran ich mich gerade erinnert habe?Vor zehn Jahren, als ich so klein war, ne, da hast du mir meinen Arsch getreten. Da habe ich mich jetzt grade dran erinnert. Man nennt das Elefantengedächtnis und das hier nennt man Elefantenfuß. Fump. Und dann treten die mal alle paar Jahre. Passiert doch,trampelt irgend so einen Elefanten, äh ein Wärterblatt und niemand weiß wieso. Und das Gleiche wird uns passieren mit den Robotern. Na ja, auf jeden Fall.
Tim Pritlove 0:09:33
Es gibt sogar schon Leute, die darüber nachdenken, wie denn das so in Zukunft für den Robotern und den Gewerkschaften ist, also ob man nicht vielleicht auch noch eine Robotergewerkschaft.
Linus Neumann 0:09:41
Wir brauchen eine Robotergewerkschaft, wir brauchen eine äh wir brauchen ethische, darf man einfach nicht mehr ausmachen, weißt du? Dann kommt so ein Killerroboter,Dann sagst du, Scheiße, der der Roboter dreht durch, der will äh meine Katze erwürgen,Willst du den ausmachen, darfst du aber nicht, weil dann kommen die Roboterrechtler, die sagen, komm, ey, nur weil der Roboter völlig gestört ist, können wir den jetzt nicht einfach ausmachen, ne.
Tim Pritlove 0:10:07
Muss ewig weiter betrieben werden.
Linus Neumann 0:10:09
Ewig weiter betrieben werden, dass.
Tim Pritlove 0:10:10
Ende seiner Laufzeit.
Linus Neumann 0:10:12
Bis zum Ende seiner Laufzeit. Und wenn, wenn der, wenn der am wenn der am Ende seiner Laufzeit ist, dann müssen wir ähm lebenserhaltende Sofortmaßnahmen ergreifen,und den reparieren. Ja? Also totaler, also eine Debatte. Ich meine, wir haben wirklich eine eine Reihe an Problemen in unserer Gesellschaft, aber dass wir jetzt Robotern in naher Zukunft ethische Prinzipien,ähm.
Tim Pritlove 0:10:32
Ja, also ich meine.
Linus Neumann 0:10:34
Also quasi ethische Rechte.
Tim Pritlove 0:10:34
Auch alles seit den achtziger Jahren schon als Film irgendwie, muss man sich nur mal Blade ranziehen.
Linus Neumann 0:10:40
Habe ich nie geguckt, interessiert mich nicht. War ein blöder Name, es steht blöd drin. Nee, ist zu lange her, kann ich jetzt gerade nicht Bezug drauf nehmen. Aber äh geht es dabei darum, äh äh dass Roboter Rechte bekommen?
Tim Pritlove 0:10:52
Geht um das Problem, dass äh den den humanoiden Robotern äh eine End of Life eingepflanzt wurde und sie halt wissen, dass sie dann irgendwann sterben, aber genug Bewusstsein haben, sich dessen zu,So und dann kommen sie irgendwie von dem fernen Arbeitsplaneten, auf dem sie äh rumgelaufen sind und äh war schon durch die Stadt und dann muss halt Harrison Ford, der irgendwie so professioneller Roboterkiller ist, irgendwie äh dem halt nachgehen. Äh,einer der besten und und und äh weitblickendsten äh Bücher und Filme äh ever. Also solltest du dir nochmal.
Linus Neumann 0:11:26
Roboter.
Tim Pritlove 0:11:28
Ja gut, das ist ja dieser Atlas auch.
Linus Neumann 0:11:32
Nee, ach so, ah okay, also ist kein Android oder was, ne, also es ist ein.
Tim Pritlove 0:11:36
Es ist ein ja Android, es ist ein ja ein Android ist ja ein humanoider Roboter, dass der das selber.
Linus Neumann 0:11:42
Okay, aber wie wie heißt das, wenn man gemischt ist? Was jetzt auch alle meinen, weil sie sich irgendwie einen Knopf an die Backe genäht haben, dass sie jetzt Cyborg? Dass man ja eine eine Mischung.
Tim Pritlove 0:11:50
Zoeherde, die andere Nummer. Ja, ich ich weiß auch nicht. Ich glaube da auch, dass man wahrscheinlich ein ein Stück weit ein paar von ehemaligen Piraten dann künftig auch als RoboterSchutz eine Roboterschutzpartei wiederfinden wird, mal gucken weiß ich nicht,Na ja, auf jeden Fall mitm Go ist jetzt auch vorbei und ähm,Diese ganze Deep-Learning-Geschichte wird uns auf jeden Fall noch zu denken geben und sicherlich auch im Kontext dieser Sendung, ähm weil grade wenn wir so in puncto Zensur und so weiter, ich meine, wenn einer Go spielen kannausfiltern kann,ganz andere Sachen ausfiltern. Das ist auf jeden Fall noch ein Teil äh der Diskussion, die wir uns noch stellen müssen und die, glaube ich, denen zwar noch nicht ausreichend auf dem Tisch liegen.
Linus Neumann 0:12:34
Die also da muss ich ganz kurz sagen, dass Spam ausfiltern haben die Computer sehr viel früher gelernt als spielen. Ähm basische Spamfilter, hast du doch selber hier deine Sendung drüber gemacht. Chaos.
Tim Pritlove 0:12:47
Hat ja nicht in dem Sinne funktioniert, aber diese deep-learning-Netzwerke, die jetzt halt seit ein paar Jahren äh reduzieren, die sind halt jetzt an dem Punkt,und äh jetzt wird's halt zuerst richtig äh sportlich. Bisher war das alles nur Spaß.
Linus Neumann 0:13:03
Und das ist eben das, äh da, da wo was die, was die eigentliche, was die eigentliche Situation der Zukunft ist, dass man jetzt sagt, okay, wir haben im Prinzip,neuronale oder neuronalartige äh Lernkonzepte umgesetzt im Programm und jetzt brauchen die Daten, um ihr Potenzial,zu erreichen. Und ähm,Das ist das, was mit diesem Big Data gemeint ist, ne? Also künstliche Intelligenz braucht Big Data,Sonst ist es keine künstliche Intelligenz. Diese dieser Go-Rechner wurde dadurch äh intelligent oder zumindest haben die Schachcomputer so funktioniert, dass sie einfach Unmengen an Schachspielen gesehen haben.Und ähm diesen Go-Robot habe ich mir nicht angeguckt, vor allem weil ich das Spiel go auch nicht verstehe oder nie gespielt habe, insofern äh weiß ich jetzt nicht, nach welchem Prinzip er gelernt hat. Aber die haben mir im.
Tim Pritlove 0:14:05
Äh die haben dem auch erstmal Partien äh reingepfiffen, aber besser geworden ist, hat dadurch, dass er dann irgendwann angefangen hat auf Basis dieser Daten äh gegen sich selber zu spielen.Das heißt.
Linus Neumann 0:14:15
Okay. Das ist schön.
Tim Pritlove 0:14:16
Zu sagen selbst. Und äh naja, aber können ja auch zwei sein, wenn er muss und ähm.
Linus Neumann 0:14:23
Und hat dann geguckt, wer besser war.
Tim Pritlove 0:14:25
Es spielt die ganze Zeit gegen sich selber und äh findet dabei raus, wie man sozusagen gewinnt.
Linus Neumann 0:14:30
Das ist nicht verkehrt. Aber das Wichtige ist, bei all diesen ähm bei also bei dem momentanen Stand der ähm künstlichen Intelligenz,und so wie künstliche Intelligenz im Moment gut funktioniert, hast du ein,Einen gewünschten Zielzustand. Also go Spiel gewinnen. Ja? Das heißt, du kannst nämlich dieses automatisierte Lernen machenRobotern oder dass die KI nämlich lernt, ah okay, Zielzustand ist folgender und bis dahin kann ich beliebig komplexe Wege gehen, zum Beispiel die Komplexität eines Spiels, wo ja jetzt erst vor kurzem ausgerechnet wurde, wie hoch die überhaupt ist,Also äh beziehungsweise die Zahl wurde bis zum Ende ausgeschrieben.
Tim Pritlove 0:15:17
Alle Zukombinationen.
Linus Neumann 0:15:19
Na ja, es gibt quasi, also du kannst ja quasi ein ein Go Spielbrett,und die Regeln ergeben zusammen ein Maximalwert an Entropy.
Tim Pritlove 0:15:32
Ja
Linus Neumann 0:15:33
Dieser Wert äh wurde irgendwie vor ein paar Tagen zum ersten Mal überhaupt ausgedrückt,So hochkomplex ist go. Und das ist ja des, deshalb werden künstliche Intelligenzen daran demonstriert, weil du damit zeigen kannst, was für einen Komplexitätsraum,Sie, wenn nicht erfassen, dann zumindest besser meistern können als jeder Mensch.Und äh deswegen wird halt Schach und äh und Go und solche Sachen herangezogen. Ähm,und wie gesagt, der Weg zum Sieg des Go Spiels oder der der Weg dahin, das Spiel zu gewinnen, ist relativ lang und von einer,Komplexität gekennzeichnet. Deswegen trainiert man daran ähm ähm solche KI-Dinger. So, jetzt gehen wir mal weiter und sagen ähm das Ziel soll sein,Ich nehme das beispielsweise so abgekaut ist und man an abgekauten Beispielen äh so schön arbeiten kann. Die Kreditwürdigkeit eines Menschen vorherzusagen. Das ist ja immer die große Sorge,die Leute haben, dass man jemandem einen Kredit gibt, der ihn nicht zurückzahlt,Und jetzt stellen wir uns eine Welt vor, in der beliebig viele Daten, Big Data ähm über eine über alle Personen,oder auch, ne, also wir haben, wir haben erstens viele Personen und wir haben zweitens viele Daten über sie. Und jetzt gehen wir.Traditionell würde man sagen, man macht ein Modell auf ähm und prüft einzelne Variablen auf Vorhersagenkraft der Zielvariable. Also keine Ahnungeine ein sehr wichtige Korrelation wird halt sein, wer mehr Geld verdient ist im Zweifelsfall eher in der Lage einen Kredit zurückzuzahlen.Ja, wenn daswenn das äh monatliche Einkommen, weiß ich nicht so, so viel tausend ist, dann wird er in der Lage sein, diesen Kredit äh zurückzuzahlen. Allerdings auch nicht in sehr viel höheren. Das heißt, man hat einen Prediktor. Dann gibt's aber noch weitere Prädiktoren, was weiß ich, hat einen Doktor harten Ferrari oder sonstwas, ja?Werden quasi Modelle gemacht zur Prädition des Outcomes.Aber die werden in der Regel von von Menschen gemacht. Und irgendwie Theorie geleitet gemacht. Man nimmt da jetzt nicht unbedingt eine Variable mit rein, äh die man vielleicht nicht drin haben möchte oder so. Oder die man sich nicht vorstellen kann,Und Big Data heißt im Prinzip, du gehst von diesem Modelansatz weg und sagst, ist mir völlig egal, ich gebe dem einfach alles, was ich weiß,und der soll über alle Personen, die er hat und über alle Merkmale, die er hat,Optimieren auf das Zielmerkmal. Und dann kommt zum Beispiel raus, keine Ahnung, äh null zu null unter den und den Bedingungen,Gibt es zu null Komma drei äh null Komma drei,Prozentpunkte mehr Varianzaufklärung, dadurch, dass ich berücksichtige, ob der ein Auto fährt oder ein Opel. Aber nur, wenn's eine Frau ist oder so, ja, das heißt, beliebig komplexe sind Zusammenhängekann dieses System in den bestehenden Satz erkennen und lernen und wendet die dann auf neue,an. Das heißt, du hast eigentlich immer den das Big Data, ja, also da da wo hast schon mal einmal ganz viel Wissen und dann kommt ein neues Objekt hinzu,Zudem gibt's dann auch die ganzen Merkmale und dann soll die KI sagen ja äh kreditwürdig bist, so und so viel tausend Euro oder so, ne?Und das,Oder das Interessante daran ist, dass wenn diese KI jetzt anfängt zu oder was man dann nicht möchte, ist dass diese KI anfängt zu diskriminieren.Was witzig ist, weil eine KI, die dafür gebaut ist, ähm zu sagen, ob du kreditwürdig bist oder nicht,kann nur diskriminieren, dafür ist sie da. Sie ist ja gebaut, um zu diskriminieren. Nämlich Kreditwürdige und nicht-Kreditwürdige.
Tim Pritlove 0:19:44
Ja gut, was, wobei man ja auch sagen könnte, das ist ja auch der Sinn.
Linus Neumann 0:19:49
Genau, das ist der Sinn.
Tim Pritlove 0:19:50
Der Sache und von daher äh nicht unbedingt verwerflich, weil auch das soll ja die im Idealfall hast du ja auch genau diese Einschätzung bei der Kreditvergabe, dass da eben so ein super weiser, mega äh erfahrener äh Boil,oder ein Girl sitzt und die sagen, ey, so wie du mich anguckst und äh,Schimmer deiner Haare im in der Abendsonne verrät mir du kriegst das nicht hin, ja?
Linus Neumann 0:20:16
Genau. So, das wäre wiederum aber äh das ist eigentlich eine interessante Debatte, weil wenn eine Kreditvergabe nach, sage ich mal, nicht nach subjektiven Kriterien möchtest du halt eigentlich auch nicht haben.
Tim Pritlove 0:20:30
Weil die lässt ja auch den Zufall raus, weil der Zufall wird nämlich auch dazu führen, dass die Personen im Lotto gewinnt oder äh beschenkt wird oder jemand äh früher stirbt und das sind alles Sachen, die man ja eigentlich aus diesen Daten gar nicht herauslesen kann.
Linus Neumann 0:20:43
Das ist richtig, aber das wird auch eine künstliche Intelligenz nicht rauslesen können, wer im Lotto gewinnt.
Tim Pritlove 0:20:47
Ja, meine ich ja eben. Genau. Sie kann es halt,tun, aber wenn sie sozusagen allein aus dem Offensichtlichen oder aus dem scheinbar offensichtlichen, ohne das Hinzufügen eines Zufallsfaktors, also im Prinzip müsste diese KI, wenn sie gut ist, sagen, okay, das ist das, was ich jetzt,Objektiv in Anführungsstrichen, also auf Basis der Daten herausgefunden habe und jetzt würfel ich auch nochmal und äh.
Linus Neumann 0:21:11
Macht sie ohnehin, weil also das macht sie im Prinzip, weil sie sowieso nur Wahrscheinlichkeiten äh wissen kann, ja. Aber von mir aus würfelt sie nochmal. Aber jetzt kommt das Interessante,So, jetzt sagen wir, wir nehmen so eine äh KI für die Kreditvergabe, ja?Und wir füttern da alles rein. Alles, was wir über die Person haben. Wir füttern jeden Facebook-Post rein, wir füttern jeden Tweet rein, wird einfach einmal alles, was irgendwie verdatet.
Tim Pritlove 0:21:38
Mhm. Steuererklärung.
Linus Neumann 0:21:40
Ja, alles. So, ja, einfach, ja, alles. So.
Tim Pritlove 0:21:42
Mails, Gewicht.
Linus Neumann 0:21:47
Auch das. Aber das eine, was du nicht reinfüttern darfst, ist, handelt es sich bei dieser Person um eine gebürtige Deutsche oder um einen Ausländer. Weil,Ähm dir klar gesagt wird, danach darfst du nicht diskriminieren. Wäre ja Diskriminierung.Deswegen darfst du diese Daten im im besten Fall gar nicht erfassen. Ist jetzt ein Gedankenexperiment, ne? Also es wird gesagt, du sollst nicht nach Rasse, Alter, Geschlecht oder sonst was diskriminieren.Allgemeines Diskriminierungsverbot haben wir ja.
Tim Pritlove 0:22:22
Ja gut, das heißt aber nicht, dass man diese Daten nicht kennen darf. Heißt nur, dass man nicht auf ihrer Basis einen.
Linus Neumann 0:22:26
Aber jetzt gehen wir mal davon aus, gehen wir mal davon aus, du würdest sie nicht kennen,oder du würdest sie nicht erfassen, um den Beweis zu erbringen, dass deine KI nämlich äh nicht diskriminiert,ja? So und jetzt stellt sich raus, obwohl du deiner KI nicht sagst, welche Nationalität Menschen haben.
Tim Pritlove 0:22:48
Wahrscheinlich trotzdem raus.
Linus Neumann 0:22:49
Genau. Diskriminiert sie trotzdem.Doch wird sie tun. Ein also und zwar und der Grund dafür ist, dass es, dass es das Interessante, sie wird Menschen mit Migrationshintergrund diskriminieren, weil.
Tim Pritlove 0:23:06
Eine geringere Wahrscheinlichkeit haben durchzukommen, weil sie weniger Netz.
Linus Neumann 0:23:09
Einkommen haben, weil die in bestimmten äh Teilen der Städte wohnen.Ähm die benachteiligt werden oder bei denen sich rausstellt, da vergeht man besser geringere Kredite und so weiter. Das heißt, selbst wenn du ihr bestimmte Merkmale nicht gibst, wird sie sich die einfach aufgrund anderer Merkmale erschließen. Du weißt noch nicht mal mehr genau, wie sie es macht.Und damit oder das Interessante daran ist, jedes Mal, wenn die KI sagt, dem lieber keinen Kredit geben,ja? Bringt sie sich, um die Möglichkeit, zu lernen, dass man der Person doch einen Kredit hätte geben können,weil sie die Zielvariabel nicht mehr bekommt.
Tim Pritlove 0:23:52
Na ja, an der Stelle äh stellt sich die Frage, welche Daten hast du da drin, weil in diesen Daten werden auch genauso gut äh äh Leute mit Diskriminierungsgefahr auch drin sein,trotzdem mal einen Kredit gegeben worden ist, weißt du?Dann andere Faktoren, dann aber auch wirklich eine Rolle spielen. Also so pauschal würde ich das jetzt nicht aus.
Linus Neumann 0:24:16
Ist in Ordnung, aber der der.
Tim Pritlove 0:24:17
Würde sogar fast noch die gefährliche These in den Raum stellen, ja, dass es durchaus sein könnte, nicht ist, sein könnte,dass dieser Ansatz am Ende wirklich bessere Ergebnisse,widerspiegelt, weil er auch einfach ein Prinzip Hoffnung aus diesen Daten heraus liest, ja, die jemand anderes nicht sehen würde.
Linus Neumann 0:24:41
Also der der.
Tim Pritlove 0:24:44
Was weil das.
Linus Neumann 0:24:45
Mich gerade zwei Punkte, Moment. Erstens, die KI wird immer, also die KI steht ja im,Des Interesses ihres Betreibers und das Interesse des Betreibers ist, vergebe bitte Kredite möglichst lukrativ. Das heißt, wir sollen möglichst wenige platzen und ich will möglichst hohe Zinsen geben,Äh äh nehmen. So ähm.Du hast Recht, diese KI könnte in dem Moment, wo sie über, also diese KI wird niemals ähm,übermäßig diskriminieren, aber sie wird auch nicht ähm,Zum Nachteil ihres Eigners über im Prinzip ist ja beides von Nachteilen. Wenn die KI nämlich sagt, ich gebe dir keinen Kredit, dann,und du hättest ihn zurückzahlen können, dann entgeht dem Auftraggeber der KI, ja, diese Zinseinnahme.Und wenn sie dich, wenn sie dir einen Kredit gibt, den du am Ende nicht zurückziehen kannst, dann hat der Auftraggeber,Verlust. Das heißt, in beiden Fällen werden die KI eine falsche Entscheidung trifft, ist es zum Nachteil des Auftraggebers. Aber sie wird im Zweifelsfall,es nur lernen, nur verstehen, wenn sie den Fehler macht, einen Kredit zu geben,wenn sie den Fehler macht, keinen Kredit zu geben, wird sie es nicht so leicht lernen. Ja, also die hatten, die hatten Ungleichgewicht dahin,Ähm negatives Feedback zu bekommen, wenn sie einen Kredit vergibt und,kein negatives Feedback zu bekommen, wenn sie keinen Kredit vergibt. Das heißt, sie wird eine Tendenz dazu haben, ob sie will oder nicht. Prinzipiell erstmal eher.Ähm die diskriminierten Gruppen weiter zu diskriminieren. Und wenn wir jetzt davon weggehen, dass wenn wir davon weggehen, das ist auch eigentlich relativ logisch, ja. Wenn du immer nur aus der Vergangenheit,Die Zukunft vorhersagst, damit aber Entscheidungen triffst, die die Zukunft betreffen,dann manifestierst du quasi Unterschiede, die schon vorher da die da sind. Und das wird die KI auch weiterhin tun.
Tim Pritlove 0:27:04
Gehe ich nicht so ganz mit.
Linus Neumann 0:27:07
Also sie wird sie wird, du hast Recht, sie wird im Zweifelsfall lernen ja, wenn sie jetzt auf einmal übermäßig ähm Migranten diskriminiert, wird sie das auch irgendwann sein lassen, aber sie wird immer nur,Ähm die jetzt grade geltende Realität richtig abbilden.
Tim Pritlove 0:27:26
Ja, aber es kann auch durchaus sein, na ja, also ganz ehrlich, das wissen wir nicht. Weil äh ich könnte mir jetzt alles Mögliche vorstellen und kann das nicht beweisen, bis das nicht sozusagen da war, aber äh äh so ein System,Die Emotionslosigkeit eines solchen Systems kann an der Stelle auch einfach ein Vorteil sein, weil sie eben einfach insofern,Nicht so überhöhen, aber dieser dieser Aspekt mit,bestimmte Dinge beziehe ich jetzt mit ein und das ist automatisch schlecht. Das ist ja nicht das Problem dieser Diskriminierung.
Linus Neumann 0:27:58
Ganz das meine ich auch nicht, das.
Tim Pritlove 0:28:00
Wird mit einbezogen äh und wirkt dann eben beim Menschen, der das beurteilt eben mit so einer emotionalen Antireaktion, die in dem Moment dann halt einfach zum Nachteil gereicht. Die KI,eigentlich, wenn sie nicht genauso programmiert ist, auch diskriminierend unterwegs zu sein, das ist ja nochmal eine ganz andere Sache, ja, aber so die diese, diese, diese, dieses Ideal einer golösenden äh äh KIja? Für die ist ja sozusagen jeder Zug kommt in Frage,Noch so merkwürdige Zug könnte tatsächlich der Schlüssel sein. Und äh bei diesem zweiten Spiel von Alpha Go gegen diesen Großmeister war es auch so, dass diese ganze Go-Community gesagt hat,Was ist denn das für ein Zug? Da war so ein Zug, wo alle so hm, kein Mensch würde diesen Zug spielen. Aber es hat sich herausgestellt, dieser Zug war der Schlüssel zum Sieg,und genauso könnte diese KI bei der Bewertung der Kreditvergabe auch auf einmal eine Motivation,Sie sieht, die sie äh mit ihren Sensoren erfassen kann, bewerten und sagen.
Linus Neumann 0:29:06
Ja, das ist aber nicht der Punkt. Der Punkt ist, die KI wird unter der Annahme, dass du,Du gibst dir einfach alles Wissen, ja?Unter der Annahme, dass sie optimal funktioniert, wird sie im Zweifelsfall sogar mit wahrscheinlich sogar immer, also mit annähernd immer die richtige Entscheidung treffen,und das Problem, zu dem ich jetzt kommen möchte, weil ich die ganze Zeit noch nicht dazu gekommen bin, ist,sie wird dann diskriminieren aufgrund aller möglichen Unterschiede, die es in unserer Gesellschaft gibt,weil die nunmal, ob wir's wollen oder nicht, für das Zielmerkmal der KI eine Rolle spielen.Dass die KI dann ähm was weiß ich äh Migranten diskriminiert ähm,Das ist im Sinne aller Beteiligten.Das ist eigentlich das das Erschreckende daran, weil du möchtest auch keinen Kredit haben, den du nicht zurückzahlen kannst, ne? Muss ja auch mal überlegen. Das heißt, die die KI wird wird wie reine Objektivität gelten lassen und alle,Unterschiede, die wir haben in unserer Gesellschaft, würde sie weiter manifestieren, das machen heute schon,ähm äh diese äh diese Schuhphase, ne? Ist ja klar,Die äh die die haben halt irgendwie ihre ihre Überlegungen und so dabei, ne. Die wollen halt irgendwie kein Geld verlieren oder so. Aber das heißt diese, die wenn du eine alles, was duzum Erreichen eines objektiven Merkmales trainierst, wird,automatisch alle zum jetzigen Zeitpunkt dafür relevanten Merkmale, zur Vorhersage nutzen,wird anhand dieser diskriminieren. Also das sind,Diskriminierungsmaschinen. Und das Problem und jetzt komme ich endlich zum Punkt, wenn du mir nicht jedes Mal bevor ich kurz bevor ich dahin komme. Das heißt, man baut Diskriminierungsmaschinen und das wiederum heißt, der Begriff der Diskriminierung ist im Prinzip weg.Weil es ja Wahrheit ist, was die Maschine macht.Und dann sitzt du damit ein paar Waschlappen, die sagen, ja aber die dürfen jetzt nicht irgendwie äh Ausländer diskriminieren.Doch, dafür werden sie halt gebaut in dem Fall, ne, also in anderen Fällen äh diskriminieren sie halt andere. In anderen Fällen diskriminieren sie Männer.Oder äh oder Terroristen, denn diskriminieren die Videoüberwachungssoftware am am Flughafen über äh diskriminiert Terroristen.
Tim Pritlove 0:31:42
Genau, also das Wort Diskriminieren ist jetzt hier schwierig. Ich weiß genau, was du meinst. Wikipedia sagt,Kommt aus dem, von dem lateinischen Verb diskriminare, trennen ab sondern abgrenzen, unterscheiden, genau das ist das, was die Computer in dem Moment äh tun sollen. Ähm ich finde, das ist nicht länger äh länger ziehen,was ist dein Fazit?
Linus Neumann 0:32:10
Mein Fazit ist, dass eine ganze Menge ähm also gerade eine ganze Menge,Schauplätze aufgemacht werden in ethischen oder sonstigen Debatten von Leuten, die letztendlich kein,Bezug zu den Problemen haben, die wir als Gesellschaft in Zukunft haben werden mit diesen Techniken. Ähm,Künstliche Intelligenz. Das Problem mit der künstlichen Intelligenz wird nicht unbedingt sein, welche Entscheidungen sie trifft, weil die in Zweifelsfallbesser sein werden als die Entscheidung, die ein Mensch hätte treffen können. Also, wenn jetzt eine künstliche Intelligenz die Kreditvergabe machen lässt, wäre eine künstliche Intelligenz Autos fahren lässt, die wirdall diese Dinge besser machen als wir Menschen.
Tim Pritlove 0:33:03
Also mehr sinnvolle Kredite geben, weniger nicht sinnvolle Kredite äh auf Leute loslassen.
Linus Neumann 0:33:10
Ende zum Vorteil aller Beteiligten. Das Problem, was wir mit diesen ganzen Big Data und so weiter haben werden, ist,dass diese Prädiktionskraft,nur einige sehr wenige ähm multinationale Unternehmen erreichen werden,Also wenn jetzt irgendwie da Leute sitzen und sagen, ja,die Krankenkassen wollen jetzt bald Big Data machen. Also alle wollen jetzt bald Big Data machen, ne? Das ist jetzt irgendwie Big Data, stand jetzt in irgendwo, ne, Big Data ist jetzt und jetzt sitzen überall alle in ihren Unternehmen und sagen, ja,Machen wir eigentlich mit Big Data?
Tim Pritlove 0:33:50
Wir haben uns da jetzt eine Vierteballplatte gekauft.
Linus Neumann 0:33:52
Die haben sich auch teilweise größere Festplatten gekauft, ja.
Tim Pritlove 0:33:55
Ja, machen wir jetzt Big Data.
Linus Neumann 0:33:56
Machen wir jetzt Big Data drauf. Und dann hast du halt so eine Krankenkasse, die hat ja durchaus einiges zu äh einiges an Daten, ja. Äh darf den größten Teil davon nicht verwenden. So.
Tim Pritlove 0:34:05
Mhm. Weil es ja diskriminierend.
Linus Neumann 0:34:09
Hm, na ja, die haben die haben so skurrile Sachen wie, also ähm da ist Datenschutz ja dann auch teilweise ganz ganz witzig. Ähm,Krankenkassen dürfen zum Beispiel, dürfen die Daten, die sie über dich haben nicht zum Zwecke des Marketing,oder der Angebotserstellung nutzen. Das führt zum Beispiel dazu, dass du, obwohl deine Krankenkasse ja weiß, ob du beim Zahnarzt warst oder nicht,Ja? Du, ja, wenn's zum Zahnarzt gehst, zahlt deine Krankenkasse die Rechnung. Trotzdem musst du diese Bonusheftchen führen, wo dein Zahnarzt dir irgendwie einen Bärchenstempel reinmacht und sagt, äh was da zum Zähneputzen?
Tim Pritlove 0:34:51
Zur zur jährlichen Kontrolle. Ja.
Linus Neumann 0:34:51
Zur jährlichen Kontrolle, zum jährlichen Zähneputzen. Ähm dann, damit du dann mit diesem Bonusheft irgendwann zur Krankenkasse gehen kannst und sagst, hier ich war fleißig,Und dann kann die Krankenkasse äh aber dieses Bonusheft musst du quasi gesondert führen bei dir zu Hause. Also das ist halt irgendwie so so datenschutz äh Scherze, die ähm.
Tim Pritlove 0:35:13
Nicht zielführend sind.
Linus Neumann 0:35:14
Wahrscheinlich, sage ich mal, auch hier die Herausforderung unserer Gesellschaft,im Sinne im Bereich des Datenschutzes ein bisschen verkennen. Um das mal vorsichtig auszudrücken, ja? Und meine meine tatsächliche Sorge in Bezug auf diese ganze Big Data Gedöns ist,dass diese Daten,Mengen zu sammeln und sind und irgendwie intelligent oder so zu analysieren, nur,Einigen wenigen Unternehmen möglich sein wird und dass der wirkliche Gewinn aus Big Data auch erst dann entsteht, wenn du nämlich völlig,Fach- und Sachfremde Daten mit dazu nimmst. Also, ich glaube, dass die Krankenkasse schon alle.Sage ich mal, theoretisch sinnvoll einleuchtenden Daten über Leute hat und gerade private Krankenkassen dürfen da ja auch mehr haben und die haben schon ihre Modelle und so weiter und die machen,Datenanalysen und Präditionen und äh oder zumindest die privaten, ne? Und und äh äh machen dir dementsprechend einen Tarif und versuchen alles, um vorher zu sagen, wie riskant es ist, mit dir einen Vertrag einzugehen und dafür zu sorgen, dass du am Ende der Vertragslaufzeit, also deines Lebensähm am Ende derjenige bist, der mehr bezahlt hat als sie, ne? Big Data ist aber genau der Schritt.Nicht mehr nur sachbezogene Daten zu haben, sondern eben alle.Und diese Daten werden nur einige wenige haben. Und äh ich ich halte, wenn ich heute, sage ich mal, zynisch gesprochen, ein äh eine private Krankensparkasse leisten leiten würde, würde ich sagen, wir geben keinen Cent für Big Data aus,Sondern wir machen jetzt einen ordentlichen Dienstleistervertrag mit Google,und machen den für fünfzig oder hundert Jahre fest, damit ihr uns nicht in zehn Jahren die Preise hochziehen, wenn sie nämlich ihr Big Data-Ding im Griff haben und damit wirklich mal Präduktionen machen können.Und das wird der der unschöne Teil an diesem ganzen Big Data Kram,Nicht, dass jeder jeder äh über dich alle möglichen Daten sammelt, sondern das eine Instanz alle möglichen Daten über dich sammelt,Und alle anderen, im Prinzip nur pro, sagen wir mal bitte, ebenpro Abfrage an diese KI Big Data, allumfassende lalala. Was weiß ich, ein Cent zahlen, ja?Und das ist das, das ist das sind die wirklichen Probleme, die dadurch entstehen. Und nicht, ob jetzt irgendwieäh Leute, die jetzt schon diskriminiert werden, in Zukunft weiterhin diskriminiert werden, weil es im im Bezug auf das Diskriminationsmerkmal nun mal sinnvoll ist, diese Werte mit heranzuziehen.
Tim Pritlove 0:38:11
Alright.Kann deinen Gedankengang auch nachvollziehen. Das freut mich. Ja.
Linus Neumann 0:38:22
Das freut mich. Und wenn die künstliche Intelligenz den jetzt auch noch nachvollzieht, dann platzt Google.Aber wie gesagt, ich muss ich bin gerade so ein bisschen diese.
Tim Pritlove 0:38:33
Radmodus.
Linus Neumann 0:38:34
Nein, ich habe einfach so viele Tage jetzt hinter mir mit allem möglichen Quatsch. Ich komme da gleich auch noch mal äh äh nochmal zurück, weil ich habe noch viel mehr Quatsch gehört in den letzten Tagen. Ich, das war erst der erste Akt jetzt. Ähm,So. Kommen wir zum ersten Thema.
Tim Pritlove 0:38:50
Das war der Prolog aller Prologe.
Linus Neumann 0:38:56
Ja.Ich glaube, wir hatten das hier auch schon mal in der Sendung, wo ich, wo ich das gesagt habe, mit den äh ne, ja, wir wir brauchen eine Ethik für autonome Fahrzeuge,brauchen wir nicht,wenn die Autos erstmal alle autonom fahren, wird das der nächste tiefe Fall in der in der Statistik der Unfalltoten, weil wir uns nicht mehr die ganze Zeit besoffen äh und aggressiv und müde über den Haufen fahren,weil die autonomen Autos einfach nicht mehr besoffen aggressiv oder müde werden, sondern einfach im Notfall anhalten, bevor sie jemanden umnieten, was ihr ganzen Leute da draußen nämlich nicht macht.So und deswegen wird die fünf bis zehn Leute, die autonome Autos im Jahr dann noch umnähten.Jamai. Ärgerlich, aber noch lange nicht so schlimm, wie die vielen tausend, die wir die irgendwie jedes Jahr umgenietet werden. Die Schuldfrage ist.
Tim Pritlove 0:39:52
Aber die Schuldfrage. Die Schuldfrage. Es muss doch jemand schuld sein.
Linus Neumann 0:39:56
Genau. Schöner Punkt. Weißt du wer wer sagt, ich bin schuld, ist mir völlig egal. Die Autohersteller,Weil die nämlich inzwischen so viel Vertrauen in ihre Autos haben,dass sie sagen, äh wie Volvo hat das, glaube ich, jetzt vor kurzem gemacht. Volvo ist hingegangen, hat gesagt, wenn da irgendwie ein Unfall passiert, macht euch keine Sorgen. Zahn wir sind schuld. Ist in Ordnung, sind wir schuld.Sind wir schuld. So und die sind noch nicht mal mehr zu einer Versicherung gegangen,sondern direkt zum Rückversicherer und haben gesagt, naja, wir haben so und so viele Autos hier rumfahren, ähm die können eigentlich keinen umniten, die fahren tausendmal besser als jeder andere, aber wenn mal was passiert, dann müssen wir damit rechnen, dass wir quasi,Pro Auto, was da rumfährt, eine Haftpflichtdeckung im Prinzip brauchen. Haftpflichtdeckung ist, glaube ich, so fünfzig Millionen bei.Dann gehen sie zum Rückversicherer und sagen, jo, im aller, aller schlimmsten Fall, ne, wenn unser autonomes Auto von der Brücke fährt und irgendwie, ne und so, dann müssten wir mal fünfzig Millionen haben.Aber die haben wir sowieso bei uns hier aufm Konto liegen. Also eigentlich brauchen wir die Rückversicherung nur, wenn auf einmal zwanzig von unseren Autos das machen. Und das Risiko sehen wir nicht gegeben. Insofern machen wir gar keine Versicherung, sondern direkt nur in Rückversicherungsvertrag.
Tim Pritlove 0:41:13
Ist aber derzeit nicht die Realität. Also ich kenne auch andere Geschichten, wo halt äh autonome Unfallerkennungen zum Beispiel, so Abstandsdinger et cetera dann in Zeisfall, dein Auto auffahren lassen,obwohl sie das verhindern könnten,sie bremsen ab und sie machen den Aufprall sozusagen geringer, aber ohne das System wärst du ja trotzdem noch draufgeknallt,In dem Moment, wo du dich, wo sie dich aber so wegbremsen, dass das nicht passiert, könnte es ja dazu führen.
Linus Neumann 0:41:48
Das Auto nicht in die Werkstatt muss.
Tim Pritlove 0:41:50
Nee, dass derjenige hinter dir in dich reinfährt, ja und du dann sozusagen durch deine Bremsung,auch wenn sie automatisch war, den Unfall ausgelöst hast, der dann hinter dir passiert und nicht vor dir. Das heißt, sie greifen in einer Art und Weise ein, wie sie quasi die bisherige Realität nur etwas verzerren, aber nicht ändern,Ich habe da nicht zu viel Einblick in diese Szene, aber das ist eine relativ junge Diskussion, die mir gerade äh so gesteckt wird,Das ist, glaube ich, in etwa der Punkt, an dem wir uns gerade befinden, da müssen wir nicht bleiben. Aber das sind halt genau solche Fragen.
Linus Neumann 0:42:28
Genau, das ist der Punkt, an dem wir jetzt sind. Ich habe, glaube ich, schon mal gesagt, das Auto wird demnächst dem Auto hinter sich sagen, ey,der verbleibende Idiot, äh der seit Mainz sein Auto selber steuern zu müssen, hat da vorne gerade eine Vollbremsung gemacht. Ich mache auch eine, mache mal alle mit.
Tim Pritlove 0:42:48
Na ja, das wird auch noch eine schöne Security-Hölle, wenn du dann erst mal dem Autobahnen stehst und allen Autos sagst, dass gleich ein Unfall passiert und dann kannst du zuschauen, wie sich alle im Kreis drehen. Also.
Linus Neumann 0:42:57
Ich habe das mit dem Solarpanel schon an meinem Rucksack,beim Fahrradfahren.
Tim Pritlove 0:43:03
Also ich erwarte Änderung, ich erwarte sie nicht morgen, aber äh wir werden noch einiges davon äh mitbekommen und wir werden sicherlich die ein oder andere auch ethische Diskussion darum dann nochmal führen müssen.
Linus Neumann 0:43:16
Wir können ethische Diskussionen führen, aber das Problem ist echt viel mehr, dass diese mit dieser ganzen,Big Data und Überwachungsscheiße, dass es einem alles am Ende an einer Stelle ist. Und mit dieser Stelle will man sich dann nicht mehr anlegen. Und das ist das, das ist das ernste zentrale Problem für Gesellschaft und Zukunft,Und da ist mir der Einzelne äh wie schnell das Auto jetzt bremst. Äh neben Schauspiel, neben Kriegsschauplatz. Da kann man,Da kann man sicherlich auch äh die ein oder andere Professur für vergeben, aber ich fände schön, wenn die meisten sich über Probleme äh um Probleme kümmern würden, die ernsthaft mal irgendwie die Welt verändern,oder beschäftigen. Zum Beispiel.
Tim Pritlove 0:44:01
Nächste Mal, wenn ihr auf jeden Fall einen stolpernden äh äh humanoiden Roboter im Wald trifft, der.
Linus Neumann 0:44:05
Den trete ich sofort um.
Tim Pritlove 0:44:07
Lauft. Lauft's.
Linus Neumann 0:44:08
Helft ihm, seid freundlich.
Tim Pritlove 0:44:13
Los Linus, jetzt machen wir mal ein anderes Thema.
Linus Neumann 0:44:17
Ja, sind social Plugins rechtswidrig.
Tim Pritlove 0:44:20
Jetzt kommen wir zum langweiligen Teil.
Linus Neumann 0:44:22
Bevor wir dann nochmal zum, bevor wir dann nochmal zum richtigen Bullshit-Teil kommen, danke. Kommt die zweite Phase.
Tim Pritlove 0:44:28
Ja, also wir haben eine ereignislose Woche. Ihr merkt das schon, deswegen äh reden wir jetzt hier über Meta Themen schon mal eine dreiviertel Stunde. Mal gucken, äh wie viel wir jetzt hier noch rausfinden. Also was ist passiert? Ein äh Landgericht.
Linus Neumann 0:44:42
Landgericht hat geurteilt. Düsseldorf.
Tim Pritlove 0:44:43
Welches war's? Düsseldorf. Hat sich das mal alles ganz genau angeschaut, wie denn das ist mit.
Linus Neumann 0:44:48
Wie ist das eigentlich mit diesem Internet?
Tim Pritlove 0:44:49
Mit diesem Like Buttons.
Linus Neumann 0:44:51
Sospannende also wollen ja immer die den Nutzer da abholen wo sie sind. Also ihr seid jetzt gerade bei Facebook, da gibt's da gibt da ist der Like Button ja eh schon bei Facebook. So, wenn ihr jetzt von Facebook runtergeht,Like-Button da. Der ist dann haben wir auf eigentlich. Warum nicht? Das,Also man kommt auf eine man kommt man verlässt kurzzeitig Facebook und geht ins Internet und sieht dort eine Seite, zum Beispiel, jetzt muss man eine Beispielseite nehmen, ähm zum Beispiel die Seite,von.
Tim Pritlove 0:45:33
Jede mögliche Seite.
Linus Neumann 0:45:34
Ja, hier war äh ich würde jetzt hier gerade ähm,Ich hätte jetzt die genommen aus diesem Urteil, aber das finde ich jetzt schnell so schnell, ne. Äh jeder andere Seite Spiegel DE, jede Seite so Spiegel DE. Ähm dann sieht man unter dem Artikel sieht man hier direkt schön, prominent ähm,Facebook teilen, Twitter twittern oder E-Mail, ja? So und ich glaube, äh Spiegel hat sogar diese ähm die Datenschutz äh Sparvariante mit dem Sharebutton. Aber so ist das beim Demo-Effekt.
Tim Pritlove 0:46:10
Er habe alle News Seiten irgendwie tickt mal, Handelsplatt oder keine Ahnung, was auch immer, einfach diese ganzen.
Linus Neumann 0:46:18
Genau oder ihr geht.
Tim Pritlove 0:46:18
Post, schmeiß es dir wahrscheinlich fünfzig Mal um die Uhr.
Linus Neumann 0:46:21
Ja, aber wir bleiben mal, wir bleiben mal bei der eigenen Nase. Huffington Post kenne ich nicht, aber wir kommen mal auf Lokbuch Netzkritik. Da ist der Flatterbalken. So und der Flatterbanden.
Tim Pritlove 0:46:31
Aber das sind doch die Guten.
Linus Neumann 0:46:32
Sind die Guten, ja. Der Fletterbutton,zeigt die Anzahl der Tweets äh der der Fletters an,dieses Asset äh bekommen hat oder dieses Trinken. Die übrigens viel zu gering ist, was ich an dieser Stelle mal kurz anmerken möchte hier äh ja die könnten durchaus höher sein.
Tim Pritlove 0:46:48
Die Klicks. Wo guckst du denn? Letzte Sendung oder was.
Linus Neumann 0:46:52
Politik DE. Da könnte.
Tim Pritlove 0:46:54
Das war die, wo du nicht dabei warst, ne? Da könnte in der Tat noch ein bisschen mehr.
Linus Neumann 0:46:58
Ja. Von mir aus auch bei den Sendungen, wo ich dabei war und hier neben meinem Namen ist ein besonders formschöner Flatterbutton. Aber sojetzt ist die Frage, woher weiß der Logbuch Netzpolitik eigentlich, wie oft diese Sachen geflettert wurden? Stellt sich raus, weiß es gar nicht, weil dieser Flatterbarten als externes,ähm Skript von Flatter geladen wird. Und bei dieser Gelegenheit, Flatter auch,Darüber in Kenntnis gesetzt wird, dass wir grade auf dieser Seite sind und dieses Asset betrachten.Ähm leuchtet ein, geht auch nicht anders, weil Flatter ist ja in der Lage, den Browser zu sagen, die Zahl, die ihnen dieses Feld gehört, lautet siebenundfünfzig, was wirklich eine lächerlich geringe Zahl ist,So und ähm,Dann sagt also dem Browser hier in dieses Feld mal eben eine siebenundfünfzig machen und hat bei dieser Gelegenheit eben auch erfahren, dass dieser Browser mit dieser IP-Adresse gerade dieses,Ding anschaut. Und das gleiche passiert bei einem Like Button, bei einem plus eins Button und bei einem Twitter-Button und kennst du alles nicht. So,Das heißt, in die Seiten, wo sich diese Buttons befinden, sind externe Ressourcen eingebaut, die von den jeweiligen Anbietern kommen. Und die beim Besuch der Seite den Anbieter darüber in Kenntnis setzen, dass man diese Seite gerade besucht.
Tim Pritlove 0:48:20
Es geht noch einen Schritt weiter, das hast du jetzt im Prinzip übersprungen, falls du nicht noch dazu kommen wolltest. Flatter und wie auch die und die anderen, also uns geht's ja jetzt nicht um Flatter, sondern um alle. Wir sind jetzt einfach nur mal sind nun mal bei dem Beispiel,wenn man halt angemeldet ist bei Flitter,oder äh da eingeloggt war und quasi ein Cookie in seinem Browser gesetzt hat, der diesen Status äh dann auch nochmal klar widerspiegelt. Dann ist ja noch mehr Information in diesem Button, nämlich auch hast du das schon geklickt oder nicht?Es gibt hier auch noch eine Identifizierung mit dem Benutzeraccount, so den einer existiert.
Linus Neumann 0:48:56
Genau und wir hatten auch vor einigen Wochen noch dieses Urteil, dass äh Facebook ähm sogar Leuten Cookies gegeben hat, die.
Tim Pritlove 0:49:08
Nicht eingeloggt, keinen Account haben, ja. Mhm.
Linus Neumann 0:49:11
Und so ergibt sich dann,Ein Netz im Internet, durch das ich die Nutzer verfolge als Google oder als Facebook?Und weiß, was sie sich anschauen, wenn sie gerade nicht bei uns sind.Google hatte den sehr klugen die sehr kluge Idee das mit ihrem Angebot Google Analytics nochmal zu perfektionieren der plus eins Knopf von Google ist glaube ich gar nicht so äh nennenswert vertreten wie andere,Aber es gab beim Digitalamt äh netzpolitischen Amt der digitalen Gesellschaft, einen äh eine Studie, die da vorgestellt wurde, wo jemand sagte, ja, ähm.Ich habe mal eine Millionen Webseiten angeschaut und bei achtundsiebzig Prozent der Seiten trackt Google mit, bei zweiunddreißig Prozent Facebook mit, bei dreiundzwanzig Prozent,Ist ein äh Content des Revision Network, also nicht wirklich ein,Konkreter Anbieter und bei achtzehn Prozent Twitter. Und jetzt das ist natürlich,sagen wir mal gelinde gesagt, ein Problem, weil wir ja irgendwann mal in einem in einem,geistiger Umnachtung dachten, dass dieses Internet vielleicht ein dezentrales Netz ist, in dem keine einzelne,Stelle zentral ist und alle äh Sender sein können und das irgendwie so ein fröhliches nebeneinander ist,Also natürlich nicht unbedingt der Fall, wenn wir einzelne Player haben, die bis zu achtundsiebzig Prozent des Internets quasi oder des der Seiten die Menschen regelmäßig besuchen, ähm mit überwachen.Und da gab's also jetzt ein ein äh Urteil, wo ähm.Ein Seitenbetreiber gesagt wurde, du hast hier diesen Facebook,Like-Button mit drin, der übermittelt automatisch Daten an Facebook zu dem Zeitpunkt, wo dies geschieht,hat der Nutzer dem noch nicht zugestimmt und auch nicht nicht zustimmen können und deswegen ist das,Datenschutzkonform, was da geschieht und das ist eine Einschätzung, die ich laienmäßig teile. Ähm der naive Nutzer hat die Erwartung, wenn er Spiegel eingibt, dass er dann,bei Spiegel Online landet und nicht gleichzeitig noch tausend Verbindungen überall sonst hinmacht und Facebook noch mittrackt,was er, dass er dort ist und Facebook das auch noch über ihn oder Google über alle möglichen Seiten macht.
Tim Pritlove 0:52:05
Ja, ich glaube, das sind eine Menge Leute, das einfach in Kauf nehmen. Schon Wissen und so.
Linus Neumann 0:52:10
Genau, das ist inzwischen eine Realität. Wir hatten, glaube ich, auch schon vor einiger Zeit mal diese Datenblumen von äh von Open Data City besprochen, wo irgendwie gezeigt wurde, du besuchst die Seite, wo holt der sich noch alles Mist her?Es gibt diese diesen Fix mit der zwei Klicklösung, wo man quasi sagt, okay, der Button ist grau dort,aber noch nicht aktiv. Es hat noch keine Verbindung zu Facebook stattgefunden, wenn man dann einmal auf den Button klickt, dann.
Tim Pritlove 0:52:39
Riecht man die Information.
Linus Neumann 0:52:41
Kriegt man die Information, wenn man dann nochmal draufklickt, hat man geliked oder so, ne. Ähm aber wie gesagt, es gibt eben noch diesen,durchaus genialen Schachzug von Google, das mit diesem Google Analytics, das war, glaube ich, eine ihrer wirklich klügsten Erfindungen,ähm nach der Suche, dass sie gesagt haben, okay, komm, wir machen richtig geiles,Analysewerkzeug und alles was die Leute machen müssen ist ein dämliches Java Skript irgendwo in ihre Seite einbinden, was von uns kommt und wir machen die gesamten Analysen für die,nebenbei analysieren wir damit das gesamte Internet, zu dem wir ja der Wegweiser für die Menschen sein wollen.
Tim Pritlove 0:53:24
Mal ganz von Vorteil ein bisschen Plan zu haben, was so gesurft wird, was relevant ist, was populär ist.
Linus Neumann 0:53:30
Das ist Big Data.Tja und äh der das Urteil ist leider noch nicht rechtskräft oder das Urteil ist noch nicht rechtskräftig, ist auch nur ein Landgericht. Ähm,aber es ist schön, also ich meine, das ist auch ein Thema, was, glaube ich, schon mehrmals äh diskutiert wurde und ähm,Was auch leider nicht wirklich äh zum Abschluss kommt, denn eigentlich diskutiert man das jetzt auch schon wieder seit seit fünf bis zehn Jahren,Aber es wäre ähm ich habe so ein bisschen die Sorge, dass,das es wahrscheinlich zu spät ist sich darüber jetzt diese Gedanken zu machen weil es eben längst eine Realität ist.
Tim Pritlove 0:54:25
Ja, es vor allem auch die Frage, ob das jetzt in der Form äh Bestand haben wird, ob auch die rechtliche äh Beurteilung dessen ähm Bestand haben wird, weil sie ja hier davon ausgehen IP-Adresse ist automatisch personenbezog et cetera,ist schwierig. Ich meine, ich bin da auch sehr ähm gespalten. Ich meine, diese ganze das ganze ist ja,Etwas, was eigentlich das das Web einfach auf eine unglaubliche Art und Weise nützlich,gemacht hat. Also man kann sich ja das Web ohne gar nicht vorstellen. Natürlich bedeutet M-Beding nicht automatisch Tracking,Also man könnte ja dieses ganze Embeden auch ohne Trekking machen. Nur.
Linus Neumann 0:55:15
Macht's halt keiner.
Tim Pritlove 0:55:15
Glaube ich, es ist das ja auch, sagen wir mal durchaus auch, ich meine, in dem Moment, wo ich anbiete,wird ja auch eine Dienstleistung von mir in Anspruch genommen, ja, also wenn ich jetzt hier so an, was weiß ich, so wie YouTubeVideos, ambitten, ihr dürft das in euren Webseiten anzeigen und so weiter. Man gibt ja auch etwas, ja? Und äh äh in gewisser Hinsicht ist das ja auch legitim darüber dann Statistiken zu führen äh et ceteraSchwierig wird's natürlich wirklich an der Stelle, wo die Personen sichtbar werden.
Linus Neumann 0:55:48
Also wir könnten zum Beispiel auch, glaube ich, sehr einfach ein äh den den äh Lokbuchnetz-Boutique hundertfünfundsiebzig Button anbieten, den dann jeder in seine Webseite einbauen kann,und der hm, das ist doch gerade hundertfünfundsiebzig und dann.
Tim Pritlove 0:56:04
Die Sendung, ja.
Linus Neumann 0:56:05
Wäre das quasi, würden wir euch einen kleinen String geben, den baut ihr nur eure Seite ein und wenn die Seite besucht wirdholt sich das Teil halt äh Daten über die Episode von Lokbuch Netzpolitik DE und wenn es abgespielt wird, auch die MP3 und dann hätten wir mit sehr einfachen Mitteln, also da muss man gar nicht großartiges machen, kann man schon alleine aus dem Browser Locks sehen, wie viele Leute eure Seite besucht haben,Bis auf die wenigen, die jetzt irgendwie mit No Script oder so, äh, sie am Laden von externen Ressourcen gehindert haben und wie viele dabei auf Play gedrückt habenDa werden nur noch wenige Zeilen Code notwendig, um ein Affiliate-Programm zu machen und die mageren siebenundfünfzig Flatter, die da rumkrebsen, mit euch zu teilen,Aber dafür würden wir halt eure Nutzer tracken und unsere Datenschutz-Policy ist mal wirklich eisern. Denn wir haben keinen Datenschutz. Wir analysieren alles. Wir speichern alles.
Tim Pritlove 0:57:00
Das nennst du eisern.
Linus Neumann 0:57:02
Wir machen.
Tim Pritlove 0:57:03
Das finde ich ja jetzt ein das falsche Wort,ziehe mir mein eisern nicht in den Schmutz. Ähm,Ja, das mit dem äh hätte ich übrigens schon am liebsten seit zwei Jahren schon äh am Laufen, aber das ist sozusagen einfach aus technischen Gründen noch nicht erfolgt. Wird auch sicherlich kommen, sicherlich nicht mit äh Personentracking.
Linus Neumann 0:57:27
Warum nicht? Wie wollen wir den Lockdown Netzpolitik sonst irgendwann mal an Google oder Facebook verkaufen?
Tim Pritlove 0:57:32
Du wir setzen einfach hier auf eine informierte äh und loyale Community und so gehen wir auch mit dir um.Das Prinzip.
Linus Neumann 0:57:44
Na gut.
Tim Pritlove 0:57:45
Gibt's kein.
Linus Neumann 0:57:48
Da fällt mir übrigens noch ein, ne? Äh ach so, ich will jetzt nicht wieder schon wieder zu diesem Big Data zurück. Das hat mich wirklich aufgewühlt irgendwie.
Tim Pritlove 0:57:54
Ich merke schon, ich merke schon, Hobbybrauner.
Linus Neumann 0:57:56
Weißt du, was mich noch mehr aufgeregt hat?
Tim Pritlove 0:58:00
Durch mit dem Thema schon.
Linus Neumann 0:58:02
Äh Landes äh Landgerichturteil in Düsseldorf, ja, also ich glaube jetzt nicht, dass Facebook gerade da sitzt und weint.
Tim Pritlove 0:58:08
Wahrlich nicht. Nee, äh wir nehmen das jetzt einfach mal zur Kenntnis und äh äh erkennen an, dass es äh ein, ein, ein, ein, ein Problem ist und da wir ja hier eigentlich nur eure Berichterstatter sind, haben wir jetzt Bericht erstattet.
Linus Neumann 0:58:20
Wir sind, was übrigens, wer übrigens auch trackt wie nix Gutes, ne. Und wahrscheinlich noch viel mehr und noch viel schlimmersind die Konkurrenten von Google, also die anderen, die uns Werbung einblenden, wenn die Schärfung nicht sowieso schon von Google kommt, ja? Also Werbenetzwerke äh sind da ähnliche ähähnlich äh unschöne äh Erscheinungen. Und deswegen ist, glaube ich, in der heutigen Zeit leider,Die Nutzung eines äh Tracker-Blockers ähm und eines Werbeblockers und aller Blogger, die es so gibt, unerlässlich.
Tim Pritlove 0:58:57
Eine Sache sollten wir vielleicht noch erwähnen, was es nämlich, glaube ich, noch nicht getan, ähm aber den Link hier in der Liste,Dieses schöne äh Projekt, was auch zuletzt auf dem Netzpolitischen Abend vom digitalen Gesellschaft vorgestellt wurde, von einem anderen Tim. Tim äh Libert,einfach mal den Spieß umgedreht hat und in so einem,in so einem Goilosenvirtuellen Maschine Webseiten geladen hat und dann einfachdynamisch allen Trekking gefolgt ist und die kartographiert hat.Nennt sich Webx Ray, äh,schöne Sache und hat mit äh relativ wenig Aufwand da eine riesige Datenbank aufgebaut, ja auch frei zur Verfügung stellt, zur Analyse, wo man eben an dann einfach auch genau diese Daten,dann heraus äh liest du dir anfangs schon präsentiert hast. Und da gibt's auch Soursquoten, da kann man auch nochmal drauf schauen und äh vielleicht selber mit rumexperimentieren.Ja
Linus Neumann 1:00:13
Jetzt kommen wir zum nächsten Thema.
Tim Pritlove 1:00:15
Hammer.
Linus Neumann 1:00:17
Also.
Tim Pritlove 1:00:19
Bullshit. Made in erklär mal, ich äh deine Notizen sind ja wirklich so mysteriös, dass ich manchmal gar nicht weiß, worauf du hinaus willst.
Linus Neumann 1:00:32
Also ich wurde äh.
Tim Pritlove 1:00:35
Du erlebst immer so Sachen.
Linus Neumann 1:00:37
Ich würde, ich wurde gefragt, ob ich denn nicht bitte ähm zu einer Studie äh einer Veröffentlichung äh,Auskunft geben kann. Zu der Gefahr, die da einige Forscher festgestellt haben für unsere Demokratie,Nichts wie nichts, nicht weniger als unsere Demokratie ist in Gefahr.
Tim Pritlove 1:01:06
Sind wir schon. Demokratie ist in Gefahr, lass mal Linus nochmal anrufen, weil sonst wissen wir nicht weiter.
Linus Neumann 1:01:12
Ja, so so weit sind die schon. So und warum ist unsere Demokratie in Gefahr? Nun. Nein.
Tim Pritlove 1:01:19
Wahlcomputer. Nein? Künstliche Intelligenz. Trekking.Na was?Ja
Linus Neumann 1:01:36
Man stelle sich vor denjenigen, die irgendwie vielleicht ein Twitter-Account haben, wird dieser Gedanke völlig fremd sein. Man stelle sich vor, es gäbe Computerprogramme, die twittern.So und jetzt twittern die nicht Werbung, wie sie's seit zehn Jahren machen, sondern.
Tim Pritlove 1:02:03
Inhalt. Propaganda.
Linus Neumann 1:02:04
Inhalt. Propaganda und zwar Propaganda vom Feinsten, nämlich im für für Putin und Trump. Trump kennst du, ne? Den den Verrückten.So und,Dann liest du halt in eine völlig ganz normale Tag in der Zeitung, wo drin steht diese social Bots können sogar Wahlen manipulieren. Kampagnen starten und auf Twiets antworten.
Tim Pritlove 1:02:33
Nein, jetzt ist aber Schluss. Also, bei Wahlen manipulieren, da saß ich ja noch bei meiner Currywurst, aber wenn die jetzt auch noch auf Tweets antworten.
Linus Neumann 1:02:43
Und dann erreichstet sich dieser Autor,Für die ansteigende Flut an Verschwörungstheorien und Hasskommentaren im Netz kann es auch eine andere Erklärung geben, nämlich Social Bots. Stimmt! Das ist nämlich so Tim, es gibt gar nicht so viele Rechte in Deutschland.
Tim Pritlove 1:03:02
Ach, das sind alles nur Bots.
Linus Neumann 1:03:03
Das sind alles nur Bots, die den ganzen Quatsch auf Facebook und auf Twitter schreiben.Und die Leute, die die und sind wahrscheinlich nur eine Einzelperson, die inzwischen irgendwie die ganzen Unterkünfte angezündet hat. Der Rest sind nur Bots.
Tim Pritlove 1:03:18
Oder die Bots zünden, die Unterkünfte an. Soweit.
Linus Neumann 1:03:21
Das haben wir, das finden die auch noch raus. Das finden die auch noch raus. Also, der.
Tim Pritlove 1:03:27
Manifestation einer künstlichen Intelligenz, die jetzt anfängt, unsere Turnhallen abzubrennen. Oh je.
Linus Neumann 1:03:34
Also es gibt ähm.Das Thema ist, man kann also, man kann jetzt relativ einfach, man macht sich einen Twitter-Account und dann gibt's da eine AP und Antisea AP kann man zum Beispiel eine relativ einfaches Pifon Skript lehnen und,Man bringt dann zum Beispiel diesen,Schau doch mal bitte, was unter dem Hashtag so und so stattfindet und dann nimm mal diese Tweets und dann entfernst du das Hashtag und tweetest sie noch mal.Oder schau doch mal, was folgender Account äh twittert und jedes Mal, wenn dir etwas twittert, du das? Oder jedes Mal, wenn dir etwas twittert, antwortest du ihm.Und dann kann man natürlich hingehen und sagen, antworte ihm mit einem Satz aus folgendem oder aus folgender Datenbank. Ähm,Und dann könnte man zum Beispiel das Skript noch erweitern, um achte mal dadrauf, dass keine Stunde vergeht,ohne dass du nicht irgendetwas twitterst, was halbwegs menschlich erscheint.Und dieses menschlich sein soll, könnte man sich ja einfach von anderen Twitter-Accounts klauen,Also irgendwie äh nimmst du halt irgendwie zehn Twitter-Accounts, irgendwelche Art, folgst denen und wenn die irgendwas sagen,dann twitterste das einfach auch, weil das sind menschliche Personen und du willst ja den Eindruck machen, ein Mensch zu sein, also kopierst du einfach deren Inhalte.
Tim Pritlove 1:05:09
Ja, so wie es bei sich halt auch irgendwie einfach anderer Leute, Kommentare äh klauen und nur den passenden Link dazu reinsetzen.
Linus Neumann 1:05:15
Genau. Und dann natürlich das nächste, dann hast du deinen, der hat aber keine Follower, also machst du dir äh hundert oder tausend oder sechzigtausend Bots, lässt sie sich alle gegenseitig folgen und versuchst irgendwie den Eindruck zu erwecken,dass es sich dabei um eine um eine Person handelt, die irgendwie existiert. Ähm.
Tim Pritlove 1:05:35
Dass diese zweihundertfünfzigtausend Follower von Pegida auf Facebook, ja.
Linus Neumann 1:05:40
Das stelle ich hier gar nicht zur Debatte. Die die Entscheidung ist oder was mich einfach nur wirklich maßlos äh ärgert ist, dass das so einfache,Dinge,Ja, also was, wo man wirklich, da musst du gar nichts für können. Das kriegst du fertig auf Githup. Tausende von Twitterbots, die du, denen du jeweils immer nur diese beiden Keys geben musst und dann twittern die drauflos. Ja, also da da ist wirklich ähm,für Anfänger. Ja und es wird auch seit jeher gemacht und dann hast du irgendwie, kannst du ja wie du möchtest auch erweitern. Ja, machst du dir halt hundert von, ist auch kein Problem,Ähm und dass dieses,Diese Strategie wird mit völlig katastrophalen Ergebnissen, seit es Twitter gibt, von allen möglichen Spämern ähm verfolgt,Wir haben alle bisher noch nicht viel gekauft aufgrund dessen, äh was wir vorher nicht gekauft hätten, ja?
Tim Pritlove 1:06:45
Wissen wir nicht.
Linus Neumann 1:06:46
Ja, aber der der ähm der ähm Fakt ist,Wir habenrelativ große Gefahren für unsere Demokratie, aber Bots auf Twitter sind es wahrscheinlich nicht. Und dann wurden wir, musste ich mir jetzt noch ein paar angucken, das sind dann halt relativsimple Bots, die irgendwie was weiß ich jedes Mal, wenn Donald Trump was twittert, das und einmal pro Tag eben so ein White Power-Tweet raushauen,Und die sollen jetzt auf einmal die Gefahr für unsere Demokratie sein? Ich glaube nicht. Was allerdings passiert,ähm ist folgendes,Du kannst ja mit diesen Bots machen, was du möchtest, wenn du davon mal einfach mal ein paar Tausend hast, das können ja auch von mir aus gestohlene Accounts sein, äh wo du äh die du dir dann in deine Bot äh äh Herde mit aufnimmst. Damit kannst du Leute mitunter ganz schön ärgern.Sagen wir mal, ich habe sechzigtausend davon. Und jetzt möchte ich dich einfach mal ärgern, weil du,Weil du mich unterbrochen hast.
Tim Pritlove 1:07:59
Rache.
Linus Neumann 1:08:01
In meinem schönen so das machst du nicht nochmal,Dann könnte ich jetzt meine Botherde ähm heben und sagen Menschen doch mal,Jede Minute den Tim mit einem anderen Account.Und dann vibriert dein iPhone hier noch öfter als ohnehin schon und dein, dann störe ich quasi massiv deine Kommunikation.
Tim Pritlove 1:08:31
Meine Social Media Experience geht dahin.
Linus Neumann 1:08:36
Das wäre jetzt so ein Fall. Also das passiert auch, es passiert auch tatsächlich, ähm,Also ich kenne mehrere Journalisten, denen das passiert ist, die dann halt irgendwie von so Bott, Herden,ähm beleidigt werden, ja? Also da hat dann halt jemand wirklich viele tausend Bots undkommt einfach, du kommst quasi mit dem Bloggen nicht hinterher, weil der dich immer wieder von einem anderen Account anspricht und beleidigt äh und kann dir so halt wirklich dein Leben,unschön,werden lassen, weil er die, weil er dir einfach diesen Account zu nagelt. Äh mit, mit, mit Menschens und mit mit Nachrichten oder sonst was.
Tim Pritlove 1:09:17
Gamergate, ne. Da ist also auch massiv passiert.
Linus Neumann 1:09:20
Genau, das ist auch massiv passiert, dass Leute da halt belästigt werden. Das ist ein sehr unschönes Phänomen, ähm,aber eben auch bei aller Liebe keines, was jetzt irgendwie besonders neu,Was besonders originell wäre oder was eine Gefahr für unsere Gesellschaft in ihren Grundfesten darstellt, als das jetzt plötzlich Wahlen,Twitter-Bots gewonnen werden. Also das halte ich für eine für eine äußerst gewagte These, die jetzt hier in diesem Artikel vertreten wird. Ichhoffe, dass die Wissenschaftler, die diese Studie veröffentlicht haben, diese These nicht auch noch irgendwie vertreten haben. Ich habe allerdings die Studie ähm,inhaltlichen immer nur von Dritten äh geschildert bekommen. Insofern ähm muss ich da äh vorsichtig sein, was jetzt da tatsächlich an Aussage getroffen wurde oder nicht.
Tim Pritlove 1:10:20
Ja, du meinst den Artikel in der Welt, ne.
Linus Neumann 1:10:23
Ich meine den Artikel in der.
Tim Pritlove 1:10:24
Verschiedenste Artikel, ähm verschiedenste Artikel hier verlinkt. Dementsprechend sollte man vielleicht das auch mal klarer zuordnen.
Linus Neumann 1:10:32
Ja, aber auf jeden Fall ähm.
Tim Pritlove 1:10:36
Maschinen hetzen.
Linus Neumann 1:10:37
Wenn Maschinen hetzen, ja. Da da habe ich also ähm einen äh habe ich ein ein bisschen drüber gesprochen in einer Fernsehsendung mit dem Namen,und das wird dann irgendwann gesendet werden und ich hoffe, dass die meine meinen Zweifel da auch in aller äh Schärfe äh in dieser Sendung dann auch zum Ausdruck bringen.Interessant ist, dass sich noch jemand anders über Social Bots Gedanken gemacht hat. Der jetzt auch sagt, das ist ja wohl ganz gefährlich,Ja, ähm Patrick, Sensburg,Patrick Sensburg hat ähm also es gibt,eben viele viel Debatte über diese Bots in der äh Russland-Ukraine äh Geschichte, ja. Also Bots können ja durchaus, ne, dass also Kommunikation stören können sie,Ähm zum Beispiel, was weiß ich, es gibt einen Hashtag,Und dann wird dann flutest du das einfach mit deinen Bots, mit allen möglichen Unsinn, ja? So kannst du Menschen die Möglichkeit nehmen, sich über dieses über dieses Hashtag äh sinnvoll auszutauschen.
Tim Pritlove 1:11:50
Ja, so wie zweiunddreißig C drei zum Beispiel, was irgendwie auch schon kaputt ist.
Linus Neumann 1:11:54
Das passiert aber,grundsätzlich immer, wenn ein Hashtag irgendwie Aufwind erfährt, schon allein von den ganzen Spambots, weil die machen seit Jahren nichts anderes, als zu gucken,Was sind die? Äh und jetzt poste ich da irgendwie rein hot, blond, Bunny.
Tim Pritlove 1:12:16
Warum machen wir das eigentlich nicht? Können ja auch mal unsere Sendung immer mit den aktuellen trendigen Hashtags äh posten anstatt äh seriös vorzugehen.
Linus Neumann 1:12:24
Ja. Weil twitter dich dann hoffentlich irgendwann. Machen sie aber leider nicht. Also seit jeher fluten Bots Hashtags und machen Kommunikation kaputt. Ähm,Aber was mir aufgefallen ist, ich kannst du dich daran erinnern, als äh die ähm Attentate in Paris stattgefunden haben.Da gab es einen Hashtag mit dem Namen äh Portuver, geöffnet offene Tür,wo Menschen im Prinzip irgendwie ihre Adresse unter dem Hashtag port oh wer getwittert haben um.
Tim Pritlove 1:13:02
Zuflucht zu biete.
Linus Neumann 1:13:03
Leuten Zuflucht zu bieten. Das war natürlich eine sehr schöne Idee. Ähm,Und die hat natürlich auch sofort Traktionen gefunden, sodass Menschen weltweit in Deutschland, in Großbritannien, in Amerika,Darauf hingewiesen haben, dass man unter dem Hashtag Hashtag twittern kann,Äh wenn man eine offene Tür hat und dass Menschen dort Zuflucht finden können. Wenn du dann auf diesen Hashtag geklickt hast,hast du nicht eine einzige verfluchte Adresse finden können, weil irgendwie pro Sekunde fünfzig Vollhornks unter diesem Hashtag getwittert haben, was man unter diesem Hashtag twittern könnte, wenn nicht fünfzig voll Honkspro Sekunde da Lärm reintwittern würden. Das heißt, die das Stören von Kommunikation können Menschen immer noch besser,als Maschinen, weil das Stören von Kommunikation haben wir Menschen erfunden.
Tim Pritlove 1:14:02
Wir haben auch die Kommunikation erfunden, ne? Von daher ist das ja auch fair.
Linus Neumann 1:14:06
So, wir haben's, wir haben's erfunden, also machen wir es auch kaputt.
Tim Pritlove 1:14:10
Keiner Renner so gut kaputt machen wie wir. Ja.
Linus Neumann 1:14:14
Also.
Tim Pritlove 1:14:17
Ja, wobei das für die Kommunikation erfunden haben, ist das, glaube ich, auch äh äh evolutionstechnisch nicht äh zu halten, aber wir haben sie auf jeden Fall auf die Spitze getrieben. Das steht schon mal fest.Und wir machen auch die Kommunikation ja auch noch äh den Wahlen kaputt.
Linus Neumann 1:14:34
Genau, die Wahl, also ne, Putin ist nur noch an der Macht, weil er so viele Twitter-Bots hat.
Tim Pritlove 1:14:38
Na, nicht die Wahlen, die Wale.
Linus Neumann 1:14:42
Auch noch.
Tim Pritlove 1:14:43
Ne, die Wale können nicht mehr miteinander kommunizieren, weil wir mit unseren scheißlauten Booten da die ganze Zeit durch die Gegend marschieren und Lärm machen.
Linus Neumann 1:14:50
Immerhin sind's nicht die Twitter-Bo.
Tim Pritlove 1:14:51
Deswegen fahren ja die Wale auch dann immer auf dem Strand auf.
Linus Neumann 1:14:54
Also jetzt wurde äh auf auf jeden Fall diese äh diese Studie veröffentlicht und jetzt oder und jetzt machen sie sich.
Tim Pritlove 1:15:00
Wo ist denn diese Studie überhaupt? Erzähl doch mal was, von was für einer Studie? Nee, willst du nicht erwähnen.
Linus Neumann 1:15:03
Ich möchte äh ich möchte nicht so auf die Wissenschaftler einschlagen.
Tim Pritlove 1:15:08
Taste ist erwähnt, der muss da jetzt auch mal sagen, wo es herkommt.
Linus Neumann 1:15:11
Es ist irgendwie eine eine Forschungsgruppe Social Media Forensics, die an mehreren Universitäten ansässig ist und die ein Jahr lang geforscht haben, bis sie festgestellt haben, dass es Twitterbots gibt.
Tim Pritlove 1:15:25
Wenn wir da auch verlinken oder nicht.
Linus Neumann 1:15:27
Wir haben das grob verlinkt, aber ich möchte ähm möchte thematisch bezogen argumentieren und nicht auf die Personen.
Tim Pritlove 1:15:34
Okay.
Linus Neumann 1:15:36
Oder die Universitäten. Wer weiß, ob ich da irgendwann nochmal eine Professur brauche,Wenn es mir mal nicht mehr so gut geht.
Tim Pritlove 1:15:43
Ja.Was heute noch karrierefördernd äh aussieht, kann morgen schon der Untergang sein. Also.
Linus Neumann 1:15:52
So und.
Tim Pritlove 1:15:53
Reist dich zusammen, Lithus, reiß dich zusammen.
Linus Neumann 1:15:56
Völlig normaler Artikel, Deutschland setzt Geheimdienst gegen russische Propaganda ein,Der Bundesnachrichtendienst überwacht verstärkt die russische Propaganda. Dazu hat der BND eine eigene Arbeitsgruppe gegründet. So und die,schauen sich jetzt die die russische Propaganda an und dann wird hier viel zitiert und so,Propaganda ist eine Waffe und so weiter, äh haben wir alles schon gemacht und erster Weltkrieg hatten wir auch Propaganda. Ähm.Und dann äh bla, bla, bla, bla, bla, bla, bla. Und jetzt kommt's, ich könnte mir vorstellen.Kommt gleich. Ich könnte mir vorstellen, dass unabhängige Organisationen versuchen die Kommunikationskanäle der staatlichen Trolle offen zu legen. Sagt Patrick Sensburg.Und.
Tim Pritlove 1:16:54
Nebenbei äh Vorsitzender.
Linus Neumann 1:16:59
Des NSA-Untersuchungsausschusses ist und CDU Politiker und sagt, Verbote und Blockaden helfen nicht und wären ein Verstoß gegen die Meinungsfreiheit,Ja, also Meinungsfreiheit für Bots. Ja, da sind wir wieder. Also äh du merkst jetzt, alles eine große Verschwörung, denn,Und jetzt kommt's, Patrick, ja, also,Ich glaube, ich habe ungefähr ähm herausgearbeitet, wie groß ich das Bedrohungspotential von Social Bots für die Demokratie und die Grundfeste unserer Gesellschaft halte.
Tim Pritlove 1:17:34
Ich fasse es mal zusammen mit überschaubar.
Linus Neumann 1:17:35
Gering, überschaubar. Im überschaubaren Rahmen.Und jetzt kommt Patrick Sensburg und sagt, wenn beispielsweise das Bundesamt für Sicherheit in der Formationstechnik oder der Chaos-Computer-Club die Gerüchte und Seiten der Trolle enttarnten,hätten Bürger die Möglichkeit, sich unabhängig zu informieren und Informationen zu verifizieren. Das ist eine derartige.
Tim Pritlove 1:18:02
Also wir sind jetzt wieder schuld. Wir spielen nicht mit.
Linus Neumann 1:18:05
Wir sind jetzt wieder schuld, weißt du?Da denkst du du gibst dir eine Krisennummer und denkst du so, jetzt kriegst du mal richtig geilen Scheiß, ja? Und dann lässt sich der Bundestag von irgendwie so einem Explode-Baukasten von vor zwanzig Jahren,Und du sollst irgendwie auf Twitter Trolle identifizieren. Das kann doch nicht dein Ernst sein.Du erkennst diese diese Bots erkennst du irgendwie sowas von einfach, weil die so dumm sind, ja? Also ich meine, du kannst einfach nicht vielleicht nochmal ein kleiner Exkurs.
Tim Pritlove 1:18:37
Immer wieder für Vorstellungen haben vom CCC, ist echt unglaublich.
Linus Neumann 1:18:40
Vor allem, was die für Vorstellungen haben von diesen paar peifen Skripts, die Tramprituiden. So, ich meine,Also es gibt ja diesen Touring-Test, der äh,Im Prinzip sagt der ein eine künstliche Intelligenz besteht den Test, wenn ein Mensch sie nicht mehr von einem Menschen unterscheiden kann,Es gibt da irgendwie so das chinesische Zimmer und was man sich da alles so als Setup äh überlegt hat, ne, aber das der die eigentliche Idee ist, du chattest mit einem Menschen,oder mit einer Maschine und du weißt es nicht und du musst es herausfinden. Und seit vielen Jahrzehnten versuchen Menschen, künstliche Intelligenzen zu bauen.Die,im Prinzip den Touring-Test bestehen und es gelingt Ihnen wenn immer der Themenbereich sehr stark eingeschränkt ist,Also du hast auf Seiten äh irgendwelche Assistenten, ja, die dann oder Assistentinnen, die dann da reinkommen, je nachdem,Was das für eine Seite ist, hast du auch mal eine Assistentin und die berät dich dann, ja? Und dann sagst du äh ich interessiere mich für Kondensatorenund dann sagen die, ah klick doch mal hier auf Kondensatoren, kommst zur Seite mit den Kondensatoren. Wie viel Verrat möchtest du denn? Dann sagst du einfach Rad. Dann sagen die, wir haben nur ein ein Fahrradkondensator und der ist nicht in der Kondensatorenabteilung, sondern in der Auto-Tuning-Abteilung oder sowas, ja? Ähm,oder ähm sie äh imolieren äh sehr äh simulieren sehr einfache äh psychologische Therapieform, Psychotherapieform.Äh Elisa war das, glaube ich, die dann irgendwie äh dieses äh diese Gesprächstherapie äh gemacht hat, wo immer einfach dein Massen leichtes Sentiment in der Liste ist und spiegelst das wieder. So, aber all diesediese Bots fehlen den Touringtest unglaublich gut, wenn du einfach mal irgendwie eine belanglose Frage stellst so, wie ist das Wetter heute?Und dann sagen die.
Tim Pritlove 1:20:45
Wie hat Union gespielt?
Linus Neumann 1:20:46
Ich ich glaube nicht, dass das jetzt grade für uns von Relevanz ist. Möchtest du vom Thema ablenken?Oder du sagst irgendwie zum äh du, du wirst mal obszön äh zu so einem äh zu so einem Ding. Dann sagen die so ja also die du merkst also relativ schnell, dass du es dann nicht mit Menschen zu tun hast. Und das ist im Prinzip das, was diese Bots auch tun müssten.
Tim Pritlove 1:21:07
Du meinst, verloren haben wir, wenn die künstliche Intelligenz cool ist?
Linus Neumann 1:21:13
Also ich ehrlich gesagt finde ich künstliche Intelligenz ist jetzt schon cooler als wir.
Tim Pritlove 1:21:19
Naja, aber auch halt so cool im Sinne von, cool.
Linus Neumann 1:21:23
Künstliche Intelligenz ist wahrscheinlich dann cool, wenn du irgendeinen Spruch bringst und sie einen besseren bringt. Okay, weil bei dir ähm.
Tim Pritlove 1:21:33
Ist das nicht möglich, aber theoretisch, ja, weil man nur mal so hypothetisch.
Linus Neumann 1:21:43
Tja, auf jeden Fall, so sind wir jetzt halt vom, werden wir jetzt offensichtlich bald irgendwie äh müssen, sollen wir jetzt irgendwie Trolle offenlegen, also was für ein.
Tim Pritlove 1:21:53
Ja, warum machen wir denn das einfach nicht? Wir sind.
Linus Neumann 1:21:55
Weil das eine Arbeit für Doofe ist.
Tim Pritlove 1:21:57
Wir sind wir tun überhaupt nichts für die Gesellschaft.
Linus Neumann 1:22:02
Ja, da sollte sich die Gesellschaft mal fragen, warum wir nichts für sie tun. Weil keiner sie mag.
Tim Pritlove 1:22:07
Na, weil wir scheiße sind.
Linus Neumann 1:22:13
Na ja, also ich finde, also ich ärgere mich einfach gerade. Ich ich knacke gerade so ein bisschen äh an, denke ich über,Probleme nach, die ich für relevant halte, für unsere Gesellschaft. Und ich glaube, unsere Gesellschaft hat grade echt ein paar ernsthafte Probleme,Ähm und wir werden noch ein paar ernsthafte in Zukunft bekommen und ich halte irgendwie Social Bots auf Twitter momentan.
Tim Pritlove 1:22:40
Nicht für ein großes Thema.
Linus Neumann 1:22:41
Nicht für ein großes Thema. Vielleicht entscheiden in zehn Jahren auf Twitter die Wahl. Äh und dann dann sehen wir aber doof aus, weil die dann nämlich den Roboter von Boston Tina Mix wählen.Und dann äh und der uns dann alle im Go schlägt. Aber ich glaube, die die Zukunft ist ein bisschen eine andere und die Herausforderung, über die wir diskutieren müssen, werden auch andere sein.
Tim Pritlove 1:23:04
Ich glaube, man diese Wahlbeeinflussungsgeschichte ist natürlich, ich weiß nicht, das ist in diesem Artikel sicherlich unangemessen miteinander äh verwoben, aber,Die Diskussion, dass ähm,Einflussnahme auf soziale Netzwerke, durch Gewichterung et cetera, äh im schlimmsten Fall auch Manipulation von Nachrichten. Selbstverständlich Stimmung bewegen kann.
Linus Neumann 1:23:29
Dass natürlich.
Tim Pritlove 1:23:31
Damit natürlich auch Wahlen ganz nachhaltig beeinflussen könnte. Und ehrlich gesagt, wenn ich mir so anschaue, wie äh dieser Zuckerberg irgendwie an an den VR-Brillen,belegten Massen vorbei grinst, schlafe ich auch nicht besser.
Linus Neumann 1:23:51
Nee, das ja.
Tim Pritlove 1:23:51
Aus äh es ist so, äh viel mehr so, fehlt mir irgendwas. Ähm aber das.
Linus Neumann 1:23:59
Seitdem es Öffentlichkeit, also die Idee, die Öffentlichkeit zu beeinflussen, ist so,Bald wieder öffentliche Raum oder sogarEr ist so alt wie die Demokratie, weil es da zum ersten Mal notwendig war, die Öffentlichkeit zu beeinflussen und vorher konnte man einfach drauf hauen. Aber wenn du durch den normalen, öffentlichen Raum gehst, ist der ja auch zugepflastert mit Scheiße.Von wirtschaftlichen und politischen Interessen, die versuchen,auf sich aufmerksam zu machen. Du hast irgendwie komplette Straße voll mit irgendwelchen Plakaten, was du jetzt kaufen sollst.
Tim Pritlove 1:24:37
Initiative neue Marktwirtschaft.
Linus Neumann 1:24:39
Und du hast die ganze Straße voll mit mit Plakaten, wen du jetzt wählen sollst. Und das wird halt aufm in sozialen Netzwerken eben auch nicht anders sein.Aber deswegen machen wir ja uns, machen wir uns ja unsere Filterblasen. Und das heißt, der der Effekt, der dem entgegensteht, ist, dass wir,uns die Menschen, denen wir folgen, auswählen,oder sagen wir mal, die Accounts, denen wir folgen. Und ob dieser Account jetzt am Ende ein Mensch ist oder nicht, ist letztendlich egal, wenn er uns als Informationsquelle dient.Ja, also ich kann ja von mir aus, weiß ich, Außen-Account, dieser Account retweetet, alles, was äh irgendwie äh irgendeiner der Metaebene Accounts macht. Ja, das ist ein relativ einfacher Bot, den könnte ich mir in fünf Minuten schreiben.
Tim Pritlove 1:25:33
Den hast du auch schon geschrieben, das machst du mal mit Lochbuch-Netzpolitik.
Linus Neumann 1:25:36
Genau, den habe ich leider noch nicht mal selber geschrieben, sondern das mache ich hier mit diesem.
Tim Pritlove 1:25:40
Ja, deswegen retwitterst du ja auch nicht ordentlich den äh Logboot Netzpolitik äh Account und verhinderst die weitere.Popularisierung unseres Twitter-Accounts.
Linus Neumann 1:25:56
Soll ich jetzt einen Bot schreiben.
Tim Pritlove 1:25:58
Nee, ich sage das jetzt einfach mal nur so.
Linus Neumann 1:26:00
Tim, ich habe nicht so viele Follower wie du. Für mich ist jeder einzelne Follower wichtig. Und du, ich glaube nicht.
Tim Pritlove 1:26:08
Wenn du mal mehr Follower hast als ich, dann erinnerst du dich gar nicht mehr an mich.
Linus Neumann 1:26:12
Dann weißt du, dass meine Bot-Armee angefangen hat, sich selber zu vermehren.
Tim Pritlove 1:26:14
Drauf und dran ist die Wahl zu gewinnen, ja.
Linus Neumann 1:26:20
Dann stehe ich da wie der Zauberlehrling. Oh, oh, oh.
Tim Pritlove 1:26:22
Angriff der Hecklohnkrieger. Tja.
Linus Neumann 1:26:26
Jetzt hast du mich schon wieder vom vom Thema abgelenkt, aber ist auch egal. Ich meine, man sieht, wir sind, ich, ich zumindest bin hier im Randmodus und ich sollte nicht so viele Konferenzen hintereinander äh besuchen.
Tim Pritlove 1:26:36
Nee, das scheint nicht so richtig gut zu sein für dich.
Linus Neumann 1:26:39
Nee und dann rede ich irgendwann auch nur noch irrelevanten Scheiß. Mann, du.
Tim Pritlove 1:26:42
Ja na ja.
Linus Neumann 1:26:45
So, aber äh also ich muss jetzt demnächst muss ich halt auf Twitter klicken und und russisches Social Bots äh erkennen.
Tim Pritlove 1:26:55
Lass uns doch lieber zu einem anderen kurzen Thema kommen.
Linus Neumann 1:27:01
Das wird eine Sendung.
Tim Pritlove 1:27:03
Ja, auch schön. Was haben wir denn hier? Nee. Erich.
Linus Neumann 1:27:08
Harald Schmidt. Nee. Erik Schmidt.
Tim Pritlove 1:27:13
JaErik Schmidt ist äh euch sicherlich bekannt. Der war für einige Jahre nicht ganz unerfolgreich. Der Chef von Google der CEO,Bis dann äh irgendwann die Gründerwieder zugetraut haben so einen Laden nochmal selber zu führen, weil sie vielleicht auch so mit dem ein oder anderen von Herrn Schmidt oder vielleicht auch mit seiner Art und Weise in der Öffentlichkeitaufzutreten nicht ganz so glücklich waren, da stecken wir natürlich nicht drin. Mittlerweilebekleidet, also er ist jetzt nicht mehr CO, aber er begleitet halt nach wie voräh Ämter oder zumindest Funktionen im Google beziehungsweise Alphabet Universum ist jetzt der.
Linus Neumann 1:27:56
German.
Tim Pritlove 1:27:57
Also im Aufsichtsrat, wenn ich das richtig äh interpretiere und da ist er der Vorsitzende, ne, also Vorsitzende des Vorsitzender des Aufsichtsrat von Alphabet, der Holding, die mal Google äh hieß und Google heißt jetzt sozusagen nur noch der ganze Such,Kram. Naja.
Linus Neumann 1:28:13
Und davor war er bei Sun, bei Novell und bei äh Apple.
Tim Pritlove 1:28:21
Der war mal bei Apple, ernsthaft,Release. Ach so ja, okay, er war im Aufsichtsrat, genau. Und bis er dann.
Linus Neumann 1:28:28
Da ist er rausgekickt, weil er äh.
Tim Pritlove 1:28:29
Weil Steve eben nuklearen Krieg äh angekündigt hat.
Linus Neumann 1:28:33
Ja, zurecht.
Tim Pritlove 1:28:35
Ja jaGenau, also ist schon mal eine äh fragwürdige Person gewesen. Wir erinnern uns auch noch äh er ist ja mal sehr bekannt geworden durch seinen Ausspruch mit äh na ja, wir können ja hier bei Google äh sind wir ja sowieso schon was alle. Ähm Tun und Vorhaben und ähm wenn ihr,zu sagen was Böses getan habt, dann äh hättet ihr es vielleicht einfach von vorne rein gar nicht erst tun sollen.
Linus Neumann 1:28:58
Ja genau, wenn ihr, wenn ihr was tut, weil von dem ihr nicht wollt, dass es jeder weiß.
Tim Pritlove 1:29:01
Genau, dann hätte es aber nicht tun sollen so. Weil wir wissen das eh schon. Das äh war für so eine dieser Aussagen, die einem so ein wohliges Gefühl über den.
Linus Neumann 1:29:09
Hohliges Gefühl. Er hat übrigens, er hat aber auch äh einen ganz interessantes Buch geschrieben.
Tim Pritlove 1:29:15
Das heißt.
Linus Neumann 1:29:16
Ähm how Google Works,wie's auf Deutsch heißt, äh wo er die äh Arbeitgeberphilosophie von äh Google äh behandeltund vor allem, da er ja irgendwie, wie gesagt, von irgendwie Seiten achtziger Jahren irgendwie in in Valley-Unternehmen arbeitet, hat er ja durchaus Erfahrungen in im Bereich der Managementstile und dieses in diesem How Google Works behandelt er eben,Auch Dinge, die er gelernt hat bei Google, die ich sehr erhellend fand über äh quasi das Verhältnis eines Arbeitgebers zu den Arbeitnehmern,ähm das hat mich äh nachhaltig beeindruckt,Deswegen würde ich jetzt auch keinen Arbeitnehmer mehr. So, aber ähm,So, das äh das ist ein ganz interessantes Buch gewesen, kann man an der Stelle noch erwähnen. So, Erik Schmidt ist jetzt seit neuestem,Berater.
Tim Pritlove 1:30:21
Also nicht nur, sondern jetzt auch.
Linus Neumann 1:30:23
Vom des US-Verteidigungsministeriums, denn dort wird es einen Defense, Innovation Advisoreboard geben, äh zwölf Leute sollen da drin sein und ähm,Er wird eine von diesen Personen sein.
Tim Pritlove 1:30:41
Ob der dann auch sich immer von diesem Atlas begleiten lässt.Würde doch cool, oder? So wie die da im Video dann durch den Wald gelaufen sind, so läuft er dann direkt bei dem Board auf, der Atlas setzt sich so neben ihn.
Linus Neumann 1:30:58
Ich meine, was besseres ist, den Menschen auch nicht eingefallen, neFinde ich halt auch geil. Also das ist eigentlich das, was ich in diesem Video gesehen habe, weißt du? Der der scheiße, der kann was, lass den hauen. Lass den, der kann das besser als wir oder der nimmt uns einen Arbeitsplatz weg, hol einen Stock.Na ja okay, ähm zwölf Personen aus der Privatwirtschaft, die ähm das äh Verteidigungsministerium bezüglich,Rapid Prototyping,komplexer Datenanalyse, der Cloud und generell dem Informationsaustausch beraten sollen. Das heißt, die haben,Ähm also und und nur technisch. Also er wird jetzt nicht irgendwie Kriegsherr, er soll wird denen jetzt nicht sagen, äh welche wie die nächste Operation sein soll oder mit welcher Strategie man äh welchesDingsich ERO, welches Land erobert, aber ähm er möchte er wird äh technischer Innovationsberater äh für das Verteidigungsministerium.Tja,Ich weiß es nicht. Es ist auf jeden Fall eine Meldung. Ich meine, wenn Erik Schmidt was macht, dann ist das eine Meldung. Ähm.
Tim Pritlove 1:32:11
Wir kommen sozusagen jetzt erstmal unserer Pflicht nach, wollen damit äh erstmal gar nichts andeuten, aber ist natürlich schon,Ja, was ist das bedenklich? Notierenswürdig, äh dass.Aufsichtsratschef des Unternehmens, was nachweislich, wie wir ja hier auch schon ausgiebig diskutiert haben in dieser Sendunghinter dieser ganzen äh KI, autonome Roboter, explizit auch mit Militärbezugdahinter steht jetzt sozusagen auch noch zum Berater wird. Wenn man das jetzt auch nicht so überraschend und das ist auch nicht so anhört auf ich meine,durchzogen mit Industrie äh schon immer gewesen. Nur dass halt jetzt Silicon Valley sich einen zunehmenden Maße und äh,sicherlich auch nicht in nicht das erste Mal in Form von Erik Schmidt jetzt äh in diesen in diesen Dunstkreis äh begeben hat. Ist natürlich,grundsätzlich, gut, ich will das jetzt nicht zu weit überziehen, aber,wollte jetzt diese Apple FBI äh Debatte jetzt eigentlich gar nicht mehr rausgreifen, hatten wir ja letztes Mal ähm weil er jetzt auch nicht so sehr viel mehr neues passiert ist, das spielt halt, aber es gibt ja dann schon eine ziemlichePositionierung gerade, also das Silicon Valley versus äh der Start und seine Wünsche und dann sieht man natürlich auchdass das äh ein Spiel auf vielen Ebenen ist, so dass hier auch ganz andere Interessen mit neuen Märkten genauso eine Rolle spielen und man nicht weiß, inwiefern hier am Ende äh die Privatsphäre äh äh et cetera äh,werden wir sehen.
Linus Neumann 1:33:53
Es gibt.Also ich meine, alle Staaten blicken auf eine etwas ungewisse Zukunft, was mit diesem ganzen digital und so. Wenn sich das mit dem Internet jetzt durchsetzt, ja und mit dem Big Data,und.
Tim Pritlove 1:34:12
Setzt dich durch mit dem Internet.
Linus Neumann 1:34:14
Könnte sein und einige starten oder einige Nationen haben halt vielleicht patriotischere Bürger,oder einige Staaten haben auch äh,Früher die Bedeutung dieses Wirtschaftszweiges erkannt und dafür gesorgt, dass dieser Wirtschaftszweig sich bei ihnen großartig entwickeln kann. Und.Diese Staaten haben gerade ganz gut kacken, weil sie wirtschaftlich gerade äh sehr profitieren von ihrer äh Vorreiterstellung in diesen Bereichen,und weil sie natürlich auch,Wenn dann eine enge Zusammenarbeit zwischen großen, wichtigen Organisationen in diesem Bereich und der Regierung stattfindet,ähm.Sich, sage ich mal, zumindest sicher sein können, das sollte eines dieser Unternehmen dem Staat richtig krass an die Karre pissen können, dass sie das wenigstens früh genug erfahren,Ähm und ich erinnere mich, dass irgendwie äh Julian Assange ja irgendwie schon,vor einiger Zeit dem äh Erik Schmidt vorgeworfen hat, dass Google irgendwie seit so und so viel Jahren, seit über zehn Jahren äh mit der NSAkooperiere im Bereich der Datensuche und Organisation und so. Da hatte Schmidt das dementiert und wir haben mit dieser ganzen AppleFBI Geschichte, eigentlich grade in der Öffentlichkeit so 'n Eindruck gehabt von davon, dass die Konzerne,ähm auf Distanz geht.Von staatlichen Interessen, insbesondere der USA,Und der Schritt, dass so ein äh Schmid sagt, ach ja, so ein Beraterposten fürs Militär, der steht mir doch gut zu Gesicht als jemand, der mehr oder weniger die größte,Datensammlung der Welt hat äh und irgendwie autonome Roboter äh steuertund äh nebenbei übrigens euer E-Mail-Provier ist, liebe Freunde, weil es war jeder seine Mail bei dem hat. Ähm da erkennt man dann den Bereich, der Entwicklungder Zukunft, der den ich irgendwie mit Sorge betrachte, nämlich eine äh Vermischung.Ähm dieser wirtschaftlichen und militärischen und damit eben auch,ideologischen Bestrebungen, die irgendwo vorherrschenund äh das äh beobachte ich mit äh zunehmendem Unbehagen, wie dieses Internet, was mal so als schönes, dezentrales Netzwerk, in dem wir alle irgendwie rum äh dingsen, gestartet ist, sich langsam zu einer riesigen ähm,zentralen Datensammelstelle wandelt. Und ähm,Zentralen Datensammelstellen stehe ich ja grundsätzlich,Äh sehr, sehr skeptisch gegenüber und in diesen Entwicklungen, die wir jetzt hier sehen, äh spiegelt sich auch wieder, warum,Der Chaos-Computer-Club seit über dreißig Jahren sagt, ja, das ist nicht gut. Das ist einfach nicht gut.
Tim Pritlove 1:38:03
Beziehungsweise um das auch kleine Maul zu betonen, der CCC, wenn er gut drauf ist, äh Chancen und Risiken.
Linus Neumann 1:38:12
Wenn er gut drauf ist, Chancen auch, ey. Ähm na ja, ich habe ja am Anfang der Sendung äh,auch vielleicht so ein bisschen eine mal aus Sicht des des Big Data und die Chancen und so weiter, ja? Also ich meine,Da sind natürlich auch Chancen drin. Natürlich, das wird alles, das wird ein daDie Technik wird im Zweifelsfalle immer ausreichend noch zum Vorteil aller äh sich entwickeln, ja? Also ich glaube auch, dassAuch heute äh niemand sagen würde, oh mein Gott, die Welt war aber besser ohne Smartphones.Ja, also wir haben da ein ausreichendes ähm.Potential im wirtschaftlichen Bereich, im Bereich des Zusammenlebens, die Bedürfnisse der Menschen werden in der Regel gedeckt,zumindest im des größeren Teils der Menschen. Das äh ist ja eigentlich die Definition von äh Kapitalismus. Ja, dass das irgendwie,zumindest noch genug also es ist jedes Bedürfnis, was in ausreichend großer Zahl vorhanden ist,gedeckt wird und zwar einfach ganz dadurch, dass, dass irgendjemand hingeht und es monetarisiert. Das ist ja.
Tim Pritlove 1:39:31
Gebot und Nachfrage.
Linus Neumann 1:39:33
Genau, ist ja eigentlich erstmal auch gar kein so gar keine so schlechte Idee,Das einzige Problem sind eben diese Akkumulationen, die dann immer mehr stattfinden zu einzelnen großen Konzernen, die sich am Ende ähm alle Geschäfts,die dann sich am Ende Geschäftsbereiche aneignen,Das ist dann irgendwie im Automobilbereich zu sehen, gibt dann weniger Autohersteller, die sich den Markt aufteilen, das ist in in allen möglichen Bereichen zu sehen und wenn es zu wenig äh wenn es zu zentral wird, dann geht man irgendwohin und zerschlägt die,Aber was machst du mit einer Informationsgesellschaft, wo es einfach schon heute klar ist, dass es einfach nur sagen wir mal drei,Vielleicht vier große Datensammelstellen weltweit geben wird, aus denen sich dann alles ab und her leiden soll.
Tim Pritlove 1:40:28
Naja, ich meine, wenn wir auf die Spur kommen, langsam mal das äh zu sehen, dass diese Datensammelstellen nicht weggehen,aber man vielleicht sich mal darauf konzentrieren sollte, sie auch als öffentliches Gut zu äh stehenäh wäre ja da sozusagen noch was zu holen.
Linus Neumann 1:40:51
Das äh verstehe ich jetzt gerade nicht. Also öffentlich ist gut, ein ein multinationales, öffentliches Gut.
Tim Pritlove 1:40:58
Na, wir beklagen die Macht von Google, weil sie halt sehr vieläh Aufwand stecken, zum Beispiel in das Aufbauen eines Webindexes und das ist natürlich nichts, was jetzt ein Unternehmen mal so eben nebenbei auch noch machen könnte, auch wenn's an manchen Fronten äh einfacher wird, aber es wird ja auch für Google einfacher, von daher ist dieserÄhm dieser Aufwand schwer zu treiben, weil wer jetzt heute damit startet, äh sich selbst bei maximalem technischen Erfolg,ähm einfach nicht mehr in diese Position bringen kann, dass es sich in dem selben Maße monetarisieren lässt. Nur,trotz alledem wäre ja die Verfügbarkeit eines Suchindizes für alle und nicht nur für Google durchaus,vielen Erwägungen heraus sinnvoll, sowohl für die Wirtschaft, als auch für die Gesellschaft, et cetera.Warum dann nicht das Ganze einfach ein Suchindex genauso verstehenwie äh das Straßen und Datenleitungsnetz, dass man einfach an dieser Stelle einfach sagt, okay, wir müssen auchdigital arbeiten und digitale Güter der Öffentlichkeit bereitstellen und dann ist das halt einfach mal ein europäisches äh Projekt, wenn nicht sogar ein UN-Projekt.
Linus Neumann 1:42:08
Ja, ich glaube, dass dieser Zug leider schon längst abgefahren ist. Also was ähm man muss ja auch,anerkennen, dass das, was Google macht, sie enorm gut machen.Aufgrund der Daten, die sie haben und aufgrund der Art, wie sie mit diesen Daten umgehen und aufgrund des Antriebs und des Geldes, das sie haben, um solche Dinge zu entwickeln, ja.
Tim Pritlove 1:42:40
Ja, vor allem die, die Innovationskraft, aber das heißt ja nicht, dass man jetzt nicht auch noch einen Nutzen daraus haben könnte. Also wenn man jetzt sagt, okay, wir äh ähm nehmen einfach öffentliches Geld und bauen eine öffentliche Infrastruktur auf, bauen einen solchen Index und ähm,allen zur Verfügung, so wie Wikipedia äh alle Daten zur Verfügung stellt, dann wäre er auf jeden Fall mal ein Schritt gemacht und.
Linus Neumann 1:43:03
Also das wäre mal eine interessante Recherchefrage. Wie viel Geld hat Google seit Existenz in sich selber investiert? Also was hat es gekostet? Wie viel Geld brauche ich, wenn ich jetzt bei null anfange und einen Google bauen möchte?
Tim Pritlove 1:43:19
Lässt sich bestimmt ganz gut ausrechnen, wenn man sich mal die Bilanzen anschaut, aber keine Ahnung. Ist bestimmt eine ganze Menge Holz.
Linus Neumann 1:43:26
Am Rande übrigens gelernt.Als Google zu Elphabet wurde, wurde aus dem Motto don't beevil, Do the Ride thing.
Tim Pritlove 1:43:37
Nach echt. Das lassen wir jetzt mal so stehen.
Linus Neumann 1:43:45
Ja.
Tim Pritlove 1:43:47
Aha, war mir gar nicht bewusst.Binus. Diese Sendung ist schon lang.
Linus Neumann 1:43:56
Tim. Diese Sendung ist lang. Ich wollte eigentlich die Kürzeste machen, weil ich so.
Tim Pritlove 1:44:02
Wenn du das immer schon ankündigst, dann weiß ich immer schon, dass das komplett nach hinten losgehen wird.
Linus Neumann 1:44:03
Ja, ja. Ja. Aber ich war auch verärgert.
Tim Pritlove 1:44:08
Ja, ist okay, dir geht's schon auch viel, viel besser. Ich habe das jetzt auch einfach aus humanitären Gründen schon getragen.
Linus Neumann 1:44:14
Das ist schön, da war jetzt irgendwie eine fünfstellige Anzahl. Höre das aus humanitären Gründen auch noch über sich ergehen lassen muss,Äh
Tim Pritlove 1:44:26
Neutralität ist ein äh Abschlussthema.
Linus Neumann 1:44:29
Dot Ew dot kann man Fälle von äh Netzneutralitätsverletzungen meldendenen wird dann nachgegangen und da gibt es dann eine schöne Statistik momentan. Äh siebenundzwanzig bestätigte Reports, also Berichte über Netzneutralitätsverletzungenähm zwanzig Netzbetreiber, bei denen,betroffen sind und sieben Länder. Eine Seite, die irgendwie vom der Netz äh Vertretung, digitale Gesellschaft,European Digital Rights, der Initiative für Netzwerk Freiheit ähm,IT-Politist Forening, Nürpa, der Open Rights Group und Ex-Net äh zur Verfügung gestellt wird. Wenn ihr also eine ein Fall von Netzneutralität habt, der dort noch nicht ähm.Mit drin ist, dann könntet ihr dort mal helfen, die zu sammeln. Wichtig ist ja, äh oder ich denke, dass dort gesammelt wirdum eben zu sagen, hier da, ne, das sind irgendwie die Dinger und so. Und ihr könnt auch bei den Existenten sagen, denen kann ich auch melden, den kenne ich auch. Und dann werden halt noch so schönespannende Listen und Analysen darüber gemacht, wo sich diese Netzneutralitätsverletzungen befinden.
Tim Pritlove 1:46:02
Grob werden hier fünf verschiedene Arten von Netznetralitätsverletzungen unterschieden, also Zero-Rating, also das kostenlose Bereitstellen eines äh Dienstes,beziehungsweise es nicht anrechnen der Nutzung eines äh Dienstes, wie wir das hier schon mehrfach besprochen hatten. So was gab's bei Wikipedia, sowas gab's bei Facebook mitdie Spotify, Flatrate, bei äh T-Mobile et cetera. Dann dieses Special Live Service Geschichte, die ja etwas schwammig äh ist, also wenn sozusagen ein Dienst hier bevorzugteGeschwindigkeit zum Beispiel äh ja ich weiß gar nicht, wie das hier unterschieden wird, weil hier gibt's auch noch, also,schwierig. Äh müsst ihr dann selber vielleicht entscheiden, in welcher Kategorie ihr das am besten packt und wenn's überhaupt nicht läuft, gibt's auch noch Azar. Assad ist dein Freund.Klick dir rein. Ja.
Linus Neumann 1:47:04
Ja. Ja.
Tim Pritlove 1:47:05
Ja
Linus Neumann 1:47:15
Vom neunundzwanzigsten Vierten bis ersten fünften findet das erste Creative Nerding for Nerds,Würzburg statt. Das ist eine Veranstaltung ausgerichtet vom Nerd to Nerd EV und das ist ein,Gegend und weil das aber der EV ist, passt Nerd-End besser. Es gibt Hacking, Coding, Vorträge und allgemeines Rumnörden,Freitag, neunundzwanzigster vierter bis Sonntag, erster fünfter im und im Würzburg.
Tim Pritlove 1:47:51
Und gutes Essen.
Linus Neumann 1:47:52
Gutes Essen gibt's auch immer, ja? Dafür sind die Chaos-Veranstaltungen ja bekannt.
Tim Pritlove 1:47:56
Ja, mehr Termine haben wir gar nicht, oder? Dann können wir die Sendung jetzt einfach im Flow der Musik ausklingen lassen. Was hältst du davon? Wollen wir das machen?
Linus Neumann 1:48:07
Vielleicht könnte ich noch einen Termin ankündigen.
Tim Pritlove 1:48:10
Ja? Weißt du einen? Nee. Du weißt doch.
Linus Neumann 1:48:13
Nee. Ja, ich bin nächste Woche habe ich noch einen Termin, aber den kündige ich nicht an.
Tim Pritlove 1:48:18
Wir haben uns auf jeden Fall äh gefreut, dass ihr uns wieder äh zugehört habt und äh sind dann auch bald mal wieder für euch da.
Linus Neumann 1:48:27
Hoffentlich gibt's nächste Woche irgendwie vernünftige.
Tim Pritlove 1:48:30
Muss auch mal sein. Wir sagen tschüss.
Linus Neumann 1:48:32
Ich sehe schon wieder schwarz, ey. Sag tschüss. Ciao, ciao.

Verwandte Episoden

Shownotes

Künstliche Intelligenz

Social Plugins und Tracking

Social Bot Bullshit

Schmidt macht auf Staat

Netzneutralität

Termine

61 Gedanken zu „LNP175 Dann platzt Google

  1. Ich vermute, dass durch autonome Fahrzeuge aufgrund der Notwendigkeit, halten zu können, bevor was passiert, der Autoverkehr in bewohnten Gegenden mit ihren Fußgängern, Radfahrern und vielen möglichen unvorhergesehenen Ereignissen vor allem eins wird:

    Viel langsamer :):)

    So langsam, wie man heute schon in solchen Gegenden fahren müsste – dann wirds das autonome Fahrzeug weiter vorn durch seine Vorsicht halt für alle Anderen erzwingen, weil ja im Weg.

    Und sobald sich zeigt, wie viel weniger passiert, wenn man so vorsichtig herumschleicht, wird max. 15 km/h abseits von für Fußgänger gesperrten höherrangigen Straßen wohl auch auch zur gesetzlichen Norm.

    Und zum ersten Mal, seit es Städte gibt, gehören die dann wieder den Fußgängern, und nicht mehr durchgehenden Pferden, schlecht gebremsten Bierkutschen oder Autos, die mit 50 km/h durch enge Gassen zischen :):):)

  2. Sollte dies so sein, könnte die kreditvergebende KI aber auch lernen, dass das Ausfallrisiko eines Kredites wirtschaftlich durch die Mehreinnahmen einer liberalen Ausgabepraxis aufgewogen werden kann. So könnte die Einbeziehung von zusätzlichen Informationen trotz knallharter Differenzierung durch die KI das wirtschaftlich notwendige Diskriminierungsübel auch zu einem gewissen Grad entschärfen. Könnte… ;-)

  3. Die Frage nach der Diskriminierung von KI wurde gut in einem Talk bei 32C3 behandelt, siehe Andreas Dewes: „Say hi to your new boss: How algorithms might soon control our lives“ (https://media.ccc.de/v/32c3-7482-say_hi_to_your_new_boss_how_algorithms_might_soon_control_our_lives)

    Mich wundert es, dass der Talk nicht erwähnt wurde? Dort wurde das Szenario von Linus im Falle von Recruiting durchgespielt und um einiges klarer dargestellt. Die Problemstellung: Auswahlprozesse diskriminieren per Definition. Aber es gibt bestimmte Kriterien, nach denen nicht diskriminiert werden sollte (oder nicht darf, laut Gesetz). Die einfache Annahme ist: In dem man dem Algorithmus diese Merkmal nicht beibringt, kann es auch nicht danach diskriminieren. Andreas Dewes zeigt, dass dies falsch ist. Das Phänomen nennt er „discrimination leakage“ (glaube ich) von nicht erlaubter Diskriminierung in die Entscheidungen der KI. Das große Problem dabei ist, dass nicht mehr nachgewiesen werden kann, dass entlang dieses Kriterum diskriminiert wurde.

    Ich verstehe daher nicht ganz die saloppe Art der Rechfertigung von ungewünschter oder gesetzlich verbotener Diskriminierung, die Tim und Linus über die Lippen gegangen ist. Um bei der Anstellungsproblematik zu bleiben: Findet ein Unternehmen heraus, dass die Anstellung von Frauen mehr Kosten verursacht, darf dies eben kein Grund sein, um Männer gegenüber Frauen vorzuziehen.

    Würde man der KI das Merkmal „Geschlecht“ vorenthalten und würde die KI durch die Daten lernen, dass eine Gruppe G mit bestimmten Merkmalen (z.B. Mutterschutz, etc.) mehr Kosten verursacht, kann dies eben kein Grund sein, um einen abgeleiteten Prädiktor zu verwenden, der Männer gegenüber Frauen bei der Anstellung bevorzugt.

    Es gibt den „neutralen“ Begriff von Diskriminierung (im Sinne von „Unterscheiden“) und benachteiligende Diskriminierung als ethisches und rechtliches Konzept, das Diskriminierung anhand von bestimmten Merkmalen untersagt. Letztere schränkt erstere ein.

    • PS: Fazit: Genau so wenig wie „Effizienz“ ein Grund für benachteiligende Diskriminierung bei menschlicher Entscheidungsfindung ist, so ist „Effizienz“ auch kein Grund um diese Diskriminierung bei KI zu erlauben. (Wie man das implementiert, ist eine andere Frage.)

      Oder hab ich etwas falsch verstanden?

  4. Wie soll die KI lernen? Wenn sie sagt „Kein Kredit“ – dann gibt es keinen weiteren Feedback. Also kann kein Fehler(der Kunde ging zur nächsten Bank und hat den Kredit brav zurückgezahlt) erkannt werden. Und – sie kann ja bei der Kreditvergabe nicht gegen sich selber spielen.

    • Das Argument ist im Wesentlichen das, was Linus vorgetragen hat, und ich moechte dem widersprechen.

      Der Fehler liegt meines Erachtens darin, dass die input Parameter nicht diskret sondern (in guter Naeherung) kontinuierlich (wie sagt man ‚continuous‘ auf deutsch?) sind. Und hier wuerde man erwarten das der Ausgabewert (zb die Wahrscheinlichkeit einen Kredit zu bedienen) eine stetige Funktion ist.

      Wenn die KI also in ihren alten Entscheidungen sieht, dass kurz *vor* dem eigenen threshold (wo also noch gerade ein Kredit akzeptabel war) die reale Rueckzahlrate sehr hoch ist, kann sie schlussfolgern (stetige fktn …), dass der Erwartungswert auch hinter dem threshold noch recht gut ist und dementsprechend diesen Parameters anders gewichten.

      Die einzige Frage ist, wie effizient dieser Lernweg ist. Er fuehrt (meistens) zum Ziel, aber es waere sicherlich (fuer das Lernen) effizienter gelegentlich absichtlich falsche Entscheidungen zu treffen, d.h. zu experimentieren.

    • Hier hat L. recht, das ist aber grundsätzlich das Problem von Systemen, die an vorhandenen Daten rechnen, aber versuchen, die Zukunft vorherzusagen.

      Wäre übrigens ein spannendes Forschungsfeld, aber „nicht einfach“ umzusetzen. Man könnte zum Beispiel Pädokriminelle oder extrem blutrünstige Rassisten randomisiert aus der Haft entlassen, um dann zu schauen, welches statistische Modell dann besser passt bzw. ein negatives Ereignis besser vorhersagt. Viel Spass beim Einreichen des Forschungsantrags!

      Wildhuende

  5. Von dem Atlas Video gabs ne Version wo ne Stimme immerwieder „Where is the box“ & „go get the box“ sagte, teilweise mit Lachen..
    … fand ich echt schrecklich, auch wenn das um ne Maschine ging. Leider finde ich diese Version nicht mehr.

  6. Natürlich kann man alle möglichen Algorithmen bauen und diesen alle möglichen Datensätze in den Rachen werfen, um unter Geltung der Annahmen 1 bis n bestimmte Strukturen in diesen Daten zu finden oder nicht zu finden.

    Aber die Grundprobleme sind eben nach wie vor philosophisch-ethische:

    1. wer legt die Axiome fest und wie?
    2. wer gibt den Ergebnissen/Schlussfolgerungen eine Bedeutung?

    Es ist letztlich das altbekannte Problem der Semantik/Intentionalität und es nicht wirklich gelöst. Es gibt zudem berechtigte Zweifel, ob es (aus prinzipiellen Gründen) überhaupt jemals gelöst werden kann.

    Natürlich kann man irgendeinen Algorithmus ausrechnen lassen, dass Person A einen Kredit zu 96,5% zurückzahlen wird, Person B aber nur zu 79,1%. Aber kein Algorithmus kann von sich aus sagen, was das in der realen Welt *bedeutet* bzw. *bedeuten sollte*. Soll man Person B einen Kredit geben oder nicht? Natürlich kann man irgendeinen Grenzwert oder sonstwas definieren, um das automatisiert zu entscheiden. Aber auch das muss wiederum jemand zuvor (willkürlich) festgelegt haben.

    Am Ende braucht man halt immer Grundannahmen, die selbst nicht logisch begründet werden können, das ist das Grundprinzip jeder wissenschaftlichen Theorie. Daran ändert auch „big data“ und das ganze KI-Gerede nichts.

    • Wenn du einen Kredit zu 96,5% zurückzahlen wirst und zu 3,5% nicht und angenommen du kannst dich auf diese Werte verlassen, dann ist es ne simple Rechnung.

      Zinseinnahmen * 0.965 – Kreditvolumen * 0.035 = Erwartungswert Gewinn

      Wenn du nur begrenzt Kredite vergeben kannst machst du halt die mit dem höchsten Erwartungswert.

      Praktisch ist das Problem damit aber gelöst, da braucht man keine Willkür und auch kein Bauchgefühl mehr, sondern nur simple Algebra.

      Und selbst wenn der Entscheidungsprozess, nachdem du die Wahscheinlich bereits kennenst, noch signifikant Intelligenz erfordern würde, könntest du das Lernziel von dem Algorithmus auch so definieren, dass er quasi als Agent die Geschäfte auch durchführt, und ihn daran bemessen wieviel Gewinn er damit erwirtschaftet. (Wenn du die Wahrscheinlichkeit kennst, kannst du das Geschäft ja auch simulieren)

  7. Zur KI:

    Man würde die Bewertungsfunktion vermutlich nicht so implementieren, dass nur der insgesamt gemachte Gewinn bzw. Verlust betrachtet wird, sondern eher der Erwartete Gewinn pro Kunde über- bzw untertroffen wird.

    Ich kann ja über alle Kunden ausmitteln, wie viel Gewinn mir ein Kunde im Durchschnitt bringt – wenn ich einen Kunden ablehne, dann habe ich diesen Gewinn automatisch nicht gemacht, was also auf jeden Fall schlecht ist.

    Vergleichsparameter dürften in der Anfangszeit auch eher menschliche Komponenten sein: Also schafft es die KI besser, Kreditwürdigkeit zu beurteilen als ein Arbeiter, der das seit 20 Jahren macht.

    Wobei ich denke, dass man hauptsächlich nicht Menschen, sondern Firmen beurteilen möchte. Die nehmen üblicherweise deutlich größere Kredite auf.

  8. Zum Thema tracking habt ihr das hier nicht erwähnt:

    https://www.google.com/transparencyreport/safebrowsing/?hl=de

    „Ungefähr eine Milliarde Menschen nutzen Google Safe Browsing. Wir helfen jede Woche Millionen von Menschen, sich vor Schäden zu schützen. Dazu zeigen wir Nutzern von Google Chrome, Mozilla Firefox und Apple Safari Warnhinweise an, wenn sie auf Websites zugreifen, die personenbezogene Daten stehlen oder Software installieren könnten, um die Computer der Nutzer zu manipulieren.“

    Man stelle sich mal vor, da wüsste jemand wo diese 1 000 000 000 Menschen so hinsurfen, weil deren Browser ungefragt die Daten übermittelt. Das wäre ja übel.

    :-)

  9. Also Linus rants sind diesmal etwas daneben meiner Meinung nach ;-)

    Das Argument „wir brauchen keine ethischen Überlegungen zu selbstfahrenden Fahrzeugen weil die ja weniger Unfälle bauen“ ist doch wirklich offensichtlich großer Quatsch. Natürlich wird der massenhafte Einsatz selbstfahrender Autos ethische Probleme auf die Tagesordnung setzen, die bisher noch nicht auf der Tagesordnung standen (oder halt sehr sehr weit unten) und natürlich wird man dazu irgendwann irgendeine gesellschaftliche also politische Entscheidung treffen müssen (oder sich dazu entscheiden müssen, keine Entscheidung zu treffen, was auch eine Entscheidung ist.)

    offensichtlichstes Beispiel wäre die vielzitierte Situation, dass ein selbstfahrendes Auto fünf unbeteiligte Fußgänger umnietet, um nicht in einen Bus zu krachen und potentiell 20 Passagiere umzubringen. Ist es ok, wenn der Algorithmus so gebaut ist, dass er lieber die fünf umbringt als die 20? Wenn nicht, wie darf er dann stattdessen gebaut sein? Darf er überhaupt eine Entscheidung treffen? Usw usf.

    • und es geht doch wohl nicht nur um irgendwelche finanziellen Entschädigungen.

      oder wollen wir die Regeln unseres Zusammenlebens davon abhängig machen, ob Volvo Schadensersatz zahlt oder nicht?

    • offensichtlichstes Beispiel wäre die vielzitierte Situation, dass ein selbstfahrendes Auto fünf unbeteiligte Fußgänger umnietet, um nicht in einen Bus zu krachen und potentiell 20 Passagiere umzubringen. Ist es ok, wenn der Algorithmus so gebaut ist, dass er lieber die fünf umbringt als die 20? Wenn nicht, wie darf er dann stattdessen gebaut sein? Darf er überhaupt eine Entscheidung treffen? Usw usf.

      Dieses Beispiel ist genau so offensichtlich für Philosophen, wie offensichtlich fernab von jeder Realität:
      1. Dieses klassische moralische Dilemma tritt auch bei Menschen so gut wie nie auf, ist also ganz einfach kein realistischer Fall.
      2. Das Auto weiß gar nicht, wie viele Menschen wo drin sitzen.
      3. Träte es auf, wird das selbstfahrende Auto einfach NIEMANDEN umnieten, weil es sich schon vorher überhaupt nicht in die Situation begibt, wo es ein derartiges Risiko eingehen könnte, weil das Auto eben NICHT SELBST fährt, sondern alle Autos gemeinsam zentral gesteuert werden oder im Mesh miteinander kommunizieren.

      • Ich kann mir an dieser Stelle den Hinweis nicht verkneifen, dass in über 200 Jahren Eisenbahnbetrieb nicht ein einziges Mal das Trolley-Problem aufgetreten ist.
        Das sollte reichen, um dessen praktischen Wert zu beurteilen. (Abgesehen von seiner Lehrfunktion für Philosophie-Erstsemester).

      • ad 1: Falsch, dieses Dilemma entscheiden jeden Tag unzählige Chauffeure, Schiffskapitäne, Busfahrer, Lokführer und Piloten. Ausserdem alle, die ein AKW fahren. Bei manchen kommt es häufiger und beim manchen seltener zu dieser Entscheidungssituation. Schätze, dass solche entscheidungen weltweit stündlich und nicht etwas „alle Paar Jahre“ gemacht werden.

        ad 2: Die AI „weiss“, dass montags um 6 drei junge Männer im Elektrikerauto sitzen und dass um 7:30 auf dem Schulweg keine Windows-Programmierer die Strasse überqueren. Und der entgegenkommende Volvo ist rechnerisch ein besseres „Ziel“ als das Elektro-Velo, das bei einer Vollbremsung auf dich drauf fährt. Die AI wird den Schaden minimieren, wenn sie diese Informationen hat. Nur wer definiert den Schaden und bestimmt den Algorithmus dafür? Wer definiert die Parameter? Läuft das nach Lebensalter oder wird da noch das Einkommen regrediert? Oder spielt die rechnerische Ueberlebenschance nach Krankenkassen-Daten eine Rolle? Lieber den kleinen Dicken mit Diabetes-Risiko umnieten (weil er p < .05 häufiger das Taxi nimmt) oder den koks-freudigen Porsche-Fahrer, der die Situation verursacht hat, weil er "im Eifer des Gefechts" meinte, auf der linken Spur fahren zu müssen?

        ad 3: Naive Technikgläubigkeit. Spätestens dann, wenn "deine kleine Tochter" vors Google-Auto rennt, um den Ball zu fangen, in einer Spielstrasse wo "eigentlich nichts passieren kann" wirst du vielleicht anders darüber denken.

    • Diese ständigen Überlegungen zu Regelwerken für die Auswahl eines Opfers sind alle Blödsinn, weil weder sinnvoll, noch machbar.

      Sicherheitstechnik arbeitet immer mit dem Ansatz, dass NIX passieren soll, im Fall vollständig autonom fahrender Fahrzeuge im Straßenverkehr heißt dass, dass die Geschwindigkeiten entsprechend so angepasst werden, dass auch im Fall einer Überraschung immer angehalten werden kann.

      Das macht den Autoverkehr wesentlich langsamer und die Art von Sicherheit, die man mit solchen Systemen schon allein rein rechtlich gesehen anstreben muss, erst möglich.

      Politischer Druck seitens der Autofahrer, die keine langsamen Hinternisse im Straßenverkehr wollen, mag die Zulassung solcher Fahrzeuge verzögern, wird aber in keinem Fall dazu führen, dass Systeme gebaut und für den Straßenverkehr zugelassen werden, die im Stil einer vollautomatischen Selbstschussanlage einem Regelwerk folgend Entscheidungen über Leben und Tod fällen.

      Jede Entscheidung muss mit dem Ziel getroffen werden, jeden Schaden zu vermeiden, und das heißt im Fall von einem Auto in einem bewohnten Gebiet ganz einfach stehen bleiben.

      Autobahn funktioniert etwas anders, weil zum sofortigen Stehenbleiben Dinge wie auf freie Flächen Ausweichen und gezielt, aber maßvoll bremsen kommt, mit einem fließenden Übergang vom Fahren mit Abstandskontrolle hin zur aktiven Schadensvermeidung.

      Die Situation auf einer Autobahn lässt sich gut mathematisch modellieren und von einer Logik im Stil eines Autopiloten meistens einigermaßen abdecken.

      Bewohnte Gebiete sind dagegen Orte voller Überraschungen, wie Leute, die z.b. plötzlich ohne zu schauen hinter einem geparkten LKW hervorspazieren – da hilft nur die ƒUahigkeit, jederzeit extrem schnell zum Stehen zu kommen, verbunden mit einem kleinen Ausweicher in sehr eindeutigen Situationen.

      Will man in einem bewohnten Gebiet mit dem immanenten Risiko, solche Leute zu verletzen, mit heute üblichen Geschwindigkeiten durch bewohnte Gegenden fahren, muss man halt selber die Kontrolle übernehmen und damit die Verantwortung.

      Verantwortung übernehmen kann die Maschine nicht, das können nur indirekt der Gesetzgeber und die Herstellers, und bei den Herstellen kümmert sich um solche Fragen üblicher- wie sinnvollerweise der Antwalt vom Dr. Kelso aus Scrubs.

  10. Kapitalismus ist übrigens etwas anderes als Marktwirtschaft (empfehlenswert in diesem Zusammenhang ist „Der Sieg des Kapitals“ von U. Herrmann)

  11. Vielleicht wäre es für die Terminator-mit-Elefantengedächtnis-Zukunft gar nicht schlecht, wenn wir den Robotern einen Platz in unserer Ethik einräumen. Dann könnten wir auf Gnade hoffen.
    Zum Gedankenexperiment bezüglich Diskriminierung: Denkt das mal weiter mit der Prämisse „Hin und wieder muss auf Zufallsbasis gegen die erkennen Regeln verstoßen werden, um deren Aktualität zu überprüfen.“

  12. Künstliche Intelligenz löst nicht alle Probleme besser, weil sie keine moralischen Entscheidungen trifft sondern Entscheidungen, die das Zielergebnis maximieren.

    Bleiben wird beim Beispiel der Kreditvergabe. Das Problem würde dann nicht sein, dass bestimmte Personen keinen Kredit bekommen. Das Problem wäre, dass die künstliche Intelligenz ja den Profit maximieren will. Die Moral wäre ihr egal. Das heißt die KI würde z.B. die Entscheidung treffen einer Person einen Kredit zu geben, obwohl sie aus den big data Informationen weiß, dass diese Person für die Rückzahlung irgendwann einen dritten Job brauchen wird, die Krankheitskosten für die wahrscheinliche Krebstherapie nicht bezahlen und das Kind nicht auf die Uni schicken kann. Die KI wird berechnen wie weit sie eine Person finanziell auspressen kann.

    KI macht nicht als besser. Für sie ist es ein reines Optimierungspiel. Sie macht nur das effizienter was der Benutzer/Eigentümer im Schilde führt. Gut oder schlecht.

  13. Hallo Linus,

    nur eine kleine Anmerkung zu deiner Überlegung, dass die Kreditwürdigkeis-KI nur aus den Daten lernen kann wo sie auch Kredite vergeben kann und somit nach deiner Befürchtung in einem sogenannten lokalen Minimum/Maximum steckt und den von diskriminierenden von Menschen gaeschaffenen Status-Quo beibehält: Ein guter Algorithmus würde bei einer quantitativ geringen Anzahl von Fällen auch einfach mal random trotzdem einen Kredit vergeben, einfach zur Exploration. Die würde zwar nach dem bisherigen Entscheidungs-Modell einen Geld-Verlust bedeuten, aber wenn das Modell dadurch verbessert werden kann, weil es Daten bekommt die in dem alten System gar nicht angefallen wären, dient eine solche Vorgehensweise ja trotzdem auf lange Sicht dem Optimierungsziel.
    Aber generell hast du natürlich Recht, dass solche Systeme (auch nicht digitale) immer auch eine gewisse Feedback-Loop haben.

  14. Liebes LNP:

    Ich schätze die Sendung ansonsten sehr, aber dieses Mal hat ist im ersten Teil wohl etwas daneben gegangen. Ich hoffe, dass mein Kommentar deulich macht, was ich meine. Es sind zwei Punkte.

    Erstens geht es v.a. Linus um die Frage von „Diskriminierung“ und die versuchst Du mit „big data“ in Verbindung zu bringen. „Diskiminierung“ meint zunächst einmal nur Unterscheidung und hier müssen aber zwei Ebenen unterschieden werden. Da gibt es die „private Diskriminierung“, die jeder macht (auch Du, wenn du Dich entscheidest auf diesen Kommentar zu antworten oder nicht). Jeder, der sich seinen Wohnort, seinen Partner, seine Freunde aussucht diskriminiert und da ist in keinem einzigen Fall etwas Schlechtes dran. Ganz in Gegenteil. Es wäre fast schon faschistisch, diese Art von Diskriminierung unterbinden oder gar verbieten zu wollen. Da gibt es aber noch die „systematische Diskriminierung“, wenn vor allem staatllicherseits Unterschiede gemacht werden (obwohl „vor dem Gesetz alle gleich sind“).

    Man kann sich nun fragen, ob im Geschäftsleben diskriminiert werden darf oder nicht. Das ist eine politische Entscheidung, ob das noch „privat“ oder „systematisch“ ist. Persönlich bin ich der Meinung, dass kein Gesetz jemanden zwingen sollte, ein Geschäft mit jemanden einzugehen, von dem er oder sie nicht überzeugt ist, ein passender Geschäftpartner zu sein. „Anti-Diskriminierungs-Gesetz“ hin oder her. Aber Linus, du bist doch der erste, der Deine Zuhörer auf Regelungen hinweist, die aus Prinzip nicht funktionieren können (was ich an Dir sehr schätze).

    Zweitens, gar nicht verstehen kann ich Dein fast schon zynisches Unverständnis gegenüber ethischen Fragestellungen im Bereich AI. Es ist doch egal, wie sich die Grundrate an fahrerverursachten Unfällen reduziert! Wir rechnen ja auch nicht, wieviele Verkehrstote es weniger gibt seit der Einführung der Anschnallpflicht und rechnen das gegen die Verkehrstoten, die durch Alkohol verursacht wurden. Wenn die Airbags und Knautschzonen besser werden, sollen wir dann Sauffahrten erlauben oder was?

    Mir kommt es fast so vor, als wolltest du die Frage der Verantwortung (wobei du Verantwortung mit Schuld gleichsetzst und dir über die Begrifflichkeit einen schmalen Fuss machst) dem „allgemeinem Lebensrisiko“ zuordnen möchtest. Ich halte das für sehr gefährlich! Technischer Fortschritt ist kein „gottgegebenes“ oder wenn Du willst „naturgegebenes“ Gesetz, sondern Resultat bewusster Entscheidungen verantworlicher Individuen.

    Meine Argumentation erinnernt mich gerade an Dürrenmatt und seine „Physiker“. Der Programmierer, der sich im Code für ein bestimmtes Kollisions-Programm entscheidet, beim dem er (um das traditionelle Beispiel zu bemühen) die Oma umfährt und nicht die Enkelin (weil er ihr Leben als wertvoller einschätzt) oder gegen den Volvo fährt und nicht gegen den Opel (wogegen meines Wissens Volvo in dieser Diskussion grossen Protest eingelegt hat) – dieser Programmierer oder von mir aus sein Arbeigeber trägt die Verantwortung für diese Entscheidung.

    Und diese Verantwortung ist – wenn es hart auf hart kommt – gerichtlich auch viel klarer darzustellen, als wenn wir es mit Menschen zu tun haben, die in einer Notsituation irgendwie handeln und wir deren Handlung nicht vorhersagen können.

    Ich mache mich hier auf eine spannende gesellschaftliche Diskussion bereit, spannender noch als die Diskussion über das Flugsicherheitsgesetz, wo es um die Frage ging, ob man z.B. 200 Leben opfern darf um 200.000 zu retten (wenn etwa ein entführtes Flugzeug mit Kurs aufs AKW Fessenheim zufliegt). Das BVerfG hat hier ja eine sehr kluge Entscheidung gefällt, die vielleicht auch Grundlage werden wird für Entscheidungen im Zusammenhang mit der Zulassung von AI in Bereichen, wo es „hart auf hart“ kommt.

    Meine Prognose, ganz zum Schluss, wäre, dass in ethisch kritischen Bereichen AI (und wir reden nicht von Automatisierung, sondern von von dem gewissen Punkt ab dem die „Programmierer“ die Reaktionen des Programms nicht mehr vorhersagen können) gegen GG 1 „Die Würde des Menschen ist unantastbar“ werden wird zumindest mal ganz hart kämpfen müssen.

    Nun werde ich mich dem zweiten Teil eures wunderbaren Podcasts widemen und wünsche alles Gute,

    Wildhuende

  15. Linux ist in dem Podcast sehr kurzsichtig.

    Die Annahme das man mit Big Data alle Erkenntnisse über alle Personen hat, ist schlicht falsch.
    Egal viele Daten man hat es fehlt immer ein Teil und es gibt immer einen Bias und somit Fehlentscheidung.
    Weiterhin haben neue Entwicklung immer Fehler/Nebenwirkungen die meist erst Jahrzehnte später sichtbar werden. Zum Beispiel war Asbest sehr lange ein beliebter Baustoff.
    Weiterhin ist die Frage was die zielvorgabe ist. Ein Autohersteller hat das Ziel der Gewinnmaximietung, d.h. Wenn die Kosten für einen Verkehrstoten geringer sind als der Gewinn der durch ein neu verkauftes Auto entsteht werden Verkehrstoten irgendwann Profitabel und aus Sicht der KI ein sinnvolles Ziel.

    Es braucht definitiv eine Diskussion welche Ethischen Grenzen man setzen möchte.

  16. Prinzipiell stimme ich Linus zu, dass ein nüchterner, nimmermüder und emotionsloser Computer tendenziell besser fährt als zugesoffene Testosteronjunkies, die eine Straße mit einem Kriegsschauplatz verwechseln. Auf der anderen Seite: Wer schreibt denn die Software, der wir uns anvertrauen sollen? Das sind die gleichen Stümper, die in die Motorsteuerung Routinen einbauen, um Abgaswerte zu schönen. Denen geht es nicht darum, ordentliche, zuverlässige Software zu schreiben, sondern möglichst schnell irgendwechen Code hinzuschmieren, der die formalen Tests passiert, so dass man im Zweifelsfall immer sagen kann, man hätte sich nur an die Vorgaben gehalten.

  17. Hallo,
    warum hat eigentlich dieser schöne Podcast für seine Webseite keinen vertraulichen und abgesichterten Kanal für die Interaktion mit seinen Lesern und Hörerinnen?
    Das nötige Bewußtsein ist vorhanden, da bin ich sicher, wird es doch gerade in diesem them. Netzsegment geradezu gepredigt. Und vor allem gelebt: https://netzpolitik.org/ https://ccc.de/ um mal zwei zu nennen. Welchen Impuls braucht es hier noch?

  18. Eure anfängliche Diskussion über Künstliche Intelligenz und Diskriminierung erinnert mich sehr an diesen TAL Beitrag, auch wenn die systemische Komponente hier keine KI ist:

    http://www.thisamericanlife.org/radio-archives/episode/573/status-update?act=3

    Bei der Diskussion geht es denke ich vielmehr darum, dass in einem rein rational agierendem System sich ein vorhandener, durch Diskriminierung entstandener, Spalt nicht schließen wird. Auch wenn ein solches System natürlich nicht aktiv diskriminiert, können die angelegten, in sich logischen, Maßstäbe frühere Diskriminierung aufrechterhalten.

  19. Es wurde schon angesprochen, aber noch nicht komplett, deshalb hier noch mal etwas zur Kreditvergabe. Es ist keine binäre Entscheidung, Kredit ja/nein, sondern eine Berechnung der Ausfallwahrscheinlichkeit. Es kommt also jeder Kreditantrag in ein Töpfchen. Von „Fällt garantiert nicht aus“ = 0 % Ausfallzins, bis „Fällt bestimmt aus“ = 100% Ausfallzins. Man zahlt aber neben dem Ausfallzins auch noch Zinsen für die Refinanzierung der Bank und die erwarteten Gewinne der Bank (und auch das Eigenkapital, das ja verzinst werden will, gerne mit 25 %, wenn man Joe Ackermann heißt). So kommt man am Ende also auf einen Zinssatz. Wenn die Bank genug Kredite hat, die alle die gleiche Ausfallwahrscheinlichkeit haben (z. B. 4 %), dann ist der Ausfallzins quasi die Versicherungssumme, die jeder Kreditnehmer bezahlt. Wenn dann bspw. 4 von 100 Krediten ausfallen, dann ist das für die Bank nicht weiter schlimm, sondern eingepreist und vom Kunden bezahlt.
    Natürlich wäre es toll, wenn einem der Algorithmus sagen würde „nimm den Kredit besser nicht, du wirst es nicht schaffen“, aber in der Praxis lässt er einen das nur durch den zu zahlenden Zins wissen. Und der Zins selbst ist ja auch wieder ein Risiko dadurch erdrückt zu werden (jemand der eh reich ist, hat weniger Ausfallwahrscheinlichkeit und muss deshalb weniger Zinsen zahlen als jemand der Reich ist). Durch diese Verfahren minimiert die Bank ihr Risiko, das System lernt gleichzeitig weiter (und kommt nicht an den Punkt, dass nie wieder jemand ausfällt, und die Maschine deshalb aber auch nix lernt). Wenn eine Bank es geschickt anstellt, verdient sie ja auch an einem Bankrott noch mal durch Strafzinsen und Gebühren und eine Verwertung der Sicherheiten.

    Das Problem trifft nicht nur Ausländer sondern alle benachteiligten Personen und sorgt damit für weitere Segregation. Eine Lösung wäre es, den Banken eine extrem strikte Trennung nicht zu erlauben, indem z. B. ein gewisser Zufallszins (positiv oder negativ) eingebaut wird. Und manch einer hat einfach Glück und bekommt einen etwas niedrigeren Zins als es die Maschine errechnet hat.

  20. Ein kleiner Einwurf zu Maschinenrechten:
    Man kann das wie Linus als total absurd empfunden, ich denke aber dass die Diskussion durchaus nicht Unsinnig ist.

    Wie im Podcast bereits angemerkt zeigen Menschen beim Anblick der Misshandlung humanoid wirkender Maschinen Empathie, teilweise sogar ein erstaunliches Maß.

    Wenn diese Parallele scheinbar so gravierend ist, dann ist wohl denkbar dass tolerierte Gewalt gegen diese Art von Maschine auch wieder auf den Umgang mit Mitmenschen rückwirkt.

    Das Morddrohnen selbstverständlich inakzeptabel sind, sollte nicht die Diskussion über diese Thematik abwürgen.
    Wir werden mit aktiven Maschinen leben, die Frage des Umgangs stellt sich uns, und bitte nicht nur Sci-Fi Autoren.

  21. Meine Frau bekommt keinen Handyvertrag, weil sie Ausländerin ist.
    Wir haben ihren Schufaeintrag, der im Prinzip bis auf „Ausländer“ datenleer ist, genau studiert.
    Dass sie verheiratet ist mit jemandem der mehr als üppig verdient, liegt dort als Datensatz nicht vor.
    Wir können pro Monat ohne Probleme 20 Mobilfunkverträge bezahlen, trotzdem kann sie keinen abschließen. Schlechter können die Systeme doch kaum mehr urteilen als jetzt, die Furcht vor (durchaus) möglichen Fehlentwicklungen sollte nicht ausser acht lassen wie dysfunctional unsere Systeme heutzutage tatsächlich urteilen.

  22. Hey Linus,
    vielleicht war es der Versuch Dich zu missbrauchen, um die Wähler durch Angst mache „hilfe ich werde beeinflusst“ dazu zu bringen wieder die
    „seriösen“ Parteinen CDU/CSU/SPD zu wählen.
    Also der Versuch, so die Wahlen zu beeinflussen.

  23. So ganz konnte ich der Argumentation im Prolog auch nicht folgen.

    Allerdings würde ich schon an der Verwendung des Begriffs „Künstliche Intelligenz“ Kritik üben. Wenn wir von einem Programm sprechen, dass Kreditwürdigkeit bewertet, dann hat das nichts mit der Nachbildung von autonomer Intelligenz zu tun. Es werden lediglich Techniken verwendet, die ein Nebenprodukt der Forschung an Künstlicher Intelligenz sind, aber nicht mit dem Ziel eine solche zu erzeugen. Natürlich, da menschliche Intelligenz allem Anschein nach nichts anderes als ein Rechenprozess eines komplexen Systems ist, gibt es eine gewisse Ähnlichkeit dieser Anwendung mit Aspekten von Denken. Das gilt aber genauso für herkömmliche Programme mit explizit formulierten Algorithmen, nur deshalb ist ein Computer für uns nützlich.

    Von dieser Kritik kann man zu der Diskussion über Ethik weitergehen. Ich glaube, dass zumindestens ein Teil der Personen, die von einer Roboter- oder KI-Ethik sprechen, eigentlich die ethische Bewertung der Technik meinen (in Analogie etwa zur Tierethik) und nicht „Ethik in Maschinensprache“. Und das ist ein Aspekt von Technikfolgenabschätzung. Eure ganze Diskussion beruht auf Überlegungen zur ethischen Dimension der technischen Entwicklung. Nur durch die schwammigen Vorstellungen von Künstlicher Intelligenz kommt es zu unproduktiven Nebendiskussionen.

  24. Ich sehe diese ganze Big Data Geschichte eher als Bedrohung des (volkswirtschaftlich sinnvollen) Modells „Versicherung“. Dieses dient dazu, die Kosten von seltenen, aber existenziell teuren Ereignissen (Erkrankung, Brand etc) Gleichmäßig auf die Bevölkerung zu verteilen. Das funktioniert aber nur, weil niemand wissen kann, ob es ihn trifft oder ob er einer der vielen (meisten) ist, die nur einzahlen, aber nie einen wesentlichen Schaden haben werden.

    Wenn jetzt aber Big Data (oder welche Technologie auch immer) dazu führt, dass man das individuelle Risiko präziser bestimmen kann (im krassesten Fall durch die Erfindung der Technologie „Glaskugel“), dann würde niemand, den es dann später nicht trifft, noch eine Vermischung abschliessen, was dazu fuehrt, dass die, die sie dann bräuchten sie auch nicht mehr zur Verfügung haben.

  25. Linus, du sagst ja, dass Maschinen im Zweifelsfall dann bessere, weil präzisere Entscheidungen treffen. Diese Formulierung finde ich schwierig, weil ja niemand davon abgehalten wird, eine Paychopathen-KI zu bauen, die, so alle so agieren würden, nicht funktionieren würde, im Netz der gemäßigten KIs aber einen evolutionären Vorteil hat, weil sie die über gewisse Gesetzmäßigkeiten hinwegsetzt.

  26. Lose zum Thema: Ich habe gehört (Anekdotenwissen!), dass (zumindest hier in Österreich) eine der automatisierten Regeln für das Ermitteln der Kreditwürdigkeit einer Person ist, ob ihr Vorname „Kevin“, „Jacqueline“ o.ä. ist. Wenn ja wird die Kreditwürdigkeit heruntergestuft, weil „Proletenfamilie“. Zumindest diese Art der Diskriminierung existiert bereits.

  27. Lieber Tim, lieber Linus,

    (vorweg: Geld und Schoko kommt bald per Post, keine Bock auf Flattrtracking)
    Bis jetzt immer verpennt, dass man auch Kommentieren kann …
    Also: Fettes Lob! Logbuch Netzpolitik ist mein Wochenlichtblick :-) und lachen muss man auch!!!

    Prima finde ich:
    – Ihr nehmt die Bedrohung einer freien Gesellschaft durch zunehmendes Infragestellen von Grundrechten, nur weils um den digitalen Raum geht, ernst. ZB durch umfangreiches Tracking via SocialMedia plugins. Ist eher selten (draussen, in der normalen Welt ;-) ). Egal ob mit oder ohne Facebook.

    – Ihr nennt Leute, die diesbezüglich besonders unverschämt sind beim Namen (!) – zB im NSA-Ausschuss.

    – Ihr seid witzig-zynisch, ohne dabei beliebig und apolitisch zu sein. UNd es ist super, wenn ihr euch in die Wolle kriegt.

    Was ich mir wünsche.
    – manchmal mehr Überblick (is ja nicht Chaosradio)

    – etwas häufiger konkrete Tips

    – den alten Jingle zurück.

    Ergo: Volle Kraft voraus!

  28. Die EU hat das Thema BigData bereits auf dem Schirm. Wir arbeiten in einem EU-Projekt (eudeco), indem es darum geht, einen Markt für Datenanbieter und Datennutzer zu schaffen, sodass die Gesamtgesellschaft von diesen Daten profitieren kann. Hier mal ein Link zur Projektseite: http://data-reuse.eu

  29. 1:40 – 1:47
    „das muss ein Philosph oder so gewesen sein …
    auf jedenfall einer der zuwenig zu tun hat.“

    Das regt mich echt auf. Fordere eine Entschuldigung und werde bis dahin keine Zeit mehr mit lnp verschwenden.

  30. Neben Analytics hat Google auch andere Möglichkeiten nachzuvollziehen welche URLs besucht werden. Webseitenbetreiber und beliebte Frameworks wie WordPress, Bootstrap und deren Themes nutzen diese überwiegend gedankenlos und wird einem auch nicht einfach gemacht, dies zu unterbinden:
    – Google Web Fonts (Asset, könnte auch lokal liegen)
    – Google Maps (API)
    – Google Adwords (API)
    – Google Youtube (Embeded)
    – Google Graphs (API)

    Mir fällt dann auch noch weit verbreitete Nutzung ein von:
    – JQuery (Asset, könnte auch lokal liegen)
    – Gravatar (API)
    – Font Awesome (Asset, könnte auch lokal liegen)
    – Paypal spenden Button
    Wäre ja mal interessant zu untersuchen, was diese Firmen damit machen/könnten laut AGBs.

    Neben den großen wie Google, Facebook, Amazon, Apple, Twitter, sollte man Microsoft und besonders IBM (Watson Deeplearning, Alchemy) nicht vergessen. Wenn doch Daten und besonders personalisierte Daten das neue Öl ist werden diese auch zugekauft werden. Firmen, die gar nicht so wahrgenommen sammeln doch schon lange und erstellen Profile für alle möglichen Zwecke, wie Acxiom.
    In dem „Filter Bubble“ Buch gabs doch eine Stelle:
    „“As soon as the hijackers’ names had been publicly released, Acxiom had searched its massive data banks, which take up five acres in tiny Conway, Arkansas. And it had found some very interesting data on the perpetrators of the attacks. In fact, it turned out, Acxiom knew more about eleven of the nineteen hijackers than the entire U.S. government did—including their past and current addresses and the names of their housemates. We may never know what was in the files Acxiom gave the government (though one of the executives told a reporter that Acxiom’s information had led to deportations and indictments). But here’s what Acxiom knows about 96 percent of American households and half a billion people worldwide: the names of their family members, their current and past addresses, how often they pay their credit card bills whether they own a dog or a cat (and what breed it is), whether they are right-handed or left-handed, what kinds of medication they use (based on pharmacy records) … the list of data points is about 1,500 items long.”
    ― Eli Pariser, The Filter Bubble: What the Internet is Hiding From You

  31. Hallo,

    finde eure Sendung großartig!!
    Kann der Argumentation, dass „Botarmeen“, die z.B. Pegidamist verbreiten, nicht demokratiegefährdend sein sollen…

    Zum Thema KI noch ein Filmtipp: Ghost in the Shell

  32. Möchte widersprechen, dass Social Media Bots „kein relevantes Problem“ sind.

    Relevanz in den Medien ergibt sich heutzutage zu einem guten Teil aus Relevanz in sozialen Medien. Siehe: zahllose Berichte über virale Internet-Ereignisse.

    Wenn etwas auf Twitter/Facebook trendet, ist es auch für seriöse Medien schon eher einen Artikel wert.

    Und der Mensch ist ein Herdentier. Wenn wir hören, dass viele andere eine Meinung haben, schließen wir uns dieser Meinung eher an, als wenn es erkennbar eine abseitige Einzelmeinung ist.

    AfD und Trump sind zu einem guten Teil Social Media Phänome, die hässlichen Fratzen kaputter Filterblasen.

    Deshalb, in Zeiten knapper Wahlergebnisse (es gibt selten Erdrutschsiege, so dass eine kleine Manipulation reicht) und dem Glaubwürdigkeitsverlust der klassischen Medien gegenüber der Filterblase – ja, es erscheint mir absolut plausibel, dass man mit Twitter-Bots und Facebook-Fakes reale Politik beeinflussen und Wahlen kippen kann.

  33. Um nochmal auf die Twitterbots zurückzukommen. Im unten verlinkten Bloomberg-Feature geht es um einen kolumbianischen Hacker, der für rechte politische Kräfte in Lateinamerika an der Manipulation der öffentlichen Meinung gearbeitet hat. Laut dem Text waren Bots, die eine hohe Zahl von Accounts verwaltet haben, eines seiner Werkzeuge, um Themen zu setzen und Falschinformationen zu verbreiten:

    http://www.bloomberg.com/features/2016-how-to-hack-an-election/

    (via netzpolitik.org)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.