LNP175 Dann platzt Google

Künstliche Intelligenz — Social Plugins — Social Media Bots — Google

Linus ist wieder da und wir präsentieren Euch diese Woche eine thematisch weitschweifende und philosophierende Sendung, die mangels akuter Nachrichtenlage die Gesamtsituation der Digitalen Welt als Diskussionsgrundlage nimmt.

Dauer: 1:48:43

avatar
Linus Neumann
avatar
Tim Pritlove

Für diese Episode von Logbuch:Netzpolitik liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.

Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.


Transkript
Linus Neumann
Guten Morgen. Guten Morgen Tim. Ist doch schon längst der Fall.
Tim Pritlove
Lokbuchnetzpolitik Nummer hundertfünfundsiebzig direkt aus dem Mastercontrol Programm mit einem geladenen Linus. Ja, du hast hohe Energie, so ja so, ich müsste dich eigentlich direkt zum Zahn schicken, so als Teiche, die Beschleuniger.
Linus Neumann
Den Teilchen mache ich Beine, ey. Schön, schön dieses mit den künstliche Intelligenz. Also es ist eigentlich was, was ich eigentlich wollte ich das Thema gar nicht ansprechen, weil es mich so äh weil ich eigentlich nachdem ich das schon eine halbe Stunde behandeln musste, mir eigentlich gedacht habe, dass ich nie wieder drüber reden. Aber ich habe ja jetzt so eine längere Reise gemacht zu allerlei ähm Konferenzen und so. Und ähm bei einer dieser Konferenzen. Kam dann die Debatte auf, ja, wenn die künstlichen Intelligenzen jetzt demnächst so klüger werden und so, ne? War da irgendwie so, das muss ein Philosoph oder so gewesen sein oder so, weiß ich nicht, auf jeden Fall einer, der irgendwie zu zu wenig zu tun hat, ja. Und äh dann äh irgendwie sich dann, Meint, ja, jetzt müssen wir ja überlegen, ob nicht vielleicht dann demnächst die Roboter, ne, wenn die, wenn ohnehin die Roboter jetzt quasi bald hier unsere Welt übernehmen ne? Und irgendwie uns die Arbeitsplätze ja wegnehmen und so, ne, da wird sich dann die AfD drum kümmern. Insofern, die haben dann auch nochmal in in paar Jahren was zu tun, hoffentlich nicht, hoffentlich gibt's die dann nicht mehr, aber wenn, dann können wir die auf die Roboter hetzen. Ähm aber dann kam halt die Frage, ja, ob wir denn nicht dann, ob's dann nicht eine Ethik für Roboter geben muss Ist ja klar, muss eine Ethik für Roboter geben, die sollen uns nichts tun. Ne? Problem ist diese Ethik ist ja schon längst überschritten, weil wir ja in oder nicht wir, aber doch eigentlich ja auch wir äh in in fremde Länder fliegende Mordroboter schicken, um da Menschen zu töten. Also diese Ethik für Roboterzug, der ist irgendwie schon längst abgefahren, ne Aber er meinte das andersrum, weil es könnte ja sein, dass der, wenn jetzt quasi künstliche Intelligenz quasi ähm die Lernthemen durch ihre Erfahrungen und so. Äh ob dann die nicht irgendwo, ob man ihr nicht dann auch ein Bewusstsein äh zubilligen kann, weil sie ja dann auch nicht mehr vollständig deterministisch funktioniert und ein Ergebnis ihrer Erfahrung und so weiter ist und das wäre ja alles völlig parallel zum Menschen, und dann äh könnte man das hier auch nicht einfach abschalten. Das heißt, dann wäre also quasi hat das jetzt als als bedrohliches Problem unserer Gesellschaft herausgestellt, dass wir vielleicht, Künstlichen Intelligenzen dann irgendwann einmal oder relativ bald ethische Rechte zubilligen müssen. Was ich so ungefähr für das unsignifikanteste Problem halte, mit dem man sich momentan beschäftigen kann. Mir fallen wenig Probleme ein, die weniger signifikant sind, als dass mein autonom fahrendes Auto jetzt plötzlich auch noch ethische Ansprüche gegenüber mir entwickeln kann, Wo ich doch gerade noch in der Illusion lebe als Mensch, dass wir uns diese Technik untertan machen können Wobei wir ja alle wissen, dass wir zweitausendzwanzig oder zweitausenddreißig erfahren werden geht gar nicht. Scheiße. Jetzt machen die sich uns untertan. Und in so einer Zeit geht einer hin und macht sich Gedanken darüber, dass man ethische äh Prinzipien, auf Maschinen anwenden muss. Auslöser für das Gespräch war, du hast es gesehen, dieses Boston Dynamics Video. So heißt dieser zweibeinige Roboter, ne.
Tim Pritlove
Genau, der jetzt auf Akku läuft und irgendwie durch die Gegend läuft. Gibt's auch eine, gibt's auch eine schöne Variante mit so einem äh gedappten Unterton wo und Mensch die ganze Zeit Shit ruft und der stolpert und, sich beschwert, dass der andere Mensch die äh die ganze Zeit mit einem Baumstamm auf ihm einschlägt.
Linus Neumann
Weil die also das ist ja sowieso geil. Diese Boston, da nehme ich's, das ist ja eigentlich ein Unternehmen, die haben glaube ich äh die machen diese haben diese Dinger für für militärische äh Zwecke bauen die die ein.
Tim Pritlove
Mhm. Also hatten sie zumindest vor so richtig gut gelaufen ist das wohl nicht mit ihrem Hund, dass äh der Armi dann doch irgendwie zu auf äh.
Linus Neumann
Also die haben zuerst, die haben zuerst einen vierbeinigen Roboter gemacht, der ist da irgendwie rumgegangen und dann war irgendwie das Video, das Video, um zu zeigen, wie geil ihr Roboter war, ist wahr der läuft irgendwie den Gang runter, so ein typisches Bürogebäude, alle zehn Meter oder alle fünf Meter eine Tür Roboter läuft erlang, freut sich irgendwie so oder freut sich eben nicht, weil der Roboter hat keine Gefühle deswegen, ne? Da braucht er keine Ethik und so. Aber Roboter läuft jetzt den Weg daher und dann kommt er also aus dem Seitengang einer und kickt den seitlich, So und dann macht der Roboter einen Ausfallschritt. Ähm fällt nicht auf die Schnauze und läuft weiter und das demonstriert eben die die G-Fähigkeit dieses Roboters. Das schon vor ein paar Jahren, als sie diesen Vierbeiner rausgebracht hat. So, jetzt kommt dieser Zweibeiner, haben sie wieder ein Video gemacht. Was passiert? Roboter geht, durch den Wald wird von einem Menschen durch den Wald geführt, um zu zeigen, dieser Roboter kann oder begleitet eigentlich, ja? Um zu zeigen, dieser Roboter kann auf unwegsamen Gelände und dann ist mal irgendwie da liegt ein Laub und dann haben ist dann kleine Grube, dann dann stolpert der und fängt sich aber und läuft da durch, um eben die Überlegenheit äh dieses Roboters zu zeigen oder die die technische, dieses Roboters zu zeigen, weil eine der Sachen, die die große Herausforderung ist für Maschinen, für Roboter und alles ist der menschliche Gang. Also die Dinger auf auf Rädern rumfahren lassen, alles klar, aber kaum etwas ist. Soversatil wie der menschliche Gang und die Möglichkeit Gleichgewicht zu halten, ne? Wenn man uns zwingt oder wenn da oben was ist, dann klettern wir auch mal auf den Baum Ja werfen von oben Eier auf die anderen oder so, ne? Aber wir können also nichts ist so, kein, kein Antrieb ist so vielseitig äh äh wie wie der der aufrechte Gang des Menschen und genauso ähm, wenig oder nichts ist so vielseitig wie das Greifinstrument Hand, das der Mensch hat. Und danach streben die ganzen Roboterhersteller um uns dann irgendwann obsolet zu machen. Noch sind sie dann nicht so weit, aber okay, also die führen diesen Roboter durch den Wald und demonstrieren, der kann äh kann durch den Wald gehen so in eine einsame Lagerhalle, wo sie ihm die Aufgabe geben, Kisten in Regale zu räumen. Und wenn er dann so, dann nimmt er so eine Kiste und dann kommt halt dieser Mann, Und schlägt ihm die Kiste mit einem Eishockeyschläger aus der Hand. So und der Roboter, Lässt sich durch nichts beirren, hebt die Kiste wieder hoch, dann sticht er ihm die wieder aus der Hand, schlägt die Kiste sogar mit einem Eishockeyschläger weg. So, dann hebt der Roboter versucht, irgendwie verzweifelt diese Kiste zu nehmen und wieder und irgendwie in das Regal zu stellen, dann hat das irgendwann ins Regal gestellt Und dann wird wieder mit einem Baumstamm von hinten umgeworfen. Legt sich auf die Fresse äh und macht einen ziemlich smoothen Aufsteher, den ich in der Form nicht hinkriegen würde, weil ich ja auch hier in der Mitte. Ich sitze ja nur am Computer, ich kriege ja nicht so viel Access-Highs wie so ein Roboter. Und am Ende als er dann umgeworfen wurde, wird geht er aus diesem Gebäude raus. So, für einen, was ich an diesem Video so spannend finde, ist für einen Menschen, der das schaut, ist es kaum zu verhindern, irgendwie eine Art von Mitgefühl für diesen Roboter zu bekommen oder sich sozusagen oh der arme Roboter, ne? Und überhaupt diese Storyline auch, der Roboter wird durch ein, einsamen Wald in eine einsame ähm, Halle geführt muss dort Arbeit verrichten, wird dabei geärgert und gefoltert und gequält und flieht dann irgendwann in die Freiheit, ja? So, diese Leute, dieses Unternehmen ist in der Lage, solche Roboter zu bauen, die zweifelsohne äh beeindruckende technische Fähigkeiten haben. Aber die sind offenbar nicht in der Lage, Will man meinen, ein vernünftiges Werbevideo zu machen, aber mit Sicherheit sind sie das ja, das heißt, sie haben sich genau etwas dabei gedacht, dieses Video zu releasen. Im Zweifelsfall einfach, dass es viral geht. Was sie aber glaube ich vergessen haben, ist, dass dieser scheiß Roboter sich das merken wird und in zwanzig Jahren zurückkommt, und dann kommen seine, dann, dann wundern wir uns, warum die Terminatoren auf einmal so knatschig waren.
Tim Pritlove
Du hast mich mit dem Baumstamm geschlagen. Ich vergesse nie.
Linus Neumann
So und das Problem haben wir die Menschen jetzt schon mit den Elefanten, die sie im Zoo misshandeln, bis der Elefant dann irgendwann sagt, weißt du, weißt du woran ich mich gerade erinnert habe, Vor zehn Jahren, als ich so klein war, ne? Da hast du mir in den Arsch getreten. Da habe ich mich jetzt gerade dran erinnert. Man nennt das Elefantengedächtnis. Und das hier nennt man Elefantenfuß, Fum. Und dann treten die mal alle paar Jahre. Passiert doch, niemand weiß wieso. Und das Gleiche wird uns passieren mit den Robotern. Naja, auf jeden Fall.
Tim Pritlove
Es gibt sogar schon Leute, die darüber nachdenken, wie denn das so in Zukunft mit den Robotern und den Gewerkschaften ist, also man nicht vielleicht auch noch eine Robotergewerkschaft.
Linus Neumann
Wir brauchen Robotergewerkschaft, wir brauchen äh wir brauchen ethische Bedarf man einfach nicht mehr ausmachen. Weißte? Dann kommt so ein Killerroboter, Dann sagst du Scheiße, der der Roboter dreht durch, der will äh meine Katze erwürgen, Dann willst du den ausmachen, darfst du aber nicht, weil dann kommen die Roboterrechtler, die sagen, komm, ey, nur weil der Roboter völlig gestört ist, können wir den jetzt nicht einfach ausmachen, ne?
Tim Pritlove
Er muss ewig weiter betrieben werden.
Linus Neumann
Er muss ewig weiter betrieben werden, dass.
Tim Pritlove
Ende seiner Laufzeit.
Linus Neumann
Bis zum Ende seiner Laufzeit. Und wenn, wenn der, wenn der am, wenn der am Ende seiner Laufzeit ist, dann müssen wir ähm lebenserhaltende Sofortmaßnahmen ergreifen, und den reparieren, ja? Also totaler, also eine Debatte, ich meine, wir haben wirklich eine eine Reihe an Problemen in unserer Gesellschaft, aber dass wir jetzt Robotern in naher Zukunft ethische Prinzipien, ähm.
Tim Pritlove
Ja, also ich meine.
Linus Neumann
Also quasi ethische Rech.
Tim Pritlove
Alles seit den Achtzigerjahren schon als Film irgendwie, muss man sich nur an Bladerolle ranziehen.
Linus Neumann
Habe ich nie geguckt, interessiert mich nicht. War ein blöder Name, steht blade drin. Nee, ist zu lange her, kann ich jetzt gerade nicht Bezug drauf nehmen. Aber geht es dabei darum, äh äh dass Roboter Rechte bekommen.
Tim Pritlove
Geht um das Problem, dass äh den den Humanoidenrobotern äh eine Endoft Life eingepflanzt wurde und sie halt wissen, dass sie dann irgendwann sterben, aber genug Bewusstsein haben, sich dessen zu, und dann kommen sie irgendwie von dem fairen Arbeitsplaneten auf dem sie rumgelaufen sind und warten schon durch die Stadt und dann muss halt Harrison Ford, der irgendwie so professioneller Roboterkiller ist irgendwie äh dem halt nachgehen äh, einer der besten und und weitblickendsten äh Bücher und Filme äh ever. Also solltest du dir nochmal an.
Linus Neumann
Ida Roboter.
Tim Pritlove
Ja gut, das ist ja dieser Atlas auch.
Linus Neumann
Nee, ach so, ah okay, also ist kein Android oder was, ne? Also ist ein.
Tim Pritlove
Es ist ein ja Android, es ist ein Humor. Na, ein Android ist ja ein humanoider Roboter, das ist ja dasselbe.
Linus Neumann
Okay, aber wie, wie heißt das, wenn man gemischt ist? Was jetzt auch alle meinen, weil sie sich irgendwie einen Knopf an die Backe genäht haben, dass sie jetzt Sybalk, dass man ja eine eine Mischung.
Tim Pritlove
Woher du die andere Nummer, ja, ich, ich weiß auch nicht, ich glaube auch, dass man wahrscheinlich ein Stück weit ein paar von ehemaligen Piraten dann künftig auch als Roboter Schutz, eine Roboterschutzpartei wiederfinden wird, mal gucken, weiß ich nicht, Na ja auf jeden Fall mit dem Go ist jetzt auch vorbei und ähm, Diese ganze Deep Learning Geschichte wird uns auf jeden Fall noch zu denken geben und sicherlich auch im Kontext dieser Sendung, ähm weil gerade wenn wir so einen punkto Zensur und so weiter. Ich meine, wenn einer Go spielen kann Man kann auch Filme ausfiltern und wenn das Bemer ausfiltern kann, dann kann er auch ganz andere Sachen ausfiltern. Das ist auf jeden Fall noch ein Teil äh der Diskussion, die wir uns noch stellen müssen und die glaube ich den Zeit auch nicht ausreichend auf den Tisch legen.
Linus Neumann
Die, also da muss ich ganz kurz sagen, dass Spam ausfiltern haben die Computer sehr viel früher gelernt als Go Spielen. Ähm Base, Spamfilter, hast du doch selber hier deine Sendung drüber gemacht? Chaos.
Tim Pritlove
Na Base hat ja nicht in dem Sinne Sinne funktioniert, aber diese die bläunigen Netzwerke, die jetzt halt seit ein paar Jahren äh resieren die sind halt jetzt an dem Punkt, und äh jetzt wird's halt erst richtig äh sportlich. Bisher war das alles nur Spaß.
Linus Neumann
Und das ist eben das, äh da äh wo was die was die eigentliche, was die eigentliche Situation der Zukunft ist, dass man jetzt sagt, okay, wir haben im Prinzip, ähm. Neuronale oder neuronalartige äh Lernkonzepte umgesetzt in Programmen. Und jetzt brauchen die Daten, um ihr Potential, zu erreichen. Und ähm, Das ist das, was mit diesem Big Data gemeint ist, ne? Also künstliche Intelligenz braucht Big Data, Sonst ist es keine künstliche Intelligenz. Diese dieser Gorechner wurde dadurch äh intelligent oder zumindest haben die Schachcomputer so funktioniert, dass sie einfach Unmengen an Schachspielen gesehen haben, Und ähm diesen Goroboter habe ich mir nicht angeguckt, vor allem, weil ich das Spiel Go auch nicht verstehe oder nie gespielt habe, insofern äh weiß ich jetzt nicht nach welchem Prinzip der gelernt hat. Aber die haben mir im.
Tim Pritlove
Die haben dem auch erstmal Partien äh reingepfiffen, aber besser geworden ist, hat dadurch, dass er dann irgendwann angefangen hat auf Basis dieser Daten äh gegen sich selber zu sterben, Das heißt, er.
Linus Neumann
Okay. Das ist schön.
Tim Pritlove
Zu sagen selbst und na ja weil können ja auch zwei sein wenn er muss und.
Linus Neumann
Und hat dann geguckt, wer besser war.
Tim Pritlove
Spielt die ganze Zeit gegen sich selber und äh findet dabei raus, wie man sozusagen gewinnt.
Linus Neumann
Das ist nicht verkehrt. Aber das Wichtige ist, bei all diesen äh bei ja also bei dem momentanen Stand, der ähm künstlichen Intelligenz. Und sowie künstliche Intelligenz im Moment gut funktioniert, hast du ein, einen gewünschten Zielzustand. Also Go Spiel gewinnen. Ja? Das heißt, du kannst nämlich dieses automatisierte Lernen machen Robotern oder dass die KI nämlich lernt, ah okay, Zielzustand ist folgender und bis dahin kann ich beliebig komplexe Wege gehen. Zum Beispiel die Komplexität eines Go-Spiels, wo ja jetzt erst vor kurzem ausgerechnet wurde, wie hoch die überhaupt ist, Also äh beziehungsweise die Zahl wurde bis zum Ende ausgeschrieben.
Tim Pritlove
Allem als alle Zugkombination.
Linus Neumann
Na ja, es gibt quasi also du kannst ja quasi ein ein Go Spielbrett, und die Regeln ergeben zusammen ein Maximalwert an Entropie.
Tim Pritlove
Ja
Linus Neumann
Und dieser Wert äh wurde irgendwie vor ein paar Tagen zum ersten Mal überhaupt ausgedrückt, Ne, also so so hochkomplex ist Go. Und das ist ja des, deshalb werden künstliche Intelligenzen daran demonstriert, weil du damit zeigen kannst, was für ein Komplexitätsraum, sie, wenn nicht erfassen, dann zumindest besser meistern können als jeder Mensch. Und äh deswegen wird halt schach und äh und go und solche Sachen herangezogen. Ähm, Und wie gesagt, der Weg zum Sieg des Go Spiels oder der Weg dahin, das Go Spiel zu gewinnen, ist relativ lang und von einer, enormen Komplexität gekennzeichnet. Deswegen tradiert man daran ähm solche KI-Dinger. So jetzt gehen wir mal weiter und sagen ähm das Ziel soll sein, Ich nehme das beispielsweise so abgekaut ist und man an abgekauten Beispielen äh so schön arbeiten kann. Die Kreditwürdigkeit eines Menschen feuer zu sein. Das ist ja mal die große Sorge, die Leute haben, dass man jemandem ein Kredit gibt, der ihn nicht zurückzahlt, Ähm und jetzt stellen wir uns eine Welt vor, in der beliebig viele Daten, Big Data, ähm über eine über alle Personen, oder auch ne? Also wir haben wir haben erstens viele Personen und wir haben zweitens viele Daten über sie. Und jetzt gehen wir. Traditionell würde man sagen, man macht ein Modell auf ähm und prüft einzelne Variablen auf Vorhersagekraft der Zielvariabler. Also keine Ahnung eine ein sehr wichtige Korrelation wird halt sein, wer mehr Geld verdient ist im Zweifelsfall eher in der Lage ein Kredit zurückzuzahlen ja, wenn das monatliche Einkommen, weiß ich nicht, so und so viel tausend ist, dann wird der in der Lage sein, diesen Kredit äh zurückzuzahlen. Allerdings auch nicht einen sehr viel höheren, das heißt, man hat einen Prediktor. Dann gibt's aber noch weitere Predigtoren, was weiß ich, hat einen Doktortitel, hat einen Ferrari oder sonst was, ja? Werden quasi Modelle gemacht zur Prediktion des Outcomes. Aber die werden in der Regel von von Menschen gemacht und irgendwie Theorie geleitet gemacht. Man nimmt da jetzt nicht unbedingt eine Variable mit rein, äh die man vielleicht nicht drin haben möchte oder so oder die man sich nicht vorstellen kann, Und Big Data heißt im Prinzip, du gehst von diesem Modellansatz weg und sagst, ist mir völlig egal, ich gebe dem einfach alles, was ich weiß, und der soll über alle Personen, die er hat und über alle Merkmale, die er hat, optimieren auf das Zielmerkmal. Und dann kommt, kommt zum Beispiel raus, keine Ahnung, äh null zu null unter den und den Bedingungen, Gibt es zu null Komma drei äh null Komma drei, Prozentpunkte mehr Varianzaufklärung, dadurch, dass ich berücksichtige, ob der ein Auto fährt oder ein Opel, aber nur, wenn's eine Frau ist oder so, ja? Das heißt, beliebig komplexe Sinnzusammenhänge kann dieses System in den bestehenden Satz erkennen und lernen und wendet die dann auf neue, an. Das heißt, du hast eigentlich immer den das Big Data, ja? Also da da wo du hast schon mal einmal ganz viel Wissen und dann kommt ein neues Objekt hinzu, Zudem gibt's dann auch die ganzen Merkmale und dann soll die KI sagen ja äh Kredit würdig bis so und so viel tausend Euro oder so, ne? Und das, Bahnende oder das Interessante daran ist, dass wenn diese KI jetzt anfängt zu oder was man dann nicht möchte, ist dass diese KI anfängt zu diskriminieren. Was witzig ist, weil eine KI, die dafür gebaut ist, ähm zu sagen, ob du kreditwürdig bist oder nicht, Kann nur diskriminieren, dafür ist sie da, sie ist ja gebaut, um zu diskriminieren. Nämlich Kreditwürdige und nicht Kreditwürdige.
Tim Pritlove
Ja gut, was wo man ja auch sagen könnte, das ist ja auch der Sinn.
Linus Neumann
Genau, das ist der Sinn.
Tim Pritlove
Der Sache und von daher äh nicht unbedingt verwerflich, weil auch das soll ja die im Idealfall hast du ja auch genau diese Einschätzung bei der Kreditvergabe, dass da eben so ein super weiser, mega äh erfahrener äh Boy, oder ein Girl sitzt und die sagen, ey, so wie du mich anguckst und äh, Schimmer deiner Haare im in der Abendsonne verrät mir, du kriegst das nicht hin, ja?
Linus Neumann
Genau. So, das wäre wiederum aber äh das ist eigentlich eine interessante Debatte, weil wenn eine Kreditvergabe nach, sage ich mal, nicht nach subjektiven Kriterien, möchtest du halt eigentlich auch nicht haben.
Tim Pritlove
Weil ihr lässt ja auch den Zufall raus, weil der Zufall wird nämlich auch dazu führen, dass die Personen im Lotto gewinnt oder äh beschenkt wird oder jemand äh früher stirbt und das sind alles Sachen, die man ja eigentlich aus diesen Daten gar nicht herauslesen kann.
Linus Neumann
Das ist richtig, aber das wird auch eine künstliche Intelligenz nicht rauslesen können, wer im Lotto gewinn.
Tim Pritlove
Ja, meine ich ja eben. Genau, die kann es halt, aber wenn sie sozusagen allein aus dem offensichtlichen oder aus dem scheinbar offensichtlichen ohne das Hinzufügen eines Zufallsfaktors. Also im Prinzip müsste diese KI, wenn sie gut ist sagen okay, das ist das, was ich jetzt, legt tief in Anführungsstrichen, also auf Basis der Daten herausgefunden habe und jetzt würfele ich auch nochmal und äh.
Linus Neumann
Macht sie ohnehin, weil also das macht sie implizit, weil sie sowieso nur Wahrscheinlichkeiten äh wissen kann, ja. Aber auch von mir aus würfelt sie nochmal. Aber jetzt kommt das Interessante, So jetzt sagen wir, wir nehmen so eine äh KI für die Kreditvergabe, ja? Und wir füttern da alles rein. Alles, was wir über die Person haben. Wir füttern jeden Facebook-Post rein, wir füttern jeden Tweet rein, wird einfach einmal alles, was irgendwie verdartet.
Tim Pritlove
Mhm. Steuererklärung.
Linus Neumann
Ja, alles. So. Ja, einfach. Ja, alles. So.
Tim Pritlove
Gewicht.
Linus Neumann
Auch das. Aber das eine, was du nicht reinfüttern darfst, ist, handelt es sich bei dieser Person um eine gebürtige Deutsche oder um einen Ausländer. Weil, dir klar gesagt wird, danach darfst du nicht diskriminieren. Wäre ja Diskriminierung. Deswegen darfst du diese Daten am im besten Fall gar nicht erfassen. Ist jetzt ein Gedankenexperiment, ne? Also es wird gesagt, du sollst nicht nach Rassel, Alter, Geschlecht oder sonst was diskriminieren, Allgemeines Diskriminierungsverbot haben wir ja.
Tim Pritlove
Ja gut, das heißt aber nicht, dass man diese Daten nicht kennen darf. Heißt nur, dass man nicht auf ihrer Basis ein.
Linus Neumann
Aber jetzt gehen wir mal davon aus, gehen wir mal davon aus, du würdest sie nicht kennen, Oder du würdest sie nicht erfassen, um den Beweis zu erbringen, dass deine KI nämlich äh nicht diskriminiert, ja? So und jetzt stellt sie, stellt sich raus, obwohl du deiner KI nichts sagst, welche Nationalität Menschen haben.
Tim Pritlove
Wisst ihr es wahrscheinlich trotzdem raus.
Linus Neumann
Genau. Diskriminiert sie trotzdem. Doch wird sie tun? Ein also und zwar und der Grund dafür ist, dass es dass es das Interessante sie wird Menschen mit Migrationshintergrund diskriminieren. Weil.
Tim Pritlove
Ja, für eine geringere Wahrscheinlichkeit haben, durchzukommen, weil sie weniger ne.
Linus Neumann
Einkommen haben, weil die ein bestimmten Teilen der Städte wohnen die benachteiligt werden oder bei denen sich rausstellt, da vergibt man besser geringere Kredite und so weiter. Das heißt, selbst wenn du ihr bestimmte Merkmale nicht gibst, wird sie sich die einfach aufgrund anderer Merkmale erschließen. Du weißt noch nicht mal mehr genau, wie sie es macht, Und damit oder das Interessante daran ist, jedes Mal, wenn die KI sagt, dem lieber keinen Kredit geben, ja? Bringt sie sich, um die Möglichkeit zu lernen, dass man der Person doch einen Kredit hätte geben können. Weil sie die Zielvariabel nicht mehr bekommt.
Tim Pritlove
Na ja, an der Stelle äh stellt sich die Frage, welche Daten hast du da drin? Weil er in diesen Daten werden auch genauso gut äh äh Leute mit Diskriminierungsgefahr auch drin sein, den trotzdem mal ein Kredit gegeben worden ist, weißt du? Andere Faktoren dann aber auch wirklich eine Rolle spielen. Also so pauschal würde ich das jetzt nicht.
Linus Neumann
Ist in Ordnung, aber der der.
Tim Pritlove
Ich würde sogar fast fast noch die gefährliche These in den Raum stellen, ja? Dass es durchaus sein könnte, nicht ist, sein könnte, dass dieser Ansatz am Ende wirklich bessere Ergebnisse, Wiederspiegelt, weil er ähm auch einfach ein Prinzip Hoffnung aus diesen Daten heraus liest, ja? Die jemand anderes nicht sehen würde.
Linus Neumann
Also der der.
Tim Pritlove
Was, weil das.
Linus Neumann
Gerade zwei Punkte, Moment. Erstens, die KI wird immer, also die KI steht ja im, Dienste des Interesses ihres Betreibers. Und das Interesse des Betreibers ist, vergebe bitte Kredite möglichst lukrativ. Das heißt, wir sollen möglichst wenige platzen und ich will möglichst hohe Zinsen geben, äh nehmen. So ähm. Und du hast Recht, diese KI könnte in dem Moment, wo sie über, also diese KI wird niemals unbootmäßig ähm, Übermäßig diskriminieren? Aber sie wird auch nicht ähm. Zum Nachteil ihres Eigners über Diskriminierung. Im Prinzip ist ja beides von Nachteil. Wenn die KI nämlich sagt, ich gebe dir keinen Kredit, dann, und du hättest ihn zurückzahlen können, dann entgeht dem Auftraggeber der KI, ja diese Zinseinnahme. Und wenn sie die, wenn sie dir einen Kredit gibt, den du am Ende nicht zurückziehen zahlen kannst, dann hat der Auftraggeber, Verlust. Das heißt in beiden Fällen wenn die KI eine falsche Entscheidung trifft ist es zum Nachteil des Auftraggebers. Aber sie wird im Zweifelsfall, es nur lernen, nur verstehen, wenn sie den Fehler macht, einen Kredit zu geben, Wenn Sie den Fehler macht, keinen Kredit zu geben, wird sie es nicht so leicht lernen. Ja, also die hatten, die hatten Ungleichgewicht dahin, negatives Feedback zu bekommen, wenn sie einen Kredit vergibt und, kein negatives Feedback zu bekommen, wenn sie keinen Kredit vergibt. Das heißt, sie wird eine Tendenz dazu haben, ob sie will oder nicht, prinzipiell erstmal eher. Ähm die diskriminierten Gruppen weiter zu diskriminieren. Und wenn wir jetzt davon weggehen, dass wenn wir davon weggehen, dass ist auch eigentlich relativ logisch, ja? Wenn du immer nur aus der Vergangenheit, Die Zukunft vorhersagst, damit aber Entscheidungen triffst, die die Zukunft betreffen, Dann manifestierst du quasi Unterschiede, die schon vorher da die da sind. Und das wird die KI auch weiterhin tun.
Tim Pritlove
Ah, gehe ich nicht so ganz mit.
Linus Neumann
Also sie wird, sie wird, du hast Recht, sie wird im Zweifelsfall lernen, ja, wenn sie jetzt auf einmal übermäßig ähm Migranten diskriminiert, wird sie det auch irgendwann sein lassen, aber sie wird immer nur, Ähm die jetzt gerade geltende Realität richtig abbilden.
Tim Pritlove
Ja, aber es kann auch durchaus sein. Na ja, also ganz ehrlich, das wissen wir nicht. Weil äh ich könnte mir jetzt alles Mögliche vorstellen und kann das nicht beweisen, bis das nicht sozusagen da war, aber äh äh so ein System, Die Emotionslosigkeit eines solchen Systems kann an der Stelle auch einfach ein Vorteil sein, weil sie eben einfach insofern, Das ist jetzt nicht so überhöhen, aber dieser dieser Aspekt mit, bestimmte Dinge beziehe ich jetzt mit ein und das ist automatisch schlecht. Das ist ja nicht das Problem dieser Diskriminierung.
Linus Neumann
Ganz über das meine ich auch nicht. Da.
Tim Pritlove
Und wirkt dann eben beim Menschen, der das beurteilt eben mit so einer emotionalen Antireaktion, die in dem Moment dann halt einfach zum Nachteil gereicht. Die KI, Müsse eigentlich, wenn sie nicht genauso programmiert ist, auch diskriminierend unterwegs zu sein, das ist ja nochmal eine ganz andere Sache. Ja, aber so die dieses Ideal einer goolösenden äh äh KI Für die ist ja sozusagen jeder Zug kommt in Frage, noch so merkwürdige Zug könnte tatsächlich der Schlüssel sein und bei diesem zweiten Spiel von Alpha Go gegen diesen Großmeister war es auch so, dass diese ganze Go-Community gesagt hat, Was ist denn das für ein Zug? Da war so ein Zug, wo alle so kein Mensch würde diesen Zug spielen. Aber es hat sich herausgestellt, dieser Zug war der Schlüssel zum Sieg, Und genauso könnte diese KI bei der Bewertung der Kreditvergabe auch auf einmal eine Motivation, Die sieht, die sie äh mit ihren Sensoren erfassen kann, bewerten und sagen.
Linus Neumann
Ja, das ist aber nicht der Punkt. Der Punkt ist, die KI wird unter der Annahme, dass du, Du gibst dir einfach alles Wissen, ja? Unter der Annahme, dass sie optimal funktioniert, wird sie im Zweifelsfall sogar mit wahrscheinlich sogar immer, also mit annähernd immer die richtige Entscheidung treffen, und das Problem zu dem ich jetzt kommen möchte, weil ich die ganze Zeit noch nicht dazu gekommen bin, ist, sie wird dann diskriminieren aufgrund aller möglichen Unterschiede, die es in unserer Gesellschaft gibt, weil die nun mal, ob wir's wollen oder nicht für das Zielmerkmal der KI eine Rolle spielen. Und dass die KI dann was weiß ich Migranten diskriminiert ähm, das ist im Sinne aller Beteiligten. Das ist eigentlich das, das Erschreckende daran, weil du möchtest auch keinen Kredit haben, den du nicht zurückzahlen kannst. Man muss ja auch mal überlegen. Das heißt, die, die KI wird wird wie reine Objektivität gelten lassen und alle, Unterschiede, die wir haben in unserer Gesellschaft, würde sie weiter manifestieren, das machen heute schon, diese diese Schuhfass, ne? Ist ja klar, Weil die die haben halt irgendwie ihre ihre Überlegungen und so dabei dabei, ne? Und die wollen halt irgendwie kein Geld verlieren oder so. Aber das heißt diese die wenn du eine alles was du zum Erreichen eines objektiven Merkmales trainierst, wird, automatisch alle zum jetzigen Zeitpunkt dafür relevanten Merkmale zur Vorhersage nutzen, wird anhand dieser diskriminieren. Also das sind, Diskriminierungsmaschinen und der, das Problem und jetzt komme ich endlich zum Punkt, wenn du mir nicht jedes Mal bevor ich kurz bevor ich dahin komme. Das heißt, man baut Diskriminierungsmaschinen und das wiederum heißt der Begriff der Diskriminierung ist im Prinzip weg. Weil es ja Wahrheit ist, was die Maschine macht. Und dann sitzt du damit ein paar Waschlappen, die sagen, ja, aber die dürfen jetzt nicht irgendwie äh Ausländer diskriminieren, Ja doch, dafür werden sie halt gebaut in dem Fall, ne? Also in anderen Fällen äh diskriminieren sie halt andere, in anderen Fällen diskriminieren sie Männer oder Terroristen, denn diskriminieren die Videoüberwachungssoftware am am Flughafen über diskriminiert Terroristen.
Tim Pritlove
Genau, also das Wort diskriminierend ist jetzt hier schwierig. Ich weiß genau, was du meinst. Wikipedia sagt, kommt aus dem von dem lateinischen Verbiskriminare, trennen ab sondern abgrenzen, unterscheiden. Genau das ist das, was die Computer in dem Moment äh tun sollen. Ähm ich will das jetzt nicht länger äh länger ziehen, was ist dein Fazit.
Linus Neumann
Mein Fazit ist, dass eine ganze Menge ähm also gerade eine ganze Menge, Schauplätze aufgemacht werden in ethischen oder sonstigen Debatten von Leuten, die letztendlich kein, Bezug zu den Problemen haben, die wir als Gesellschaft in Zukunft haben werden mit diesen Techniken. Ähm, Künstliche Intelligenz, das Problem mit der künstlichen Intelligenz wird nicht unbedingt sein, welche Entscheidungen sie trifft, weil die im Zweifelsfall besser sein werden als die Entscheidung, die ein Mensch hätte treffen können. Also wenn jetzt eine künstliche Intelligenz die Kreditvergabe machen lässt, wenn eine künstliche Intelligenz Autos fahren lässt, die wird all diese Dinge besser machen als wir Menschen.
Tim Pritlove
Also mehr sinnvolle Kredite geben, weniger nicht sinnvolle Kredite äh auf Leute loslassen.
Linus Neumann
Ende zum Vorteil aller Beteiligten. Das Problem, was wir mit diesem ganzen Big Data und so weiter haben werden, ist. Dass diese Prediktionskraft, Nur einige sehr wenige ähm multinationale Unternehmen erreichen werden, Also wenn jetzt irgendwie da Leute sitzen und sagen ja, die Krankenkassen wollen jetzt bald Big Data machen. Also alle wollen jetzt bald Big Data machen, ne? Das ist jetzt irgendwie Big Data Stand jetzt in irgendwo, ne? Big Data ist jetzt und jetzt sitzen überall alle in ihren Unternehmen und sagen ja was, Was machen wir eigentlich mit Big Data.
Tim Pritlove
Wir haben uns da jetzt eine vier Terabyte Platte gekauft.
Linus Neumann
Die haben sich auch teilweise größere Festplatten gekauft, ja?
Tim Pritlove
Ja machen wir jetzt Big Data.
Linus Neumann
Ja, machen wir jetzt Big Data drauf und dann hast du halt so eine Krankenkasse, die hat ja durchaus einiges zu äh einiges an Daten, ja. Äh darf den größten Teil davon nicht verwenden. So.
Tim Pritlove
Mhm. So. Weil's ja diskriminierend.
Linus Neumann
Na ja, die haben die haben so skurrile Sachen wie, also ähm da ist Datenschutz ja dann auch teilweise ganz, ganz witzig. Ähm, Krankenkassen dürfen zum Beispiel dürfen die Daten, die sie über dich haben, nicht zum Zwecke des Marketing, oder der Angebotserstellung nutzen. Das führt zum Beispiel dazu, dass du obwohl deine Krankenkasse ja weiß, ob du beim Zahnarzt warst oder nicht. Ja? Du, ja, wenn's zu Zahnarzt gehst, zahlt deine Krankenkasse die Rechnung. Trotzdem musst du diese Bonusheftchen führen, wo dein Zahnarzt dir irgendwie ein Bärchenstempel reinmacht und sagt, äh was da zum Zähneputzen.
Tim Pritlove
Zur zur jährlichen Kontrolle. Ja.
Linus Neumann
Zur jährlichen Kontrolle, zum jährlichen Zähneputzen. Ähm dann damit du dann mit diesem Bonusheft irgendwann zur Krankenkasse gehen kannst und sagst hier, ich war fleißig, Und dann kann die Krankenkasse äh aber dieses Bonusheft musst du quasi gesondert führen. Bei dir zu Hause, also das ist halt irgendwie so so Datenschutz äh Scherze, die ähm.
Tim Pritlove
Nicht zielführend sind.
Linus Neumann
Wahrscheinlich sage ich mal auch hier die Herausforderung unserer Gesellschaft, Im Sinne im Bereich des Datenschutzes ein bisschen verkennen. Um das mal vorsichtig auszudrücken, ja? Und meine meine tatsächliche Sorge in Bezug auf diese ganze Big Data Gedöns ist, dass diese Daten, Mengen zu sammeln und Sinn und irgendwie intelligent oder so zu analysieren nur, einigen wenigen Unternehmen möglich sein wird und dass der wirkliche Gewinn aus Big Data auch erst dann entsteht, wenn du nämlich völlig, Fach- und Sachfremde Daten mit dazu nimmst. Also, ich glaube, dass die Krankenkasse schon alle. Sage ich mal theoretisch, sinnvoll einleuchtenden Daten über Leute hat und gerade private Krankenkassen dürfen da ja auch mehr haben und die haben schon ihre Modelle und so weiter und die machen, Datenanalysen und Prediktionen und äh oder zumindest die privaten, ne? Und und äh äh machen dir dementsprechend einen Tarif und versuchen alles, um vorherzusagen, wie riskant es ist, mit dir einen Vertrag einzugehen und dafür zu sorgen, dass du am Ende der Vertragslaufzeit, also deines Lebens am Ende derjenige bist, der mehr bezahlt hat als sie, ne? Big Data ist aber genau der Schritt. Nicht mehr nur sachbezogene Daten zu haben, sondern eben alle, Und diese Daten werden nur einige wenige haben. Und ich glaube, ich halte, wenn ich heute, sage ich mal, jetzt zynisch gesprochen, ein äh eine private Krankenverkasse leisten leiten würde, würde ich sagen, wir geben keinen Cent für Big Data aus, sondern wir machen jetzt einen ordentlichen Dienstleistervertrag mit Google, Und machen den für fünfzig oder hundert Jahre fest, damit ihr uns nicht in zehn Jahren die Preise hochziehen, wenn sie nämlich ihr Big Data Ding im Griff haben und damit wirklich mal Prediktionen machen können. Und das wird der der unschöne Teil an diesem ganzen Big Data Kram, nicht, dass jeder jeder ähm über dich alle möglichen Daten sammelt, sondern dass eine Instanz alle möglichen Daten über dich sammelt, Und alle anderen im Prinzip nur pro sagen wir mal bitte eben pro Abfrage an diese KI Big Data, allumfassende was weiß ich, ein Cent zahlen, ja? Und das ist das, das ist das sind die wirklichen Probleme, die dadurch entstehen. Und nicht, ob jetzt irgendwie Leute, die jetzt schon diskriminiert werden in Zukunft weiterhin diskriminiert werden, weil es im Bezug auf das Diskriminationsmerkmal Nummer sinnvoll ist, diese Werte mit heranzuziehen.
Tim Pritlove
Allright. Kann dein Gedankengang auch nachvollziehen. Das freut mich. Ja.
Linus Neumann
Das freut mich und wenn die künstliche Intelligenz den jetzt auch noch nachvollzieht, dann platzt Google. Aber wie gesagt, ich wusste, ich bin gerade so ein bisschen diese.
Tim Pritlove
Im Ratmodus.
Linus Neumann
Nein, ich habe einfach so viele Tage jetzt hinter mir, mit allen möglichen Quatsch. Ich komme da gleich auch nochmal äh äh nochmal zurück, weil ich habe noch viel mehr Quatsch gehört in den letzten Tagen. Ich, das war erst der erste Akt jetzt. Ähm, So, kommen wir zum ersten Thema.
Tim Pritlove
Das war der Pro Look aller Pro Loge.
Linus Neumann
Ja äh.
Tim Pritlove
Aber also.
Linus Neumann
Ich glaube, wir hatten das hier auch schon mal in der Sendung, wo ich, wo ich das gesagt habe, mit den äh ne? Ja, wir wir brauchen eine Ethik für autonome Fahrzeuge, brauchen wir nicht, Weil wenn die Autos erstmal alle autonom fahren, wird das der nächste tiefe Fall in der in der Statistik der Unfalltoten, weil wir uns nicht mehr die ganze Zeit besoffen äh und aggressiv und müde über einen Haufen fahren, Weil die autonomen Autos einfach nicht mehr besoffen aggressiv oder müde werden, sondern einfach im Notfall anhalten bevor sie jemanden umniehen, was ihr ganzen Leute da draußen nämlich nicht macht, so und deswegen wird die fünf bis zehn Leute, die autonome Autos im Jahr dann noch umnähten. Ja Mai. Ärgerlich, aber noch lange nicht so schlimm wie die vielen tausend, die wir die irgendwie jedes Jahr umgenietet werden. Die Schuldfrage ist.
Tim Pritlove
Aber die Schuldfrage. Die Schuld. Es muss doch jemand Schuld sein.
Linus Neumann
Genau. Schöner Punkt. Weißt du wer sagt, ich bin Schuld, ist mir völlig egal. Die Autohersteller, weil die nämlich inzwischen so viel Vertrauen in ihre Autos haben, dass sie sagen, äh wie Volvo hat das, glaube ich, jetzt vor kurzem gemacht. Volvo ist hingegangen, hat gesagt, wenn er irgendwie einen Unfall passiert, macht euch keine Sorgen, Zahn, wir sind, wir sind schuld, ist in Ordnung, sind wir schuld, sind wir schuld. So und die sind noch nicht mal mehr zu einer Versicherung gegangen, sondern direkt zum Rückversicherer und haben gesagt na ja wir haben so und so viel Autos hier rumfahren. Ähm die können eigentlich keine umnieten, die fahren tausendmal besser als jeder andere, aber wenn mal was passiert, dann müssen wir damit rechnen, dass wir quasi, pro Auto, was da rumfährt, eine Haftpflichtdeckung im Prinzip brauchen. Haftpflichtdeckung ist glaube ich so fünfzig Millionen bei, So, dann gehen sie zum Rückversicherer und sagen, jo, im aller, allerschlimmsten Fall, ne? Wenn unser autonomes Auto von einer Brücke fährt und und irgendwie, ne? Und so, dann müssten wir mal fünfzig Millionen haben, Aber die haben wir sowieso bei uns hier auf dem Konto liegen. Also eigentlich brauchen wir die Rückversicherung nur, wenn auf einmal zwanzig von unseren Autos das machen. Und das Risiko sehen wir nicht gegeben. Insofern machen wir gar keine Versicherung, sondern direkt nur eine Rückversicherungsvertrag.
Tim Pritlove
Ist aber derzeit nicht die Realität. Also ich kenne auch andere Geschichten, wo halt äh autonome Unfallerkennung zum Beispiel so Abstandsdinger et cetera dann in Zeissfall, dein Auto auffahren lassen, Obwohl sie das verhindern könnten, sie bremsen ab und sie machen den Aufprall sozusagen geringer, aber ohne das System wäre es ja trotzdem noch draufgeknallt, In dem Moment, wo du siehst, wo sie sich aber so wegbremsen, dass das nicht passiert, könnte es ja dazu führen.
Linus Neumann
Dass das Auto nicht in die Werkstatt muss in dich reinfährt.
Tim Pritlove
Nee, dass derjenige hinter dir in dich reinfährt, ja und du dann sozusagen durch deine Bremsung, Auch wenn sie automatisch war den Unfall ausgelöst hast, der dann hinter dir passiert und nicht vor dir. Das heißt, sie greifen in eine Art und Weise ein, die wie sie quasi die bisherige Realität nur etwas verzerren, aber nicht ändern, Ich habe da nicht zu viel Einblick in diese Szene, aber das ist eine relativ junge Diskussion, die mir gerade äh so besteckt wird, Das ist glaube ich in etwa der Punkt an dem wir uns gerade befinden, da müssen wir nicht bleiben. Aber das sind halt genau solche Fragen.
Linus Neumann
Na, der genau, das ist der Punkt, an dem wir jetzt sind. Ich habe, glaube ich, dazu schon mal gesagt, das Auto wird demnächst dem Auto hinter sich sagen, ey, der verbleibende Idiot, äh der seit Mainz sein Auto selber steuern zu müssen, hat da vorne gerade eine Vollbremse gemacht. Ich mache auch eine, mache mal alle mit.
Tim Pritlove
Na ja, das wird auch noch eine schöne Security-Hölle, wenn du dann erstmal neben Autobahnen stehst und allen Autos sagst, dass gleich ein Unfall passiert und dann kannst du zuschauen, wie sich alle im Kreis drehen. Also.
Linus Neumann
Ich habe das Respery Pale mit dem Solarpanel schon an meinem Rucksack, beim Fahrrad fahren.
Tim Pritlove
Also ich erwarte Änderungen, ich erwarte sie nicht morgen, aber äh wir werden noch einiges davon äh mitbekommen und wir werden sicherlich die ein oder andere auch ethische Diskussion darum dann nochmal führen müssen.
Linus Neumann
Wir können ethische Diskussionen führen, aber das Problem ist echt viel mehr, dass diese mit dieser ganzen, Big Data und Überwachungsscheiße, dass es an alles am Ende an einer Stelle ist und mit dieser Stelle will man sich dann nicht mehr anlegen. Und das ist das, das ist das ernste, zentrale Problem für Gesellschaft und Zukunft, Und da ist mir der einzelne äh wie schnell das Auto jetzt bremst äh neben neben nehmen Kriegsschauplatz. Da kann man, kann man sicherlich auch die ein oder andere Professur für vergeben, aber ich fänd's schön, wenn die meisten sich über Probleme äh äh um Probleme kümmern würden, die ernsthaft mal irgendwie die Welt verändern, oder beschäftigen. Zum Beispiel.
Tim Pritlove
Nächste Mal, wenn ihr auf jeden Fall einen stolpernden äh äh humanoiden Roboter im Wald trifft, der Go sp.
Linus Neumann
Trete ich sofort um.
Tim Pritlove
Lauft. Lauft.
Linus Neumann
Helft ihm seinen Freund nicht.
Tim Pritlove
Los Linus, jetzt machen wir mal ein anderes Thema.
Linus Neumann
Ja, sind Social Plugins rechtswidrig.
Tim Pritlove
Jetzt kommen wir zum langweiligen Teil.
Linus Neumann
Bevor wir dann nochmal zum, bevor wir dann nochmal zum richtigen Bullshit-Teil kommen, da kommt die zweite Phase.
Tim Pritlove
Ja, also wir haben eine Ereignis äh äh lose Woche. Ihr merkt das schon, deswegen äh reden wir jetzt hier über Meterthemen schon mal eine dreiviertel Stunde. Mal gucken, äh wie viel wir jetzt hier noch rausfinden. Also, was ist passiert? Ein äh Landgericht.
Linus Neumann
Landgericht hat geurteilt. Düsseldorf.
Tim Pritlove
Welches war's Düsseldorf? Düsseldorf hat sich das mal alles ganz genau angeschaut, wie denn das ist.
Linus Neumann
Wie ist das eigentlich mit diesem Internet.
Tim Pritlove
Mit diesem Like Buttons.
Linus Neumann
So Spannende Sache, also wollen ja immer die den Nutzer da abholen, wo sie sind. Also ihr seid jetzt gerade bei Facebook, da gibt's keine. Da geht, da ist der Like Button ja eh schon bei Facebook. So, wenn ihr jetzt von Facebook runtergeht, Bleibt der Like Button da. Der ist dann hier, haben wir einen Like-Button auf Lackbuchnetz würde ich eigentlich. Warum nicht? Also, man kommt auf ein, man kommt, man man verlässt kurzzeitig Facebook und geht ins Internet und sieht dort eine Seite, zum Beispiel, jetzt muss man Beispielseite nehmen, ähm zum Beispiel die Seite, von.
Tim Pritlove
Jede mögliche Seite.
Linus Neumann
Ja, hier war äh ich würde jetzt hier gerade ähm, Ich hätte jetzt die genommen aus diesem Urteil, aber da finde ich jetzt schnell so schnell nicht. Äh je jede andere Seite Spiegel DE, jede Seite so Spiegel DE ähm dann sieht man unter dem Artikel sieht man hier direkt schön prominent ähm, Facebook teilen, Twitter, Twittern oder E-Mail, ja? So und ich glaube äh Spiegel hat sogar diese ähm die Datenschutz äh Sparvariante mit dem Share Button. Aber so ist das beim Demoeffekt.
Tim Pritlove
Ja, aber alle in allen News Seiten irgendwie Digma, Handelsblatt oder keine Ahnung, was auch immer, einfach diese ganzen.
Linus Neumann
Genau oder ihr geht.
Tim Pritlove
Post, schmeißt es dir wahrscheinlich fünfzig Mal um die Uhr.
Linus Neumann
Ja, aber wir bleiben mal, wir bleiben mal bei der eigenen Nase, Huffington Post, kenne ich nicht, aber wir kommen mal auf Logbuch Netzpolitik, da ist der Fletterbutton. So und der Fletterbutton.
Tim Pritlove
Aber das sind auch die Guten.
Linus Neumann
Sind die Guten, ja. Der Fletterbutton. Zeigt die Anzahl der Tweets äh der der Fletters an, dieses Asset äh bekommen hat oder dieses Ding. Die übrigens viel zu gering ist, was ich an dieser Stelle mal kurz anmerken möchte. Hier äh ja, die könnten durchaus höher sein.
Tim Pritlove
Die Klicks. Wo guckst du in letzte Sendung oder.
Linus Neumann
DE. Da könnte.
Tim Pritlove
Das war die, wo du nicht dabei warst, ne? Da könnte in der Tat noch ein bisschen mehr.
Linus Neumann
Ja. Von mir aus auch bei den Sendungen, wo ich dabei war und hier neben meinem Namen ist ein besonders formschöner Fletterbutton. Aber so Jetzt ist die Frage, woher weiß der Lokbuchnetzpolitik eigentlich, wie oft diese Sachen geflettert wurden? Stellt sich raus, weiß es gar nicht, weil dieser Fletterbaden als externes, Skript von Fletter geladen wird. Und bei dieser Gelegenheit flatter auch, Darüber in Kenntnis gesetzt wird, dass wir gerade auf dieser Seite sind und dieses Asset betrachten. Leuchtet ein, geht auch nicht anders, weil Fletter ist ja in der Lage, dem Browser zu sagen, die Zahl, die in dieses Feld gehört, lautet siebenundfünfzig, was wirklich eine lächerlich geringe Zahl ist, So und ähm, Dann sagt also Fletter, dem Browser hier in dieses Feld mal eben eine sieben fünfzig machen und hat bei dieser Gelegenheit eben auch erfahren, dass dieser Browser mit dieser IP-Adresse gerade dieses, Dingen anschaut. Und das Gleiche passiert bei einem Like-Button, beim Plus eins Button und bei einem Twitter-Button und kennst du alles nicht. So, Das heißt, in die Seiten, wo sich diese Buttons befinden, sind externe Ressourcen eingebaut, die von den jeweiligen Anbietern kommen und die beim Besuch der Seite, den Anbieter darüber in Kenntnis setzen, dass man diese Seite gerade besucht.
Tim Pritlove
Es geht noch einen Schritt weiter, das hast du jetzt im Prinzip übersprungen, falls du nicht noch dazu kommen wolltest. Fletter und wie auch die und die anderen, also uns geht's ja jetzt nicht um Fletter, sondern um alle, wir müssen das einfach nur mal bei dem Beispiel fletter, wenn man halt angemeldet ist bei Fletter, und dann äh da eingeloggt war und quasi ein Cookie in seinem Browser gesetzt hat, der diesen Status äh dann auch nochmal klar widerspiegelt. Dann ist er noch mehr Informationen in diesem Button, nämlich auch. Hast du das schon geklickt oder nicht? Sprich es gibt hier auch noch eine Identifizierung mit dem Benutzeraccount, so den einer existiert.
Linus Neumann
Genau und wir hatten auch vor einigen Wochen noch dieses Urteil, dass äh Facebook ähm sogar Leuten Cookies gegeben hat, die.
Tim Pritlove
Nicht eingeloggt, sie keinen Account haben, ja.
Linus Neumann
Und so ergibt sich dann ein. Ein Netz im Internet, durch das ich die Nutzer verfolge als Google oder als Facebook, und weiß, was sie sich anschauen, wenn sie gerade nicht bei uns sind, Google hatte den sehr klugen, ähm, die sehr kluge Idee das mit ihrem Angebot Google Analytics nochmal zu perfektionieren. Der Plus eins Knopf von Google ist glaube ich gar nicht so äh nennenswert vertreten wie andere, Aber es gab beim Digital Amt netzpolitischen Amt der digitalen Gesellschaft einen äh eine Studie, die da vorgestellt wurde, wo jemand sagte, ja ähm. Ich habe mal eine Million Webseiten angeschaut und bei achtundsiebzig Prozent der Seiten trackt Google mit, bei zweiunddreißig Prozent Track Facebook mit, bei dreiundzwanzig Prozent, Trackt AKA Mai mit, AKAMAI ist ein äh Content des Revution Network, also nicht wirklich ein, konkreter Anbieter und bei achtzehn Prozent Twitter. Und jetzt das ist natürlich, Sagen wir mal, gelinde gesagt, ein Problem, weil wir ja irgendwann mal in einem, in einem, Anfall geistiger Umnachtung dachten, dass dieses Internet vielleicht ein dezentrales Netz ist, in dem keine einzelne, Stelle zentral ist und alle äh Sender sein können und das irgendwie so einfröhlich ist nebeneinander ist. Also natürlich nicht unbedingt der Fall, wenn wir einzelne Player haben, die bis zu achtundsiebzig Prozent des Internets quasi oder des der Seiten, die Menschen regelmäßig besuchen, ähm mit überwachen. Ja und da gab's also jetzt ein ein äh Urteil, wo ähm. Einem Seitenbetreiber gesagt wurde. Du hast hier diesen Facebook, Like-Button mit drin, der übermittelt automatisch Daten an Facebook zu dem Zeitpunkt, wo dies geschieht, hat der Nutzer dem noch nicht zugestimmt und auch nicht zustimmen können. Und deswegen ist das, nicht, Datenschutzkonform, was da geschieht und das ist eine Einschätzung, die ich leihenmäßig teile ähm der naive Nutzer hat die Erwartung, wenn er Spiegel eingibt, dass er dann, bei Spiegel Online landet und nicht gleichzeitig noch tausend Verbindungen überall sonst hinmacht und Facebook noch mittragt, was er, dass er dort ist und Facebook das auch noch über ihm oder Google über alle möglichen Seiten macht.
Tim Pritlove
Ja, ich glaube, das sind eine Menge Leute, das einfach in Kauf nehmen. Schon wissen und so.
Linus Neumann
Genau, das ist inzwischen eine eine Realität. Wir hatten, glaube ich, auch schon vor einiger Zeit mal diese Datenblumen von, von Open Data City besprochen, wo irgendwie gezeigt wurde, du besuchst die Seite, wo holt er sich noch alles Mist her? Es gibt diesen Fix mit der zwei Klick-Lösung wo man quasi sagt OK der Button ist grau dort, aber noch nicht aktiv, es hat noch keine Verbindung zu Facebook stattgefunden, wenn man dann einmal auf den Button klickt, dann.
Tim Pritlove
Kriegt man die Information.
Linus Neumann
Kriegt man die Information, wenn man dann nochmal draufklickt, hat man geliked oder so, ne? Ähm aber wie gesagt, es gibt eben noch diesen, durchaus genialen Schachzug von Google, das mit diesem Google Analytics, das war glaube ich eine ihrer wirklich klügsten Erfindungen, Nach der Suche, dass sie gesagt haben, okay, komm, wir machen richtig geiles, Analysewerkzeug und alles was die Leute machen müssen ist ein dämliches Javaskript irgendwo in ihre Seite einbinden, was von uns kommt und wir machen die gesamten Analysen für die. Nebenbei analysieren wir damit das gesamte Internet, zu dem wir ja der Wegweiser für die Menschen sein wollen.
Tim Pritlove
Da ist mal ganz vom Vorteil ein bisschen Plan zu haben, was so gesurft wird, was relevant ist, was populär ist.
Linus Neumann
Das ist Big Data. Ja und das Urteil ist leider noch nicht rechtskräftig oder das Urteil ist noch nicht rechtskräftig, es ist auch nur ein Landgericht ähm, Aber es ist schön, also ich meine, das ist auch ein Thema, was glaube ich schon mehrmals äh diskutiert wurde und ähm, Was auch leider nicht wirklich äh zum Abschluss kommt, denn eigentlich diskutiert man das jetzt auch schon wieder seit seit fünf bis zehn Jahren. Aber es wäre ähm ich habe so ein bisschen die Sorge, dass, dass es wahrscheinlich zu spät ist sich darüber jetzt diese Gedanken zu machen, weil es eben längst eine ähm eine Realität ist.
Tim Pritlove
Ja, ist vor allem auch die Frage, ob das jetzt in der Form äh Bestand haben wird, auf ob auch die rechtliche äh Beurteilung dessen ähm Bestand haben wird, weil sie ja hier davon ausgehen, IP-Adresse ist automatisch personenbezuger, ist schwierig, ich meine, ich bin da auch sehr ähm gespalten. Ich meine, diese ganze das ganze Embeding ist ja, etwas, was eigentlich dass das Web einfach auf eine unglaubliche Art und Weise nützlich, gemacht hat. Also man kann sich ja das Web ohne Embedding gar nicht vorstellen. Natürlich bedeutet im Bedingung nicht automatisch Trecking, Also man könnte ja dieses Ganze im Betten auch ohne Trekking machen nur.
Linus Neumann
Macht's halt keiner.
Tim Pritlove
Glauben ist, es ist ja auch, sagen wir mal, durchaus auch. Ich meine, in dem Moment, wo ich in Bading anbiete, wird ja auch eine Dienstleistung von mir in Anspruch genommen, ja? Also wenn ich jetzt hier so am, weiß ich, so wie YouTube Videos im Betten, ihr dürft das in euren Webseiten anzeigen und so weiter. Man gibt ja auch etwas, ja? Und in gewisser Hinsicht ist es ja auch legitim darüber, dann Statistiken zu führen, äh et cetera Schwierig wird's natürlich wirklich an der Stelle, wo die Personen sichtbar werden.
Linus Neumann
Also wir könnten zum Beispiel auch, glaube ich, sehr einfach ein äh den den MBD äh Lokbuchnetzpolitik hundertfünfundsiebzig Button anbieten, den dann jeder in seine Webseite einbauen kann, und Depp. Es ist doch gerade hundertfünfundsiebzig und dann.
Tim Pritlove
Die Sendung, ja. Mhm.
Linus Neumann
Dann wäre das quasi, wenn wir euch einen kleinen String geben, den baut ihr nur eure Seite ein und wenn die Seite besucht wird holt sich das Teil halt Daten, über die Episode von Lockbuch Netzpolitik DE Und wenn es abgespielt wird, auch die MP3 und dann hätten wir mit sehr einfachen Mitteln, also muss man gar nicht großartiges machen, kann man schon alleine aus dem Browserlocks sehen, wie viele Leute eure Seite besucht haben, bis auf die wenigen, die jetzt irgendwie mit No-Script oder so äh sie am Laden von externen Ressourcen gehindert haben. Und wie viele dabei auf Play gedrückt haben Da werden nur noch wenige Zeilen Code notwendig, um ein Affiliate-Programm zu machen und die mageren siebenundfünfzig Fletter, die da rumkrebsen, mit euch zu teilen, Aber dafür würden wir halt eure Nutzer tracken und unsere Datenschutzpolicie ist mal wirklich eisern. Denn wir haben keinen Datenschutz. Wir analysieren alles. Wir speichern alles.
Tim Pritlove
Das nennst du eisern.
Linus Neumann
Wir machen Big Data.
Tim Pritlove
Das finde ich ja jetzt das falsche Wort, Zieh mir meinen Eisern nicht hin, Schmutz. Ähm, Ja, das mit dem äh im Battlebild Player hätte ich übrigens schon am liebsten seit zwei Jahren schon äh am Laufen, aber das ist sozusagen einfach aus technischen Gründen noch nicht erfolgt. Wird auch sicherlich kommen, sicherlich nicht mit äh Personentrecking.
Linus Neumann
Warum nicht? Wie wollen wir denn Lokbundespolitik sonst irgendwann mal in Google oder Facebook verkaufen?
Tim Pritlove
Du, wir setzen einfach hier auf eine informierte äh und loyale Community und so gehen wir auch mit dir um. Das Prinzi.
Linus Neumann
Na gut.
Tim Pritlove
Gibt's kein Zellout.
Linus Neumann
Übrigens noch einen, ne? Äh ach so, ich will jetzt nicht wieder schon wieder zu diesem Big Data zurück. Das hat mich wirklich aufgewühlt irgendwie.
Tim Pritlove
Ich merke schon. Ich merke schon. Hobbrauner.
Linus Neumann
Weißt du, was mich noch mehr aufgerichtet.
Tim Pritlove
Weil jetzt durch mit dem Thema schon.
Linus Neumann
Äh Landes äh Landgerichturteil in Düsseldorf, ja, also ich glaube jetzt nicht, dass Facebook grade da sitzt und weint.
Tim Pritlove
Das wahrle ich nicht. Nee, äh wir nehmen das jetzt einfach mal zur Kenntnis und äh äh erkennen an, dass es äh ein ein Problem ist und da wir ja hier eigentlich nur eure Berichterstatter sind, haben wir jetzt berichterstattet.
Linus Neumann
Wir sind was übrigens, wer übrigens auch Track Vinix Gutes, ne? Und wahrscheinlich noch viel mehr und noch viel schlimmer sind die Konkurrenten von Google, also die anderen, die uns Werbung einblenden, wenn sie Schärfung nicht sowieso schon von Google kommt, ja? Also Werbenetzwerke äh sind da ähnliche äh ähnlich äh unschöne äh Erscheinungen und deswegen ist es glaube ich in der heutigen Zeit leider. Die Nutzung eines äh Tracker-Blockers ähm und eines Werbeblockers und aller Blogger, die es so gibt unerlässlich.
Tim Pritlove
Eine Sache sollten wir vielleicht noch erwähnen, was es nämlich glaube ich noch nicht getan, ähm aber den Link hier in der Liste, Gibt da dieses schöne äh Projekt, was auch zuletzt auf dem letzpolitischen Abend vom digitalen Gesellschaft vorgestellt wurde, von einem anderen Tim. Tim äh Liebert oder Leibert, der äh einfach mal den Spieß umgedreht hat und in so einem, in so einem Gummilosen virtuellen Maschine, Webseiten geladen hat und dann einfach dynamisch allen aufpoppenden Trecking Rique gefolgt ist und die katografiert hat, äh nennt sich Web X Ray, äh, Schöne Sache und hat mit äh relativ wenig Aufwand da eine riesige Datenbank aufgebaut, die auch frei zur Verfügung stellt, zur Analyse, wo man eben an den Affe auch genau diese Daten, heraus dies der Anfangs schon präsentiert hast und da gibt's auch Source Quoten, da kann man auch nochmal drauf schauen und vielleicht selber mit rumexperimentieren. Ja
Linus Neumann
Jetzt kommen wir zum nächsten Theo.
Tim Pritlove
Hammer.
Linus Neumann
Also.
Tim Pritlove
Bullshit. Made in Summer Aids. Erklär mal, ich äh deine Notizen sind ja wirklich so mysteriös, dass ich manchmal gar nicht weiß, worauf du hinaus willst.
Linus Neumann
Also ich wurde äh.
Tim Pritlove
Du erlebst immer so Sachen.
Linus Neumann
Ich wurde ich wurde gefragt ob ich den nicht bitte ähm zu einer Studie einer Veröffentlichung äh, Auskunft geben kann. Zu der Gefahr die da einige Forscher festgestellt haben für unsere Demokratie, Nichts wie nichts, nicht weniger als unsere Demokratie ist in Gefahr.
Tim Pritlove
Sowas sind wir schon. Demokratie ist in Gefahr, lass mal Linus Norma anrufen, weil sonst wissen wir nicht weiter.
Linus Neumann
Ja, so, so weit sind die schon. So. Und warum ist unsere Demokratie in Gefahr? Nun. Nein.
Tim Pritlove
Wahlcomputer? Nein? Künstliche Intelligenz Trekking. Na was.
Linus Neumann
Social Bots.
Tim Pritlove
Ja
Linus Neumann
Man stelle sich vor denjenigen, die irgendwie vielleicht einen Twitter-Account haben, wird dieser Gedanke völlig fremd sein. Man stelle sich vor, es gäbe Computerprogramme, die twittern. So und jetzt twittern die nicht Werbung, wie sie es seit zehn Jahren machen, sondern.
Tim Pritlove
Inhalt. Propaganda.
Linus Neumann
Inhalt. Propaganda und zwar Propaganda vom Feinsten, nämlich im für für Putin und Trump. Trump kennst du, ne? Den den Verrückten. So und, dann liest du halt in eine völlig ganz normale Tag in der Zeitung, wo drinsteht diese Social Bots können sogar Wahlen manipulieren. Kampagnenstarten und auf Tweets Antworten.
Tim Pritlove
Nein. Jetzt ist aber Schluss. Also bei Wahlen manipulieren, aber saß ich ja noch bei meiner Currywurst, aber wenn ich jetzt auch noch auf die Weeds antworten.
Linus Neumann
Und dann entreistet sich dieser Autor, Für die ansteigende Flut an Verschwörungstheorien und Hasskommentaren im Netz kann es auch eine andere Erklärung geben. Nämlich Social Bots stimmt. Das ist nämlich so Tim, es gibt gar nicht so viele Rechte in Deutschland.
Tim Pritlove
Ach, das sind alles nur Bots.
Linus Neumann
Das sind alles nur Bots, die den ganzen Quatsch auf Facebook und auf Twitter schreiben. Und die Leute, die die und äh sind wahrscheinlich nur eine Einzelperson, die inzwischen irgendwie die ganzen Unterkünfte angezündet hat. Der Rest sind nur Bots.
Tim Pritlove
Oder die Bots zünden dir Unterkünfte an. Soweit.
Linus Neumann
Das haben wir, das finden die auch noch raus. Das finden die auch noch raus. Also der.
Tim Pritlove
Manifestation einer künstlichen Intelligenz, die jetzt anfängt, unsere Turnhallen abzubrennen. Oh je.
Linus Neumann
Also es gibt ähm. Das Thema ist, man kann also man kann jetzt relativ einfach, man macht sich einen Twitter-Account und dann gibt's da eine AP und an dieser AP kann man zum Beispiel ein relativ einfaches Pfeifenskript lehnen und, Man bringt dann zum Beispiel diesen Pifens Rip bei, Schau doch mal bitte, was unter dem Hashtag so und so stattfindet und dann nimm mal diese Tweets und dann entfernst du das Hashtag und tweetest sie nochmal. Oder schau doch mal was folgender Account äh twittert und jedes Mal, wenn der etwas twittert, Rittest du das oder jedes Mal, wenn dir etwas twittert, antwortest du ihm, Und dann kann man natürlich hingehen und sagen, antworte ihm mit einem Satz aus folgendem Ray oder aus folgender Datenbank ähm, Und dann könnte man zum Beispiel das Skript noch erweitern, um achte mal dadrauf, dass keine Stunde vergeht, Ohne dass du nicht irgendetwas twitterst, was halbwegs menschlich erscheint, und dieses Wasserflex menschlich sein soll, könnte man sich ja einfach von anderen Twitter-Accounts klauen, Also irgendwie äh nimmst halt irgendwie zehn Twitter-Accounts irgendwelche Art, folgst denen und wenn die irgendwas sagen, Dann twitterst du das einfach auch, weil das sind menschliche Personen und du willst ja den Eindruck machen, ein Mensch zu sein, also kopierst du einfach deren Inhalte.
Tim Pritlove
Ja, so wie es bei Mai sich halt auch irgendwie einfach anderer Leute Kommentare äh klauen und nur den passenden Link dazu reinse.
Linus Neumann
Genau und dann natürlich das nächste, dann hast du deinen Botta, der hat aber keine Follower, also machst du dir äh hundert oder tausend oder sechzigtausend Bots, lässt sie sich alle gegenseitig folgen und versuchst irgendwie den Eindruck zu erwecken, dass es sich dabei um eine um eine Person handelt, die irgendwie existiert. Ähm.
Tim Pritlove
Dass diese zweihundertfünfzigtausend Follower von Pegida auf Facebook, ja?
Linus Neumann
Das das stelle ich hier gar nicht zur Debatte, die die Entscheidung ist oder was mich einfach nur wirklich maßlos äh ärgert, ist, dass so einfache, Ding, Ja, also was wo man wirklich da musst du gar nichts für können, das kriegst du fertig auf Gitarb, tausende von Twitter-Bots, die du denen du jeweils immer nur diese beiden Apikis geben musst und dann twittern die drauf los, ja? Also da da ist wirklich ähm, heißen für Anfänger. Ja und es wird auch seit jeher gemacht und dann hast du irgendwie, kannst ja wie du möchtest auch erweitern, ja? Machst du dir halt hundert von, ist auch kein Problem, Ähm und dass dieses, Diese Strategie wird mit völlig katastrophalen Ergebnissen. Seit es Twitter gibt von allen möglichen Spammern ähm verfolgt, Und wir haben alle bisher noch nicht viel gekauft, aufgrund dessen äh was wir vorher nicht gekauft hätten, ja.
Tim Pritlove
Wissen wir nicht.
Linus Neumann
Ja, aber der, der ähm der ähm Fakt ist, Wir haben Relativ große Gefahren für unsere Demokratie, aber Bots auf Twitter sind es wahrscheinlich nicht. Und dann wurden wir, musste ich mir jetzt so ein paar angucken, das sind dann halt relativ simple Bots, die irgendwie was weiß ich jedes Mal, wenn Donald Trump was twittert, das Ritten und einmal pro Tag irgend so ein White Power Tweet raushauen, Und die sollen jetzt auf einmal die Gefahr für unsere Demokratie sein. Ich glaube nicht. Was allerdings passiert, ähm ist folgendes, Du kannst ja mit diesen Bots machen, was du möchtest, wenn du davon mal einfach mal ein paar tausend hast, das können ja auch von mir aus gestohlene Accounts sein, äh wo du äh die du dir dann in deine Bot äh äh Herde mit aufnimmst. Damit kannst du Leute mitunter ganz schön ärgern, Sagen wir mal, ich habe sechzigtausend davon und jetzt möchte ich dich einfach mal ärgern, weil du. Weil du mich unterbrochen hast.
Tim Pritlove
Rache.
Linus Neumann
In meinem schönen so das machst du nicht nochmal, Dann könnte ich jetzt meine Bottherde ähm heben und sagen Menschen doch mal, Jede Minute den Tim mit einem anderen Account. Und dann vibriert dein iPhone hier noch öfter als ohnehin schon und dein dann störe ich quasi massiv deine Kommunikation.
Tim Pritlove
Meine Social Media Experience geht dahin.
Linus Neumann
Das wäre jetzt so ein Fall. Also das passiert auch, es passiert auch tatsächlich ähm, mehrere, also ich kenne mehrere Journalisten, denen das passiert ist, die dann halt irgendwie von so Botherden, ähm beleidigt werden, ja? Also da hat dann halt jemand wirklich viele tausend Bots und kommt einfach, du kommst quasi mit dem Bloggen nicht hinterher, weil der dich immer wieder von einem anderen Account anspricht und beleidigt äh und kann dir so halt wirklich dein Leben, unschön, werden lassen, weil er die, weil er dir einfach diesen Account zunagelt. Äh mit mit äh Menschens und mit Nachrichten oder sonst was.
Tim Pritlove
Gamer gilt, ne? Da ist was auch massiv. Das ist auch passiert.
Linus Neumann
Genau, das ist auch massiv passiert, dass Leute da halt belästigt werden. Das ist ein sehr unschönes Phänomen ähm, aber eben auch bei aller Liebe keines, was jetzt irgendwie besonders neu, Wäre was besonders originell wäre oder was eine Gefahr für unsere Gesellschaft in ihren Grundfesten darstellt, als das jetzt plötzlich Wahlen, Twitter-Bots gewonnen werden. Also das halte ich für eine für eine äußerst gewagte These, die jetzt hier in diesem Artikel vertreten wird. Ich hoffe, dass die Wissenschaftler, die diese Studie veröffentlicht haben, diese These nicht auch noch irgendwie vertreten haben. Ich habe allerdings die Studie ähm. Inhaltlichen immer nur von dritten äh geschildert bekommen, insofern äh muss ich da äh vorsichtig sein. Was jetzt da tatsächlich eine Aussage getroffen wurde oder nicht.
Tim Pritlove
Ja, du meinst den Artikel in der Welt, ne?
Linus Neumann
Ich meine den Artikel in der.
Tim Pritlove
Verschiedenste Artikel verschiedenste Artikel hier verlinkt. Dementsprechend sollte man vielleicht das auch mal klarer zuordnen.
Linus Neumann
Ja. Aber auf jeden Fall ähm.
Tim Pritlove
Wenn Maschinen hetzen.
Linus Neumann
Wenn Maschinen hetzen, ja, da habe ich also ähm ein äh habe ich ein, ein bisschen drüber gesprochen in einer Fernsehsendung mit dem Namen, und das wird dann irgendwann gesendet werden und ich hoffe, dass die meine meinen Zweifel da auch in aller äh Schärfe äh in dieser Sendung dann auch zum Ausdruck bringen. Interessant ist, dass sich noch jemand anders über Social Bots Gedanken gemacht hat. Der jetzt auch, sagt, das ist ja wohl ganz gefährlich, Ja ähm Patrick Sensburg, Patrick Sensburg hat ähm also in es gibt, eben viele viel Debatte über diese Bots in der äh Russland-Ukraine äh Geschichte, ja? Also Bots können ja durchaus, ne, dass also Kommunikation stören können sie, Ähm zum Beispiel was weiß ich, es gibt einen Hashtag, Und dann wird, dann flutest du das einfach mit deinen Bots, mit allen möglichen Unsinn, ja? Danke, so kannst du Menschen die Möglichkeit nehmen, sich über dieses über dieses Hashtag äh sinnvoll auszutau.
Tim Pritlove
Ja, so wie zweiunddreißig C drei zum Beispiel, was irgendwie auch schon genau kaputt ist.
Linus Neumann
Das passiert aber, Grundsätzlich immer, wenn ein Hashtag irgendwie Aufwind erfährt, schon allein von den ganzen Spambots, weil die machen seit ja seit Jahren nichts anderes als zu gucken, Was sind die Trending Topics? Äh und jetzt poste ich da irgendwie rein. Hot Blond, Bunny.
Tim Pritlove
Warum machen wir das eigentlich nicht? Können ja auch mal unsere Sendung immer mit den aktuellen Trending Hashtags äh posten anstatt äh seriös vorzugehen.
Linus Neumann
Weil Twitter dich dann hoffentlich irgendwann fehlt hat, machen sie aber leider nicht. Also, seit jeher fluten Bots Hashtags und machen Kommunikation kaputt. Ähm, Aber was mir aufgefallen ist, ich kannst du dich daran erinnern, als äh die ähm Attentate in Paris stattgefunden haben, Da gab es einen Hashtag mit dem Namen äh Port Uver geöffnet offene Tür, wo Menschen im Prinzip irgendwie ihre Adresse unter dem Hashtag Port Uwe getwittert haben um.
Tim Pritlove
Leuten Zuflucht zu bie.
Linus Neumann
Leuten Zuflucht zu bieten. Das war natürlich eine sehr schöne Idee. Ähm, Und die hat natürlich auch sofort Traktionen gefunden, sodass Menschen weltweit in Deutschland, in Großbritannien, in Amerika, Darauf hingewiesen haben, dass man unter dem Hashtag Hashtag Pott twittern kann, Äh wenn man eine offene Tür hat und dass Menschen dort Zuflucht finden können. Wenn du dann auf diesen Hashtag geklickt hast, Hast du nicht eine einzige verfluchte Adresse finden können, weil irgendwie pro Sekunde fünfzig Vollhonks unter diesen Hashtag getwittert haben, was man unter diesem Hashtag twittern könnte, wenn nicht fünfzig Vollhonks pro Sekunde, da Lärm reintwittern würden. Das heißt, die das Stören von Kommunikation können Menschen immer noch besser, als Maschinen, weil das Stören von Kommunikation haben wir Menschen erfunden.
Tim Pritlove
Wir haben auch die Kommunikation erfunden, ne? Von daher ist das ja auch fair.
Linus Neumann
So, wir haben's, wir haben's erfunden, also machen wir es auch kaputt.
Tim Pritlove
Will keiner Renner so gut kaputt machen wie wir. Ja.
Linus Neumann
Also.
Tim Pritlove
Wobei, dass wir die Kommunikation erfunden haben, ist glaube ich auch äh äh evolutionstechnisch nicht äh zu halten, aber wir haben sie auf jeden Fall auf die Spitze getrieben. Das steht schon mal fest. Und wir machen auch die Kommunikation ja auch noch äh den Wahlen kaputt.
Linus Neumann
Genau, die Wahl, also ne, Putin ist nur noch an der Macht, weil er so viele Twitter-Bots hat.
Tim Pritlove
Nein, nicht die Wahlen, die Wahlen.
Linus Neumann
Die Wale jetzt auch noch.
Tim Pritlove
Na die Wale können nicht mehr miteinander kommunizieren, weil wir mit unseren scheiß lauten Boten da die ganze Zeit durch die Gegend marschieren und Lärm machen.
Linus Neumann
Immerhin sind's nicht die Twitter-Bo.
Tim Pritlove
Deswegen fahren ja die Wahler auch dann immer auf dem Strand auf.
Linus Neumann
Also jetzt wurde äh auf jeden Fall diese äh diese Studie veröffentlicht und jetzt oder und jetzt machen sie sich.
Tim Pritlove
Wo ist denn diese Studie überhaupt? Erzähl doch mal was von was von der Studie. Nee, willst du nicht erwähn.
Linus Neumann
Ich möchte ich möchte nicht so auf die Wissenschaftler einschlagen.
Tim Pritlove
Taste ist erwähnt, der musste jetzt auch mal sagen, wo es herkommt.
Linus Neumann
Das ist irgendwie eine eine Forschungsgruppe Social Media Forensix, die an mehreren Universitäten ansässig ist und die ein Jahr lang geforscht haben, bis sie festgestellt haben, dass es Twitter-Bots gibt.
Tim Pritlove
Wenn wir darauf verlinken oder nicht.
Linus Neumann
Wir haben das grob verlinkt, aber ich möchte ähm möchte thematisch bezogen argumentieren und nicht auf die Person.
Tim Pritlove
Okay.
Linus Neumann
Oder die Universitäten. Wer weiß, ob ich da irgendwann nochmal eine Professur brauch, wenn es mir mal nicht mehr so gut geht.
Tim Pritlove
Ja Was heute noch karrierefördernd äh aussieht, kann morgen schon der Untergang sein. Also.
Linus Neumann
So und. Völlig normaler Artikel. Deutschland setzt Geheimdienst gegen russische Propaganda ein, Der Bundesnachrichtendienst überwacht verstärkt die russische Propaganda. Dazu hat der BND eine eigene Arbeitsgruppe gegründet. So und die, schauen sich jetzt die die russische Propaganda an und dann wird hier viel zitiert und so. Propaganda ist eine Waffe und so weiter, äh haben wir alles schon gemacht und erster Weltkrieg hatten wir auch Propaganda. Ähm. Und dann äh bla, bla, bla, bla, bla, bla, bla, bla und jetzt kommt's ich könnte mir vorstellen. Kommt gleich. Ich könnte mir vorstellen, dass unabhängige Organisationen versuchen, die Kommunikationskanäle der staatlichen Trolle offen zu legen, sagt Patrick Sensburg. Und.
Tim Pritlove
Der immer so neben nebenbei äh Vorsitzender.
Linus Neumann
Des NSA-Untersuchungsausschusses ist und CDU-Politiker und sagt, Verbote und Blockaden helfen nicht und wären ein Verstoß gegen die Meinungsfreiheit, Ja? Also Meinungsfreiheit für Bots, ja? Da sind wir wieder. Also du merkst uns alles eine große Verschwörung. Denn, Und jetzt kommt's, Patrick Sensburg, ja? Also, Ich glaube, ich habe ungefähr ähm herausgearbeitet, wie groß ich das Bedrohungspotential von Social Bots für die Demokratie und die Grundfeste unserer Gesellschaft halt.
Tim Pritlove
Ich fasse es mal zusammen mit überschaubar.
Linus Neumann
Überschaubar. Im überschaubaren Rahmen. Und jetzt kommt Patrick Sensburg und sagt, wenn beispielsweise das Bundesamt für Sicherheit in der Formationstechnik oder der Chaos-Computerclub die Gerüchte und Seiten der Trolle enttarnten, hätten Bürger die Möglichkeit sich unabhängig zu informieren und Informationen zu verifizieren. Das ist eine derartige.
Tim Pritlove
Also wir sind jetzt wieder schuld, wir spielen nicht mit.
Linus Neumann
Wir sind jetzt wieder Schuld, weißt du? Da denkst du, du gibst dir eine Krisennummer? Und denkst du so, jetzt kriegst du einen richtig geilen Scheiß, ja? Und dann lässt sich der Bundestag von irgendwie so einem Exploid-Baukasten von vor zwanzig Jahren.
Tim Pritlove
Und du sollst tiefen.
Linus Neumann
Und du sollst irgendwie auf Twitter Trolle identifizieren. Das kann doch nicht ehren sein. Mein du erkennst diese Trolle, diese diese Bots erkennst du irgendwie sowas von einfach, weil die so dumm sind, ja? Also ich mein du kannst einfach nicht vielleicht nochmal ein kleiner Ex-Kurs.
Tim Pritlove
Immer wieder für Vorstellungen haben vom CC ist echt unglaublich.
Linus Neumann
Vor allem was die für Vorstellungen haben von diesen paar Pfeifenskripts, die Trampiden. So, ich meine. Also es gibt ja diesen Touring-Test, der äh, Im Prinzip sagt der ein eine künstliche Intelligenz besteht den Touring-Test, wenn ein Mensch sie nicht mehr von einem Menschen unterscheiden kann, Es gibt da irgendwie so das chinesische Zimmer und was man sich da alles so als Setup äh überlegt hat, ne? Aber das die eigentliche Idee ist, du chettest mit einem Menschen, oder mit einer Maschine und du weißt es nicht und du musst es herausfinden. Und seit vielen Jahrzehnten versuchen Menschen künstliche Intelligenzen zu bauen. Die, Im Prinzip den Touring-Test bestehen und es gelingt ihnen wenn immer der Themenbereich sehr stark eingeschränkt ist, Also du bekommst auf Seiten irgendwelche Assistenten, ne, die dann oder Assistentinnen, die dann da reinkommen, je nachdem, Was das für eine Seite ist? Hast du auch meine Assistentin und die berät dich dann? Ja und dann sagst du äh ich interessiere mich für Kondensatoren und dann sagen die ja äh klick doch mal hier auf Kondensatoren, kommst zur Seite mit den Kondensatoren. Wie viel Verrat möchtest du denn? Dann sagst du einen Verrat. Dann sagen die, wir haben nur einen einen Fahrradkondensator und der ist nicht in der Kondensatorenabteilung, sondern eine Autotuning-Abteilung oder sowas, ja. Ähm, oder sie äh imolieren äh sehr äh simulieren sehr einfache äh psychologische Therapieformen. Psychotherapieformen, Äh Elisa war das glaube ich, die dann irgendwie äh dieses äh diese Gesprächstherapie äh gemacht hat, wo immer einfach dein Massenleichtes Sentiment in der Liste ist und spiegelst das wieder. So. Aber all diese diese Bots fehlen den Touring-Test unglaublich gut. Wenn du einfach mal irgendwie eine belanglose Frage stellst, wie ist das Wetter heute, Dann sagen die.
Tim Pritlove
Wie hat Union gespielt?
Linus Neumann
Ich glaube nicht, dass das jetzt gerade für uns von Relevanz ist. Möchtest du vom Thema ablenken? Oder du sagst irgendwie so, äh, du, du wirst mal ob's zön zu so einem äh zu so einem Ding. Dann sagen die so, ja, also die du merkst also relativ schnell, dass du es dann nicht mit Menschen zu tun hast. Und das ist im Prinzip das, was diese Bots auch tun müssten.
Tim Pritlove
Du meinst verloren haben wir, wenn die künstliche Intelligenz cool ist.
Linus Neumann
Also ich ehrlich gesagt finde ich künstliche Intelligenz ist jetzt schon cooler als wir.
Tim Pritlove
Na ja, aber auch halt so cool im Sinne von Yohay, cool.
Linus Neumann
Eine künstliche Intelligenz ist wahrscheinlich dann cool. Wenn du irgendeinen Spruch bringst und sie einen besseren bringt. Okay, weil bei dir ähm.
Tim Pritlove
Ist das nicht möglich, aber theoretisch, ja, weil man nur mal so hypothetisch.
Linus Neumann
Tja, auf jeden Fall so sind wir jetzt halt vom, werden wir jetzt offensichtlich bald irgendwie äh müssen, sollen wir jetzt irgendwie Trolle enden offenlegen? Also was für ein.
Tim Pritlove
Ja warum machen wir denn das einfach nicht? Wir sind.
Linus Neumann
Weil das eine Arbeit für doofe ist.
Tim Pritlove
Wir tun überhaupt nichts für die Gesellschaft. Dennoch.
Linus Neumann
Ja. Da sollte sich die Gesellschaft mal fragen, warum wir nichts für sie tun. Weil keiner sie mag.
Tim Pritlove
Na, weil wir scheiße sind.
Linus Neumann
Na ja, also ich finde, also ich ärgere mich einfach gerade, ich ich knacke gerade so ein bisschen äh an, denke ich über, Probleme nach, die ich für relevant halte für unsere Gesellschaft und ich glaube, unsere Gesellschaft hat gerade echt ein paar ernsthafte Probleme. Ähm und wir werden noch ein paar ernsthafte in Zukunft bekommen. Und ich halte irgendwie Social Bots auf Twitter momentan.
Tim Pritlove
Nicht für ein großes Thema.
Linus Neumann
Nicht für ein großes Thema. Vielleicht entscheiden in zehn Jahren Social Bots auf Twitter die Wahl. Äh und dann sehen wir aber doof aus, weil die dann nämlich den Roboter von Boston Tanja nichts wählen, und dann äh und der uns dann alle im Go schlägt. Aber ich glaube, die gesehen die Zukunft ist ein bisschen eine andere und die Herausforderung, über die wir diskutieren müssen, werden auch andere sein.
Tim Pritlove
Weil ich glaube, wenn diese Wahlbeeinflussungsgeschichte ist natürlich ich weiß nicht, das ist in diesem Artikel sicherlich unangemessen miteinander äh verwoben, aber, Die Diskussion, dass ähm, Einflussnahme auf soziale Netzwerke durch Gewichterung et cetera äh im schlimmsten Fall auch Manipulation vor Nachrichten. Selbstverständlich, Stimmung bewegen kann.
Linus Neumann
Das natürlich.
Tim Pritlove
Damit natürlich auch Wahlen ganz nachhaltig beeinflussen könnte. Und ehrlich gesagt, wenn ich mir so anschaue wie äh dieser Zuckerberg irgendwie ähm an den VR-Brillen, belegten Massen vorbei grinst schlafe ich auch nicht besser.
Linus Neumann
Nee, das nicht. Ja.
Tim Pritlove
Das ist so äh fehlt mir irgendwas. Ähm aber das.
Linus Neumann
Seitdem es Öffentlichkeit also die Idee, die Öffentlichkeit zu beeinflussen ist so, Alt wie der öffentliche Raum oder sogar vielleicht erst so alt wie die Demokratie, weil es da zum ersten Mal notwendig war, die Öffentlichkeit zu beeinflussen und vorher konnte man einfach draufhauen. Aber wenn du durch den normalen öffentlichen Raum gehst, ist der ja auch zugepflastert mit Scheiße Von wirtschaftlichen und politischen Interessen, die versuchen, auf sich aufmerksam zu machen. Du hast irgendwie komplette Straße voll mit irgendwelchen Plakaten was du jetzt kaufen sollst.
Tim Pritlove
Initiative neue Marktwirtschaft.
Linus Neumann
Und du hast die ganze Straße voll mit mit Plakaten, wen du jetzt wählen sollst. Und das wird halt aufm in sozialen Netzwerken eben auch nicht anders sein. Aber deswegen machen wir ja uns, machen wir uns ja unsere Filterblasen. Und das heißt der, der, der Effekt, der dem entgegensteht, ist, dass wir, uns die Menschen, denen wir folgen, auswählen, oder sagen wir mal, die Accounts, denen wir folgen. Und ob dieser Account jetzt am Ende ein Mensch ist oder nicht, ist letztendlich egal, wenn er uns als Informationsquelle dient. Ja, also ich kann ja von mir aus, weiß ich, Baußen Account, dieser Account retweetet alles, was äh irgendwie äh irgendeiner der Meterebene Accounts macht. Ja, das ist ein relativ einfacher Bot, den könnte ich mir in fünf Minuten schreiben.
Tim Pritlove
Den hast du auch schon geschrieben, das machst du immer mit Lochboot Netzpolitik.
Linus Neumann
Genau. Den habe ich leider noch nicht mal selber geschrieben, sondern das mache ich hier mit diesem.
Tim Pritlove
Ja, deswegen fittest du ja auch nicht ordentlich den äh Lokbuch Netzpolitik äh Account und verhinderst die weitere. Popularisierung unseres Twitter-Account.
Linus Neumann
Soll ich jetzt einen Bot schreiben.
Tim Pritlove
Nee. Ich sage das jetzt einfach mal los.
Linus Neumann
Tim, ich hab nicht so viele Follower wie du, für mich ist jeder einzelne Follower wichtig. Und du, ich glaube nicht.
Tim Pritlove
Du mal mehr Follower hast als ich, dann dann erinnerst du dich gar nicht mehr an mich.
Linus Neumann
Ja dann weißte, dass meine Bot Armee angefangen hat, sich selber zu vermehren.
Tim Pritlove
Drauf und dran ist die Wahrheit zu gewinnen, der.
Linus Neumann
Dann stehe ich da wieder Zauberleerling. Oh, oh, oh.
Tim Pritlove
Angriff der Klohnkrieger. Tja.
Linus Neumann
Jetzt hast du, jetzt hast du mich schon wieder vom vom Thema abgelenkt, aber ist auch egal. Ich meine, man sieht, wir sind, ich, ich zumindest bin hier im Randmodus und ich sollte nicht so viele Konferenzen hintereinander äh besuchen.
Tim Pritlove
Nee, das scheint nicht so richtig gut zu sein für dich.
Linus Neumann
Nee und dann rede ich irgendwann auch nur noch irrelevanten Scheiß. Mann, du.
Tim Pritlove
Ja. Ja.
Linus Neumann
So, aber äh also ich muss jetzt demnächst muss ich halt auf Twitter klicken und und russisches Social Bots äh erkennen.
Tim Pritlove
Lass uns doch lieber zu einem anderen kurzen Thema kommen.
Linus Neumann
Das wird eine Sen.
Tim Pritlove
Ja, auch schön. Was haben wir denn hier? Herr Schmidt. Erich.
Linus Neumann
Harald Schmidt. Nee, Ehrlich. Eric Schmidt.
Tim Pritlove
Ja Eric Schmidt ist äh euch sicherlich bekannt, der war für einige Jahre nicht ganz unerfolgreich, der Chef von Google, der CO, dann äh irgendwann die Gründer sich das wieder zugetraut haben, so einen Laden nochmal selber zu führen, weil sie vielleicht auch so mit dem ein oder anderen Move von Herrn Schmidt oder vielleicht auch mit seiner Art und Weise in der Öffentlichkeit aufzutreten, nicht ganz so glücklich waren, da stecken wir natürlich nicht drin. Mittlerweile bekleidet, also er ist jetzt nicht mehr CEO, aber er begleitet halt nach wie vor Ämter oder zumindest Funktionen im Google, beziehungsweise Alphabet-Universum ist jetzt der.
Linus Neumann
German.
Tim Pritlove
Also im Aufsichtsrat, wenn ich das richtig äh interpretiere und da ist er der Vorsitzende, ne? Also Vorsitzende des Vorsitzender des Aufsichtsrats von Alphabet, der Holding, die mal Google äh hieß und Google heißt jetzt sozusagen nur noch der ganze Such, Kram. Naja.
Linus Neumann
Und davor war er bei Sun, bei Novero und bei äh Apple.
Tim Pritlove
Der war mal bei Apple, ernsthaf.
Linus Neumann
Of Directors.
Tim Pritlove
Realy, ay ay, ach so, ja, okay, er war im Aufsichtsrat genau und bis er dann.
Linus Neumann
Da ist er rausgekickt, weil er äh.
Tim Pritlove
Ja weil Steve eben Thermonet nuklearen Krieg äh angekündigt hat.
Linus Neumann
Ja, zu rech.
Tim Pritlove
Ja, ja. Genau, also es ist schon mal eine fragwürdige Person gewesen, wir erinnern uns auch noch, äh ist ja mal sehr bekannt geworden durch seinen Ausspruch mit äh na ja, wir können ja hier bei Google äh Silvia sowieso schon was alle ähm tun und vorhaben und ähm wenn ihr, sozusagen was Böses getan habt, dann äh hättet ihr es vielleicht einfach von vornherein gar nicht erst tun sollen.
Linus Neumann
Ja genau, wenn ihr, wenn ihr was tut, von dem ihr nicht wollt, dass es jeder weiß.
Tim Pritlove
Genau, dann hätte es aber nicht tun sollen, so. Weil wir wissen das eh schon. Das äh war viel so eine dieser Aussagen, die einem so ein wohliges Gefühl über.
Linus Neumann
Wohliges Gefühl. Der hat übrigens, er hat aber auch äh einen ganz interessantes Buch geschrieben.
Tim Pritlove
Das heißt.
Linus Neumann
How Google Works, weiß nicht wie es auf Deutsch heißt, äh, wo er die Arbeitgeberphilosophie von Google behandelt und vor allem da er ja irgendwie wie gesagt von irgendwie Seiten achtziger Jahren irgendwie in in Valley Unternehmen arbeitet hat er ja durchaus Erfahrung in im Bereich der Managementstile und dieses in diesem Hau Google Works behandelt er eben, Auch Dinge, die er gelernt hat bei Google, die ich sehr erhellend fand über äh quasi das Verhältnis eines Arbeitgebers zu den Arbeitnehmern, Ähm das hat mich äh nachhaltig beeindruckt, Deswegen will ich jetzt auch kein Arbeitnehmer mehr. Aber ähm, So, das äh das ist ein ganz interessantes Buch gewesen, kann man an der Stelle noch erwähnen. So, Eric Schmidt ist jetzt seit neuestem, Berater.
Tim Pritlove
Also nicht nur, sondern jetzt auch.
Linus Neumann
Form des US-Verteidigungsministeriums, denn dort wird es einen Defense, Innovation Advisoryboard geben, äh zwölf Leute sollen da drin sein und ähm, er wird eine von diesen Personen sein.
Tim Pritlove
Ob der dann auch sich immer von diesem Atlas begleiten lässt. Es wird auch cool, oder? So wie die da im Video dann durch den Wald gelaufen sind, so läuft er dann direkt bei dem Board auf, der Atlas sitzt sich so neben ihn.
Linus Neumann
Und dann haut er den mit dem Stock. Ich meine, was Besseres ist den Menschen auch nicht eingefallen, ne? Das finde ich halt auch geil. Also das ist eigentlich das, was ich in diesem Video gesehen habe, weißt du? Der, der Scheiße, der kann was, lass den hauen. Lass den, der kann das besser als wir oder der nimmt uns einen Arbeitsplatz weg, hol einen Stock, Na ja okay. Ähm zwölf Personen aus der Privatwirtschaft, die ähm das äh Verteidigungsministerium bezüglich, Rapit Prodotyping, Komplexer Datenanalyse, der Cloud und generell dem Informationsaustausch beraten sollen. Das heißt, die haben. Also und und nur technisch, also er wird jetzt nicht irgendwie kriegsherr, er soll wird den jetzt nicht sagen, äh, welche wie die nächste Operation sein soll oder mit welcher Strategie man, äh, welches Dingen sich ero, welches Land erobert, aber er möchte er wird technischer Innovationsberater für das Verteidigungsministerium. Tja.
Tim Pritlove
Was wollen wir jetzt damit sagen.
Linus Neumann
Ich weiß es nicht, es ist auf jeden Fall eine Meldung. Ich meine, wenn Erik Schmidt was macht, dann ist das eine Meldung. Ähm.
Tim Pritlove
Wir kommen sozusagen jetzt erstmal unserer Chronik äh Pflicht nach, wollen damit äh erstmal gar nichts andeuten, aber ist natürlich schon, Ja, was ist das bedenklich? Notierenswürdig äh das. Aufsichtsratschef des Unternehmens, was nachweislich, wie wir hier auch schon ausgiebig diskutiert haben in dieser Sendung hinter dieser ganzen äh KI autonome Roboter, explizit auch mit Militärbezug dahinter steht jetzt sozusagen auch noch zum Beraterin. Wenn man das jetzt auch nicht so überraschend ist auch nicht so anhört auf ich meine, Der Laden ist wahrscheinlich durchzogen mit Industrie äh schon immer gewesen, nur dass halt jetzt Silicon Valley sich einen zunehmenden Maße und äh, sicherlich auch nicht in nicht das erste Mal in Form von Erik Schmidt jetzt äh in diesen Dunstkreis äh begeben hat. Ist natürlich, grundsätzlich gut, ich will es jetzt nicht zu weit überziehen, aber, Wollt ihr jetzt diese Apple FBI äh Debatte jetzt eigentlich gar nicht mehr ausgreifen? Hatten wir ja letztes Mal ähm weil er jetzt auch nicht so sehr viel mehr Neues passiert ist. Das spielt halt, aber es gibt ja dann schon eine ziemliche Positionierung gerade, also das Silicon Valley Versus äh der Staat und seine Wünsche und da sieht man natürlich auch dass das äh ein Spiel auf vielen Ebenen ist. So, dass hier auch ganz andere Interessen mit neuen Märkten genauso eine Rolle spielen und man nicht weiß, inwiefern hier am Ende äh die Privatsphäre et cetera äh sieg, werden wir sehen.
Linus Neumann
Es gibt. Also ich meine, alle Staaten blicken auf eine etwas ungewisse Zukunft. Was mit diesem ganzen Digital und so. Wenn sich das mit dem Internet jetzt durchsetzt, ja und mit dem Big Data, und.
Tim Pritlove
Also setze ich durch mit dem Internet.
Linus Neumann
Könnte sein. Und einige Staaten oder einige Nationen haben halt vielleicht patriotischere Bürger, oder einige Staaten haben auch äh, Früher die Bedeutung dieses Wirtschaftszweiges erkannt und dafür gesorgt, dass dieser Wirtschaftszweig sich bei ihnen großartig entwickeln kann und. Diese Staaten haben gerade ganz gut Kacken, weil sie wirtschaftlich gerade äh sehr profitieren von ihrer äh Vorreiterstellung in diesen Bereichen, Und weil sie natürlich auch, wenn dann eine enge Zusammenarbeit zwischen großen, wichtigen Organisationen in diesem Bereich und der Regierung stattfindet, Sich, sage ich mal, zumindest sicher sein können, dass sollte eines dieser Unternehmen dem Staat richtig krass an die Karre pissen können, dass sie das wenigstens früh genug erfahren, Ähm und ich erinnere mich, dass irgendwie äh Julian Assange ja irgendwie schon, vor einiger Zeit dem Eric Schmidt vorgeworfen hat, dass Google irgendwie seit so und so vielen Jahren, seit über zehn Jahren mit der NSA kooperiere im Bereich der Datensuche und Organisation und so. Da hatte Schmidt das dementiert und wir haben mit dieser ganzen Apple FBI Geschichte eigentlich gerade in der Öffentlichkeit so einen Eindruck gehabt von davon, dass die Konzerne, ähm auf Distanz geht. Von staatlichen Interessen, insbesondere der USA, Und der Schritt, dass so ein äh Schmidt sagt, ach ja, so ein Beraterposten fürs Militär, der steht mir doch gut zu Gesicht als jemand, der mehr oder weniger die größte, Datensammlung der Welt hat äh und irgendwie autonome Roboter äh steuert und äh nebenbei übrigens euer E-Mail-Provider ist, liebe Freunde, weil es weil jeder seine Mail bei dem hat. Ähm da erkennt man dann den Bereich der Entwicklung der Zukunft, der den ich irgendwie mit Sorge betrachte, nämlich eine äh Vermischung. Dieser wirtschaftlichen und militärischen und damit eben auch, ideologischen Bestrebungen, die irgendwo vorherrschen. Das beobachte ich mit zunehmendem Unbehagen wie dieses Internet, was mal so als schönes dezentrales Netzwerk, in dem wir alle irgendwie rum äh Dingsen gestartet ist, sich langsam zu einer riesigen ähm, Zentralen Datensammelstelle wandelt und ähm, Zentralen Datensammelstellen stehe ich ja grundsätzlich, Sehr, sehr skeptisch gegenüber und in diesen Entwicklungen, die wir jetzt hier sehen, äh spiegelt sich auch wieder, warum. Der Chaos-Computerclub seit über dreißig Jahren, sagt ja, ist nicht gut. Das ist einfach nicht gut.
Tim Pritlove
Beziehungsweise um das auch kleine Maul zu betonen. Der CCC, wenn er gut drauf ist, äh Chancen und Risiken benennt.
Linus Neumann
Wenn er gut drauf ist, Chancen auch. Ähm na ja, ich habe ja am Anfang der Sendung äh, auch vielleicht so ein bisschen mal aus Sicht des des Big Data und die Chancen und so weiter, ja? Also ich meine, Da sind natürlich auch Chancen drin. Natürlich, das wird alles, das wird da Die Technik wird im Zweifelsfalle immer ausreichend noch zum Vorteil aller äh sich entwickeln, ja? Also ich glaube auch, dass auch heute niemand sagen würde, oh mein Gott, die Welt war aber besser ohne Smartphones. Ja, also wir haben da ein ausreichendes ähm. Potential im wirtschaftlichen Bereich, im Bereich des Zusammenlebens, die Bedürfnisse der Menschen werden in der Regel gedeckt, Zumindest des größeren Teils der Menschen. Das äh ist ja eigentlich die Definition von äh Kapitalismus. Ja, dass das irgendwie, zumindest noch genug bedürftig, also es ist jedes Bedürfnis, was in ausreichend großer Zahl vorhanden ist, gedeckt wird und zwar einfach ganz dadurch, dass dass irgendjemand hingeht und es monetarisiert. Ist ja.
Tim Pritlove
Gebot und Nachfrage.
Linus Neumann
Genau, ist ja eigentlich, erstmal auch gar kein so gar keine so schlechte Idee, Das einzige Problem sind eben diese Akkumulationen, die dann immer mehr stattfinden zu einzelnen großen Konzernen, die sich am Ende ähm alle Geschäft, Oder die dann sich am Ende Geschäftsbereiche aneignen, Und das ist dann irgendwie im Automobilbereich zu sehen, gibt dann wenige Autohersteller, die sich den Markt aufteilen, das ist in in allen möglichen Bereichen zu sehen und wenn es zu wenig, äh, wenn es zu zentral wird, dann geht man irgendwo hin und zerschlägt die, Aber was machst du mit einer Informationsgesellschaft, wo es einfach schon heute klar ist, dass es einfach nur sagen wir mal drei, Vielleicht vier große Datensammelstellen weltweit geben wird. Aus den sich dann alles ab und her leiten soll.
Tim Pritlove
Na ja, ich meine, wenn wir auf die Spur kommen, langsam mal das äh zu sehen, dass diese Datensammelstellen nicht weggehen, aber man vielleicht sich mal darauf konzentrieren sollte, sie auch als öffentliches Gut zu äh stehen dann äh wäre ja da sozusagen noch was zu holen.
Linus Neumann
Das verstehe ich jetzt gerade nicht. Also öffentliches Gut, ein ein multinationales, öffentliches Gut.
Tim Pritlove
Na, wir beklagen die Macht von Google, weil sie halt sehr viel äh Aufwand stecken, zum Beispiel in das Aufbauen eines Webindexes und das ist natürlich nichts, was jetzt in ein Unternehmen mal so eben nebenbei auch noch machen könnte, auch wenn's an manchen Fronten äh einfacher wird, aber es wird ja auch für Google einfacher, von daher ist dieser Ähm dieser Aufwand schwer zu treiben, weil wer jetzt heute damit startet, äh sich selbst bei maximalem technischen Erfolg, ähm einfach nicht mehr in diese Position bringen kann, dass es sich in dem selben Maße monetarisieren lässt. Nur, Trotz alledem wäre ja die Verfügbarkeit eines Suchindizes für alle und nicht nur für Google durchaus, Aus vielen Erwägungen heraus sinnvoll, sowohl für die Wirtschaft als auch für die Gesellschaft et cetera, Warum dann nicht das Ganze einfach ein Suchindex genauso verstehen Wie äh dass Straßen und Datenleitungsnetz, dass man einfach an dieser Stelle einfach sagt, okay, wir müssen auch digital arbeiten und digitale Güter der Öffentlichkeit bereitstellen und dann ist das halt einfach mal ein europäisches äh Projekt, wenn nicht sogar ein UN-Projekt.
Linus Neumann
Ja, ich glaube, dass dieser Zug leider schon längst abgefahren ist, also was ähm man muss ja auch, Neidlos anerkennen, dass das, was Google macht, sie enorm gut machen. Aufgrund der Daten, die sie haben und aufgrund der Art, wie sie mit diesen Daten umgehen und aufgrund des Antriebs und des Geldes, das sie haben, um solche Dinge zu entwickeln, ja.
Tim Pritlove
Ja, vor allem die die Innovationskraft, aber das heißt ja nicht, dass man jetzt nicht auch noch einen Nutzen daraus haben könnte. Also wenn man jetzt sagt, okay, wir äh nehmen einfach öffentliches Geld und bauen eine öffentliche Infrastruktur auf, bauen einen solchen Index und ähm, stellen ihnen auch allen zur Verfügung, so wie Wikipedia äh alle Daten zur Verfügung stellt, dann wäre er auf jeden Fall mal einen Schritt gemacht und.
Linus Neumann
Also das wäre mal eine interessante Recherchefrage, wie viel Geld hat Google seit Existenz in sich selber investiert? Also was hat es gekostet? Wie viel Geld brauche ich, wenn ich jetzt bei null anfange und einen Google bauen möchte.
Tim Pritlove
Lässt sich bestimmt ganz gut ausrechnen, wenn man sich mal die Bilanzen anschaut, aber keine Ahnung. Ist bestimmt eine ganze Menge Holz.
Linus Neumann
Am Rande übrigens gelernt. Als Google zu El-Verbett wurde, wurde aus dem Motto Don't be evil, do the Rightsing.
Tim Pritlove
Wach ist. Das lassen wir jetzt mal so stehen.
Linus Neumann
Ja
Tim Pritlove
Aha, das war mir gar nicht bewusst. Vinus. Diese Sendung ist schon lang.
Linus Neumann
Diese Sendung ist lang. Ich wollte eigentlich die kürzeste machen, weil ich so.
Tim Pritlove
Wenn du das immer schon ankündigst, dann weiß ich immer schon, dass das komplett nach hinten losgehen wird.
Linus Neumann
Ja, ja. Ja. Aber ich war auch verärgert.
Tim Pritlove
Ja, ist okay, mir geht's schon auch viel viel besser. Ich habe das jetzt auch einfach aus humanitären Gründen schon getragen.
Linus Neumann
Das ist schön, weil jetzt irgendwie eine fünfstellige Anzahl hörer, dass aus monetären Gründen auch noch über sich ergehen lassen muss, Äh
Tim Pritlove
Netzneutralität ist ein äh Abschlussthema.
Linus Neumann
Respekt meinet dot E you dort kann man Fälle von ähm Netzneutralitätsverletzungen melden denen wird dann nachgegangen und da gibt es dann eine schöne Statistik momentan äh siebenundzwanzig bestätigte Reports, also Berichte über Netzneutralitätsverletzungen zwanzig Netzbetreiber, bei den, betroffen sind und sieben Länder eine Seite, die irgendwie vom Hules Huder Netz äh Vertretung, Access Now, Lackvadrat Hüdinet, Pizza Freedom, digitale Gesellschaft, European Digital Rights, der Initiative für Netzwerkfreiheit. Ähm, IT-Politik vorening, Nurpar, der Open Rights Group und Exnet äh äh zur Verfügung gestellt wird. Wenn ihr also eine ein Fall von Netzneutralität habt, der dort noch nicht ähm. Mit drin ist, dann könntet ihr dort mal helfen, die zu sammeln. Wichtig ist ja, äh oder ich denke, dass dort gesammelt wird um eben zu sagen, hier da, ne, das sind irgendwie die Dinger und so. Und ihr könnt auch bei den Existenten sagen, denen kann ich auch melden, den kenne ich auch. Und dann werden halt noch so schöne spannende Listen und Analysen darüber gemacht, wo sich diese Netzneutralitätsverletzungen befinden.
Tim Pritlove
Grob werden hier fünf verschiedene Arten von Netzneutralitätsverletzungen unterschieden, also Zero Rating, also das kostenlose Bereitstellen eines äh Dienstes, Beziehungsweise das nicht anrechnen der Nutzung eines äh Dienstes wie wir das hier schon mehrfach besprochen hatten. Sowas gab's bei Wikipedia, sowas gab's bei Facebook mit wird dort Orks, sowas ist die Spotify, Flatrate bei äh T-Mobile et cetera diese Specialist Servicegeschichte, die ja etwas schwammig äh ist, also wenn sozusagen ein Dienst hier bevorzugte Geschwindigkeit zum Beispiel äh ja, ich weiß gar nicht, wie das hier unterschieden wird, weil hier gibt's auch noch Priorit Taisation, Blogging und Trottling, also, Schwierig, äh, müsst ihr dann selber vielleicht entscheiden in welche Kategorie ihr das am besten packt und wenn's überhaupt nicht läuft gibt's auch noch Aza. Aza ist dein Freund. Klick hier rein. Ja.
Linus Neumann
Ja, ja.
Tim Pritlove
Ja
Linus Neumann
Vom neunundzwanzigsten vierten bis ersten fünften findet das erste Creative, In Würzburg statt. Das ist eine Veranstaltung ausgerichtet vom Nerd to Nerd EV und das ist ein Gig End und weil das aber der Nerd to Nerd EV ist, passt Nerd-End besser. Es gibt Hacking, Coding, Vorträge und allgemeines Rumnörden. Freitag, neunundzwanzigster vierter bis Sonntag, erster fünfter im Fablab und im Coworking Space Würzburg.
Tim Pritlove
Und gutes Essen.
Linus Neumann
Gutes Essen gibt's auch immer. Ja, dafür sind die Chaosveranstaltungen ja bekannt.
Tim Pritlove
Ja, mehr Termine haben wir gar nicht, oder? Dann können wir die Sendung jetzt einfach im Flow der Musik ausklingen lassen. Das ist davon. Wollen wir das machen?
Linus Neumann
Vielleicht könnte ich noch einen Termin ankündigen.
Tim Pritlove
Wasser ein. Nee. Du weißt doch.
Linus Neumann
Nee. Ja, ich bin nächste Woche habe ich noch einen Termin, aber den kündige ich nicht an.
Tim Pritlove
Wir haben uns auf jeden Fall äh gefreut, dass ihr uns wieder äh zugehört habt und äh sind dann auch bald mal wieder für euch da.
Linus Neumann
Hoffentlich geht's nächste Woche irgendwie vernünftig an.
Tim Pritlove
Muss auch mal sein. Wir sagen tschüss.
Linus Neumann
Ich sehe schon wieder schwarz, ey. Tschüss. Ciao, ciao.

Verwandte Episoden

Shownotes

Künstliche Intelligenz

Social Plugins und Tracking

Social Bot Bullshit

Schmidt macht auf Staat

Netzneutralität

Termine

61 Gedanken zu „LNP175 Dann platzt Google

  1. Ich vermute, dass durch autonome Fahrzeuge aufgrund der Notwendigkeit, halten zu können, bevor was passiert, der Autoverkehr in bewohnten Gegenden mit ihren Fußgängern, Radfahrern und vielen möglichen unvorhergesehenen Ereignissen vor allem eins wird:

    Viel langsamer :):)

    So langsam, wie man heute schon in solchen Gegenden fahren müsste – dann wirds das autonome Fahrzeug weiter vorn durch seine Vorsicht halt für alle Anderen erzwingen, weil ja im Weg.

    Und sobald sich zeigt, wie viel weniger passiert, wenn man so vorsichtig herumschleicht, wird max. 15 km/h abseits von für Fußgänger gesperrten höherrangigen Straßen wohl auch auch zur gesetzlichen Norm.

    Und zum ersten Mal, seit es Städte gibt, gehören die dann wieder den Fußgängern, und nicht mehr durchgehenden Pferden, schlecht gebremsten Bierkutschen oder Autos, die mit 50 km/h durch enge Gassen zischen :):):)

  2. Sollte dies so sein, könnte die kreditvergebende KI aber auch lernen, dass das Ausfallrisiko eines Kredites wirtschaftlich durch die Mehreinnahmen einer liberalen Ausgabepraxis aufgewogen werden kann. So könnte die Einbeziehung von zusätzlichen Informationen trotz knallharter Differenzierung durch die KI das wirtschaftlich notwendige Diskriminierungsübel auch zu einem gewissen Grad entschärfen. Könnte… ;-)

  3. Die Frage nach der Diskriminierung von KI wurde gut in einem Talk bei 32C3 behandelt, siehe Andreas Dewes: „Say hi to your new boss: How algorithms might soon control our lives“ (https://media.ccc.de/v/32c3-7482-say_hi_to_your_new_boss_how_algorithms_might_soon_control_our_lives)

    Mich wundert es, dass der Talk nicht erwähnt wurde? Dort wurde das Szenario von Linus im Falle von Recruiting durchgespielt und um einiges klarer dargestellt. Die Problemstellung: Auswahlprozesse diskriminieren per Definition. Aber es gibt bestimmte Kriterien, nach denen nicht diskriminiert werden sollte (oder nicht darf, laut Gesetz). Die einfache Annahme ist: In dem man dem Algorithmus diese Merkmal nicht beibringt, kann es auch nicht danach diskriminieren. Andreas Dewes zeigt, dass dies falsch ist. Das Phänomen nennt er „discrimination leakage“ (glaube ich) von nicht erlaubter Diskriminierung in die Entscheidungen der KI. Das große Problem dabei ist, dass nicht mehr nachgewiesen werden kann, dass entlang dieses Kriterum diskriminiert wurde.

    Ich verstehe daher nicht ganz die saloppe Art der Rechfertigung von ungewünschter oder gesetzlich verbotener Diskriminierung, die Tim und Linus über die Lippen gegangen ist. Um bei der Anstellungsproblematik zu bleiben: Findet ein Unternehmen heraus, dass die Anstellung von Frauen mehr Kosten verursacht, darf dies eben kein Grund sein, um Männer gegenüber Frauen vorzuziehen.

    Würde man der KI das Merkmal „Geschlecht“ vorenthalten und würde die KI durch die Daten lernen, dass eine Gruppe G mit bestimmten Merkmalen (z.B. Mutterschutz, etc.) mehr Kosten verursacht, kann dies eben kein Grund sein, um einen abgeleiteten Prädiktor zu verwenden, der Männer gegenüber Frauen bei der Anstellung bevorzugt.

    Es gibt den „neutralen“ Begriff von Diskriminierung (im Sinne von „Unterscheiden“) und benachteiligende Diskriminierung als ethisches und rechtliches Konzept, das Diskriminierung anhand von bestimmten Merkmalen untersagt. Letztere schränkt erstere ein.

    • PS: Fazit: Genau so wenig wie „Effizienz“ ein Grund für benachteiligende Diskriminierung bei menschlicher Entscheidungsfindung ist, so ist „Effizienz“ auch kein Grund um diese Diskriminierung bei KI zu erlauben. (Wie man das implementiert, ist eine andere Frage.)

      Oder hab ich etwas falsch verstanden?

  4. Wie soll die KI lernen? Wenn sie sagt „Kein Kredit“ – dann gibt es keinen weiteren Feedback. Also kann kein Fehler(der Kunde ging zur nächsten Bank und hat den Kredit brav zurückgezahlt) erkannt werden. Und – sie kann ja bei der Kreditvergabe nicht gegen sich selber spielen.

    • Das Argument ist im Wesentlichen das, was Linus vorgetragen hat, und ich moechte dem widersprechen.

      Der Fehler liegt meines Erachtens darin, dass die input Parameter nicht diskret sondern (in guter Naeherung) kontinuierlich (wie sagt man ‚continuous‘ auf deutsch?) sind. Und hier wuerde man erwarten das der Ausgabewert (zb die Wahrscheinlichkeit einen Kredit zu bedienen) eine stetige Funktion ist.

      Wenn die KI also in ihren alten Entscheidungen sieht, dass kurz *vor* dem eigenen threshold (wo also noch gerade ein Kredit akzeptabel war) die reale Rueckzahlrate sehr hoch ist, kann sie schlussfolgern (stetige fktn …), dass der Erwartungswert auch hinter dem threshold noch recht gut ist und dementsprechend diesen Parameters anders gewichten.

      Die einzige Frage ist, wie effizient dieser Lernweg ist. Er fuehrt (meistens) zum Ziel, aber es waere sicherlich (fuer das Lernen) effizienter gelegentlich absichtlich falsche Entscheidungen zu treffen, d.h. zu experimentieren.

    • Hier hat L. recht, das ist aber grundsätzlich das Problem von Systemen, die an vorhandenen Daten rechnen, aber versuchen, die Zukunft vorherzusagen.

      Wäre übrigens ein spannendes Forschungsfeld, aber „nicht einfach“ umzusetzen. Man könnte zum Beispiel Pädokriminelle oder extrem blutrünstige Rassisten randomisiert aus der Haft entlassen, um dann zu schauen, welches statistische Modell dann besser passt bzw. ein negatives Ereignis besser vorhersagt. Viel Spass beim Einreichen des Forschungsantrags!

      Wildhuende

  5. Von dem Atlas Video gabs ne Version wo ne Stimme immerwieder „Where is the box“ & „go get the box“ sagte, teilweise mit Lachen..
    … fand ich echt schrecklich, auch wenn das um ne Maschine ging. Leider finde ich diese Version nicht mehr.

  6. Natürlich kann man alle möglichen Algorithmen bauen und diesen alle möglichen Datensätze in den Rachen werfen, um unter Geltung der Annahmen 1 bis n bestimmte Strukturen in diesen Daten zu finden oder nicht zu finden.

    Aber die Grundprobleme sind eben nach wie vor philosophisch-ethische:

    1. wer legt die Axiome fest und wie?
    2. wer gibt den Ergebnissen/Schlussfolgerungen eine Bedeutung?

    Es ist letztlich das altbekannte Problem der Semantik/Intentionalität und es nicht wirklich gelöst. Es gibt zudem berechtigte Zweifel, ob es (aus prinzipiellen Gründen) überhaupt jemals gelöst werden kann.

    Natürlich kann man irgendeinen Algorithmus ausrechnen lassen, dass Person A einen Kredit zu 96,5% zurückzahlen wird, Person B aber nur zu 79,1%. Aber kein Algorithmus kann von sich aus sagen, was das in der realen Welt *bedeutet* bzw. *bedeuten sollte*. Soll man Person B einen Kredit geben oder nicht? Natürlich kann man irgendeinen Grenzwert oder sonstwas definieren, um das automatisiert zu entscheiden. Aber auch das muss wiederum jemand zuvor (willkürlich) festgelegt haben.

    Am Ende braucht man halt immer Grundannahmen, die selbst nicht logisch begründet werden können, das ist das Grundprinzip jeder wissenschaftlichen Theorie. Daran ändert auch „big data“ und das ganze KI-Gerede nichts.

    • Wenn du einen Kredit zu 96,5% zurückzahlen wirst und zu 3,5% nicht und angenommen du kannst dich auf diese Werte verlassen, dann ist es ne simple Rechnung.

      Zinseinnahmen * 0.965 – Kreditvolumen * 0.035 = Erwartungswert Gewinn

      Wenn du nur begrenzt Kredite vergeben kannst machst du halt die mit dem höchsten Erwartungswert.

      Praktisch ist das Problem damit aber gelöst, da braucht man keine Willkür und auch kein Bauchgefühl mehr, sondern nur simple Algebra.

      Und selbst wenn der Entscheidungsprozess, nachdem du die Wahscheinlich bereits kennenst, noch signifikant Intelligenz erfordern würde, könntest du das Lernziel von dem Algorithmus auch so definieren, dass er quasi als Agent die Geschäfte auch durchführt, und ihn daran bemessen wieviel Gewinn er damit erwirtschaftet. (Wenn du die Wahrscheinlichkeit kennst, kannst du das Geschäft ja auch simulieren)

  7. Zur KI:

    Man würde die Bewertungsfunktion vermutlich nicht so implementieren, dass nur der insgesamt gemachte Gewinn bzw. Verlust betrachtet wird, sondern eher der Erwartete Gewinn pro Kunde über- bzw untertroffen wird.

    Ich kann ja über alle Kunden ausmitteln, wie viel Gewinn mir ein Kunde im Durchschnitt bringt – wenn ich einen Kunden ablehne, dann habe ich diesen Gewinn automatisch nicht gemacht, was also auf jeden Fall schlecht ist.

    Vergleichsparameter dürften in der Anfangszeit auch eher menschliche Komponenten sein: Also schafft es die KI besser, Kreditwürdigkeit zu beurteilen als ein Arbeiter, der das seit 20 Jahren macht.

    Wobei ich denke, dass man hauptsächlich nicht Menschen, sondern Firmen beurteilen möchte. Die nehmen üblicherweise deutlich größere Kredite auf.

  8. Zum Thema tracking habt ihr das hier nicht erwähnt:

    https://www.google.com/transparencyreport/safebrowsing/?hl=de

    „Ungefähr eine Milliarde Menschen nutzen Google Safe Browsing. Wir helfen jede Woche Millionen von Menschen, sich vor Schäden zu schützen. Dazu zeigen wir Nutzern von Google Chrome, Mozilla Firefox und Apple Safari Warnhinweise an, wenn sie auf Websites zugreifen, die personenbezogene Daten stehlen oder Software installieren könnten, um die Computer der Nutzer zu manipulieren.“

    Man stelle sich mal vor, da wüsste jemand wo diese 1 000 000 000 Menschen so hinsurfen, weil deren Browser ungefragt die Daten übermittelt. Das wäre ja übel.

    :-)

  9. Also Linus rants sind diesmal etwas daneben meiner Meinung nach ;-)

    Das Argument „wir brauchen keine ethischen Überlegungen zu selbstfahrenden Fahrzeugen weil die ja weniger Unfälle bauen“ ist doch wirklich offensichtlich großer Quatsch. Natürlich wird der massenhafte Einsatz selbstfahrender Autos ethische Probleme auf die Tagesordnung setzen, die bisher noch nicht auf der Tagesordnung standen (oder halt sehr sehr weit unten) und natürlich wird man dazu irgendwann irgendeine gesellschaftliche also politische Entscheidung treffen müssen (oder sich dazu entscheiden müssen, keine Entscheidung zu treffen, was auch eine Entscheidung ist.)

    offensichtlichstes Beispiel wäre die vielzitierte Situation, dass ein selbstfahrendes Auto fünf unbeteiligte Fußgänger umnietet, um nicht in einen Bus zu krachen und potentiell 20 Passagiere umzubringen. Ist es ok, wenn der Algorithmus so gebaut ist, dass er lieber die fünf umbringt als die 20? Wenn nicht, wie darf er dann stattdessen gebaut sein? Darf er überhaupt eine Entscheidung treffen? Usw usf.

    • und es geht doch wohl nicht nur um irgendwelche finanziellen Entschädigungen.

      oder wollen wir die Regeln unseres Zusammenlebens davon abhängig machen, ob Volvo Schadensersatz zahlt oder nicht?

      • Und dass ein Auto keinen Fahrer hat, macht es zum Autoautomobil. Das will sicherlich nicht jeder Fußgänger oder Fahrradfaher. Wird es eine Volksabstimmung zu „fahrenden Toastern“ geben?

    • offensichtlichstes Beispiel wäre die vielzitierte Situation, dass ein selbstfahrendes Auto fünf unbeteiligte Fußgänger umnietet, um nicht in einen Bus zu krachen und potentiell 20 Passagiere umzubringen. Ist es ok, wenn der Algorithmus so gebaut ist, dass er lieber die fünf umbringt als die 20? Wenn nicht, wie darf er dann stattdessen gebaut sein? Darf er überhaupt eine Entscheidung treffen? Usw usf.

      Dieses Beispiel ist genau so offensichtlich für Philosophen, wie offensichtlich fernab von jeder Realität:
      1. Dieses klassische moralische Dilemma tritt auch bei Menschen so gut wie nie auf, ist also ganz einfach kein realistischer Fall.
      2. Das Auto weiß gar nicht, wie viele Menschen wo drin sitzen.
      3. Träte es auf, wird das selbstfahrende Auto einfach NIEMANDEN umnieten, weil es sich schon vorher überhaupt nicht in die Situation begibt, wo es ein derartiges Risiko eingehen könnte, weil das Auto eben NICHT SELBST fährt, sondern alle Autos gemeinsam zentral gesteuert werden oder im Mesh miteinander kommunizieren.

      • Ich kann mir an dieser Stelle den Hinweis nicht verkneifen, dass in über 200 Jahren Eisenbahnbetrieb nicht ein einziges Mal das Trolley-Problem aufgetreten ist.
        Das sollte reichen, um dessen praktischen Wert zu beurteilen. (Abgesehen von seiner Lehrfunktion für Philosophie-Erstsemester).

      • ad 1: Falsch, dieses Dilemma entscheiden jeden Tag unzählige Chauffeure, Schiffskapitäne, Busfahrer, Lokführer und Piloten. Ausserdem alle, die ein AKW fahren. Bei manchen kommt es häufiger und beim manchen seltener zu dieser Entscheidungssituation. Schätze, dass solche entscheidungen weltweit stündlich und nicht etwas „alle Paar Jahre“ gemacht werden.

        ad 2: Die AI „weiss“, dass montags um 6 drei junge Männer im Elektrikerauto sitzen und dass um 7:30 auf dem Schulweg keine Windows-Programmierer die Strasse überqueren. Und der entgegenkommende Volvo ist rechnerisch ein besseres „Ziel“ als das Elektro-Velo, das bei einer Vollbremsung auf dich drauf fährt. Die AI wird den Schaden minimieren, wenn sie diese Informationen hat. Nur wer definiert den Schaden und bestimmt den Algorithmus dafür? Wer definiert die Parameter? Läuft das nach Lebensalter oder wird da noch das Einkommen regrediert? Oder spielt die rechnerische Ueberlebenschance nach Krankenkassen-Daten eine Rolle? Lieber den kleinen Dicken mit Diabetes-Risiko umnieten (weil er p < .05 häufiger das Taxi nimmt) oder den koks-freudigen Porsche-Fahrer, der die Situation verursacht hat, weil er "im Eifer des Gefechts" meinte, auf der linken Spur fahren zu müssen?

        ad 3: Naive Technikgläubigkeit. Spätestens dann, wenn "deine kleine Tochter" vors Google-Auto rennt, um den Ball zu fangen, in einer Spielstrasse wo "eigentlich nichts passieren kann" wirst du vielleicht anders darüber denken.

    • Diese ständigen Überlegungen zu Regelwerken für die Auswahl eines Opfers sind alle Blödsinn, weil weder sinnvoll, noch machbar.

      Sicherheitstechnik arbeitet immer mit dem Ansatz, dass NIX passieren soll, im Fall vollständig autonom fahrender Fahrzeuge im Straßenverkehr heißt dass, dass die Geschwindigkeiten entsprechend so angepasst werden, dass auch im Fall einer Überraschung immer angehalten werden kann.

      Das macht den Autoverkehr wesentlich langsamer und die Art von Sicherheit, die man mit solchen Systemen schon allein rein rechtlich gesehen anstreben muss, erst möglich.

      Politischer Druck seitens der Autofahrer, die keine langsamen Hinternisse im Straßenverkehr wollen, mag die Zulassung solcher Fahrzeuge verzögern, wird aber in keinem Fall dazu führen, dass Systeme gebaut und für den Straßenverkehr zugelassen werden, die im Stil einer vollautomatischen Selbstschussanlage einem Regelwerk folgend Entscheidungen über Leben und Tod fällen.

      Jede Entscheidung muss mit dem Ziel getroffen werden, jeden Schaden zu vermeiden, und das heißt im Fall von einem Auto in einem bewohnten Gebiet ganz einfach stehen bleiben.

      Autobahn funktioniert etwas anders, weil zum sofortigen Stehenbleiben Dinge wie auf freie Flächen Ausweichen und gezielt, aber maßvoll bremsen kommt, mit einem fließenden Übergang vom Fahren mit Abstandskontrolle hin zur aktiven Schadensvermeidung.

      Die Situation auf einer Autobahn lässt sich gut mathematisch modellieren und von einer Logik im Stil eines Autopiloten meistens einigermaßen abdecken.

      Bewohnte Gebiete sind dagegen Orte voller Überraschungen, wie Leute, die z.b. plötzlich ohne zu schauen hinter einem geparkten LKW hervorspazieren – da hilft nur die ƒUahigkeit, jederzeit extrem schnell zum Stehen zu kommen, verbunden mit einem kleinen Ausweicher in sehr eindeutigen Situationen.

      Will man in einem bewohnten Gebiet mit dem immanenten Risiko, solche Leute zu verletzen, mit heute üblichen Geschwindigkeiten durch bewohnte Gegenden fahren, muss man halt selber die Kontrolle übernehmen und damit die Verantwortung.

      Verantwortung übernehmen kann die Maschine nicht, das können nur indirekt der Gesetzgeber und die Herstellers, und bei den Herstellen kümmert sich um solche Fragen üblicher- wie sinnvollerweise der Antwalt vom Dr. Kelso aus Scrubs.

  10. Kapitalismus ist übrigens etwas anderes als Marktwirtschaft (empfehlenswert in diesem Zusammenhang ist „Der Sieg des Kapitals“ von U. Herrmann)

  11. Vielleicht wäre es für die Terminator-mit-Elefantengedächtnis-Zukunft gar nicht schlecht, wenn wir den Robotern einen Platz in unserer Ethik einräumen. Dann könnten wir auf Gnade hoffen.
    Zum Gedankenexperiment bezüglich Diskriminierung: Denkt das mal weiter mit der Prämisse „Hin und wieder muss auf Zufallsbasis gegen die erkennen Regeln verstoßen werden, um deren Aktualität zu überprüfen.“

  12. Künstliche Intelligenz löst nicht alle Probleme besser, weil sie keine moralischen Entscheidungen trifft sondern Entscheidungen, die das Zielergebnis maximieren.

    Bleiben wird beim Beispiel der Kreditvergabe. Das Problem würde dann nicht sein, dass bestimmte Personen keinen Kredit bekommen. Das Problem wäre, dass die künstliche Intelligenz ja den Profit maximieren will. Die Moral wäre ihr egal. Das heißt die KI würde z.B. die Entscheidung treffen einer Person einen Kredit zu geben, obwohl sie aus den big data Informationen weiß, dass diese Person für die Rückzahlung irgendwann einen dritten Job brauchen wird, die Krankheitskosten für die wahrscheinliche Krebstherapie nicht bezahlen und das Kind nicht auf die Uni schicken kann. Die KI wird berechnen wie weit sie eine Person finanziell auspressen kann.

    KI macht nicht als besser. Für sie ist es ein reines Optimierungspiel. Sie macht nur das effizienter was der Benutzer/Eigentümer im Schilde führt. Gut oder schlecht.

  13. Hallo Linus,

    nur eine kleine Anmerkung zu deiner Überlegung, dass die Kreditwürdigkeis-KI nur aus den Daten lernen kann wo sie auch Kredite vergeben kann und somit nach deiner Befürchtung in einem sogenannten lokalen Minimum/Maximum steckt und den von diskriminierenden von Menschen gaeschaffenen Status-Quo beibehält: Ein guter Algorithmus würde bei einer quantitativ geringen Anzahl von Fällen auch einfach mal random trotzdem einen Kredit vergeben, einfach zur Exploration. Die würde zwar nach dem bisherigen Entscheidungs-Modell einen Geld-Verlust bedeuten, aber wenn das Modell dadurch verbessert werden kann, weil es Daten bekommt die in dem alten System gar nicht angefallen wären, dient eine solche Vorgehensweise ja trotzdem auf lange Sicht dem Optimierungsziel.
    Aber generell hast du natürlich Recht, dass solche Systeme (auch nicht digitale) immer auch eine gewisse Feedback-Loop haben.

  14. Liebes LNP:

    Ich schätze die Sendung ansonsten sehr, aber dieses Mal hat ist im ersten Teil wohl etwas daneben gegangen. Ich hoffe, dass mein Kommentar deulich macht, was ich meine. Es sind zwei Punkte.

    Erstens geht es v.a. Linus um die Frage von „Diskriminierung“ und die versuchst Du mit „big data“ in Verbindung zu bringen. „Diskiminierung“ meint zunächst einmal nur Unterscheidung und hier müssen aber zwei Ebenen unterschieden werden. Da gibt es die „private Diskriminierung“, die jeder macht (auch Du, wenn du Dich entscheidest auf diesen Kommentar zu antworten oder nicht). Jeder, der sich seinen Wohnort, seinen Partner, seine Freunde aussucht diskriminiert und da ist in keinem einzigen Fall etwas Schlechtes dran. Ganz in Gegenteil. Es wäre fast schon faschistisch, diese Art von Diskriminierung unterbinden oder gar verbieten zu wollen. Da gibt es aber noch die „systematische Diskriminierung“, wenn vor allem staatllicherseits Unterschiede gemacht werden (obwohl „vor dem Gesetz alle gleich sind“).

    Man kann sich nun fragen, ob im Geschäftsleben diskriminiert werden darf oder nicht. Das ist eine politische Entscheidung, ob das noch „privat“ oder „systematisch“ ist. Persönlich bin ich der Meinung, dass kein Gesetz jemanden zwingen sollte, ein Geschäft mit jemanden einzugehen, von dem er oder sie nicht überzeugt ist, ein passender Geschäftpartner zu sein. „Anti-Diskriminierungs-Gesetz“ hin oder her. Aber Linus, du bist doch der erste, der Deine Zuhörer auf Regelungen hinweist, die aus Prinzip nicht funktionieren können (was ich an Dir sehr schätze).

    Zweitens, gar nicht verstehen kann ich Dein fast schon zynisches Unverständnis gegenüber ethischen Fragestellungen im Bereich AI. Es ist doch egal, wie sich die Grundrate an fahrerverursachten Unfällen reduziert! Wir rechnen ja auch nicht, wieviele Verkehrstote es weniger gibt seit der Einführung der Anschnallpflicht und rechnen das gegen die Verkehrstoten, die durch Alkohol verursacht wurden. Wenn die Airbags und Knautschzonen besser werden, sollen wir dann Sauffahrten erlauben oder was?

    Mir kommt es fast so vor, als wolltest du die Frage der Verantwortung (wobei du Verantwortung mit Schuld gleichsetzst und dir über die Begrifflichkeit einen schmalen Fuss machst) dem „allgemeinem Lebensrisiko“ zuordnen möchtest. Ich halte das für sehr gefährlich! Technischer Fortschritt ist kein „gottgegebenes“ oder wenn Du willst „naturgegebenes“ Gesetz, sondern Resultat bewusster Entscheidungen verantworlicher Individuen.

    Meine Argumentation erinnernt mich gerade an Dürrenmatt und seine „Physiker“. Der Programmierer, der sich im Code für ein bestimmtes Kollisions-Programm entscheidet, beim dem er (um das traditionelle Beispiel zu bemühen) die Oma umfährt und nicht die Enkelin (weil er ihr Leben als wertvoller einschätzt) oder gegen den Volvo fährt und nicht gegen den Opel (wogegen meines Wissens Volvo in dieser Diskussion grossen Protest eingelegt hat) – dieser Programmierer oder von mir aus sein Arbeigeber trägt die Verantwortung für diese Entscheidung.

    Und diese Verantwortung ist – wenn es hart auf hart kommt – gerichtlich auch viel klarer darzustellen, als wenn wir es mit Menschen zu tun haben, die in einer Notsituation irgendwie handeln und wir deren Handlung nicht vorhersagen können.

    Ich mache mich hier auf eine spannende gesellschaftliche Diskussion bereit, spannender noch als die Diskussion über das Flugsicherheitsgesetz, wo es um die Frage ging, ob man z.B. 200 Leben opfern darf um 200.000 zu retten (wenn etwa ein entführtes Flugzeug mit Kurs aufs AKW Fessenheim zufliegt). Das BVerfG hat hier ja eine sehr kluge Entscheidung gefällt, die vielleicht auch Grundlage werden wird für Entscheidungen im Zusammenhang mit der Zulassung von AI in Bereichen, wo es „hart auf hart“ kommt.

    Meine Prognose, ganz zum Schluss, wäre, dass in ethisch kritischen Bereichen AI (und wir reden nicht von Automatisierung, sondern von von dem gewissen Punkt ab dem die „Programmierer“ die Reaktionen des Programms nicht mehr vorhersagen können) gegen GG 1 „Die Würde des Menschen ist unantastbar“ werden wird zumindest mal ganz hart kämpfen müssen.

    Nun werde ich mich dem zweiten Teil eures wunderbaren Podcasts widemen und wünsche alles Gute,

    Wildhuende

  15. Linux ist in dem Podcast sehr kurzsichtig.

    Die Annahme das man mit Big Data alle Erkenntnisse über alle Personen hat, ist schlicht falsch.
    Egal viele Daten man hat es fehlt immer ein Teil und es gibt immer einen Bias und somit Fehlentscheidung.
    Weiterhin haben neue Entwicklung immer Fehler/Nebenwirkungen die meist erst Jahrzehnte später sichtbar werden. Zum Beispiel war Asbest sehr lange ein beliebter Baustoff.
    Weiterhin ist die Frage was die zielvorgabe ist. Ein Autohersteller hat das Ziel der Gewinnmaximietung, d.h. Wenn die Kosten für einen Verkehrstoten geringer sind als der Gewinn der durch ein neu verkauftes Auto entsteht werden Verkehrstoten irgendwann Profitabel und aus Sicht der KI ein sinnvolles Ziel.

    Es braucht definitiv eine Diskussion welche Ethischen Grenzen man setzen möchte.

  16. Prinzipiell stimme ich Linus zu, dass ein nüchterner, nimmermüder und emotionsloser Computer tendenziell besser fährt als zugesoffene Testosteronjunkies, die eine Straße mit einem Kriegsschauplatz verwechseln. Auf der anderen Seite: Wer schreibt denn die Software, der wir uns anvertrauen sollen? Das sind die gleichen Stümper, die in die Motorsteuerung Routinen einbauen, um Abgaswerte zu schönen. Denen geht es nicht darum, ordentliche, zuverlässige Software zu schreiben, sondern möglichst schnell irgendwechen Code hinzuschmieren, der die formalen Tests passiert, so dass man im Zweifelsfall immer sagen kann, man hätte sich nur an die Vorgaben gehalten.

  17. Hallo,
    warum hat eigentlich dieser schöne Podcast für seine Webseite keinen vertraulichen und abgesichterten Kanal für die Interaktion mit seinen Lesern und Hörerinnen?
    Das nötige Bewußtsein ist vorhanden, da bin ich sicher, wird es doch gerade in diesem them. Netzsegment geradezu gepredigt. Und vor allem gelebt: https://netzpolitik.org/ https://ccc.de/ um mal zwei zu nennen. Welchen Impuls braucht es hier noch?

  18. Eure anfängliche Diskussion über Künstliche Intelligenz und Diskriminierung erinnert mich sehr an diesen TAL Beitrag, auch wenn die systemische Komponente hier keine KI ist:

    http://www.thisamericanlife.org/radio-archives/episode/573/status-update?act=3

    Bei der Diskussion geht es denke ich vielmehr darum, dass in einem rein rational agierendem System sich ein vorhandener, durch Diskriminierung entstandener, Spalt nicht schließen wird. Auch wenn ein solches System natürlich nicht aktiv diskriminiert, können die angelegten, in sich logischen, Maßstäbe frühere Diskriminierung aufrechterhalten.

  19. Es wurde schon angesprochen, aber noch nicht komplett, deshalb hier noch mal etwas zur Kreditvergabe. Es ist keine binäre Entscheidung, Kredit ja/nein, sondern eine Berechnung der Ausfallwahrscheinlichkeit. Es kommt also jeder Kreditantrag in ein Töpfchen. Von „Fällt garantiert nicht aus“ = 0 % Ausfallzins, bis „Fällt bestimmt aus“ = 100% Ausfallzins. Man zahlt aber neben dem Ausfallzins auch noch Zinsen für die Refinanzierung der Bank und die erwarteten Gewinne der Bank (und auch das Eigenkapital, das ja verzinst werden will, gerne mit 25 %, wenn man Joe Ackermann heißt). So kommt man am Ende also auf einen Zinssatz. Wenn die Bank genug Kredite hat, die alle die gleiche Ausfallwahrscheinlichkeit haben (z. B. 4 %), dann ist der Ausfallzins quasi die Versicherungssumme, die jeder Kreditnehmer bezahlt. Wenn dann bspw. 4 von 100 Krediten ausfallen, dann ist das für die Bank nicht weiter schlimm, sondern eingepreist und vom Kunden bezahlt.
    Natürlich wäre es toll, wenn einem der Algorithmus sagen würde „nimm den Kredit besser nicht, du wirst es nicht schaffen“, aber in der Praxis lässt er einen das nur durch den zu zahlenden Zins wissen. Und der Zins selbst ist ja auch wieder ein Risiko dadurch erdrückt zu werden (jemand der eh reich ist, hat weniger Ausfallwahrscheinlichkeit und muss deshalb weniger Zinsen zahlen als jemand der Reich ist). Durch diese Verfahren minimiert die Bank ihr Risiko, das System lernt gleichzeitig weiter (und kommt nicht an den Punkt, dass nie wieder jemand ausfällt, und die Maschine deshalb aber auch nix lernt). Wenn eine Bank es geschickt anstellt, verdient sie ja auch an einem Bankrott noch mal durch Strafzinsen und Gebühren und eine Verwertung der Sicherheiten.

    Das Problem trifft nicht nur Ausländer sondern alle benachteiligten Personen und sorgt damit für weitere Segregation. Eine Lösung wäre es, den Banken eine extrem strikte Trennung nicht zu erlauben, indem z. B. ein gewisser Zufallszins (positiv oder negativ) eingebaut wird. Und manch einer hat einfach Glück und bekommt einen etwas niedrigeren Zins als es die Maschine errechnet hat.

  20. Ein kleiner Einwurf zu Maschinenrechten:
    Man kann das wie Linus als total absurd empfunden, ich denke aber dass die Diskussion durchaus nicht Unsinnig ist.

    Wie im Podcast bereits angemerkt zeigen Menschen beim Anblick der Misshandlung humanoid wirkender Maschinen Empathie, teilweise sogar ein erstaunliches Maß.

    Wenn diese Parallele scheinbar so gravierend ist, dann ist wohl denkbar dass tolerierte Gewalt gegen diese Art von Maschine auch wieder auf den Umgang mit Mitmenschen rückwirkt.

    Das Morddrohnen selbstverständlich inakzeptabel sind, sollte nicht die Diskussion über diese Thematik abwürgen.
    Wir werden mit aktiven Maschinen leben, die Frage des Umgangs stellt sich uns, und bitte nicht nur Sci-Fi Autoren.

  21. Meine Frau bekommt keinen Handyvertrag, weil sie Ausländerin ist.
    Wir haben ihren Schufaeintrag, der im Prinzip bis auf „Ausländer“ datenleer ist, genau studiert.
    Dass sie verheiratet ist mit jemandem der mehr als üppig verdient, liegt dort als Datensatz nicht vor.
    Wir können pro Monat ohne Probleme 20 Mobilfunkverträge bezahlen, trotzdem kann sie keinen abschließen. Schlechter können die Systeme doch kaum mehr urteilen als jetzt, die Furcht vor (durchaus) möglichen Fehlentwicklungen sollte nicht ausser acht lassen wie dysfunctional unsere Systeme heutzutage tatsächlich urteilen.

  22. Hey Linus,
    vielleicht war es der Versuch Dich zu missbrauchen, um die Wähler durch Angst mache „hilfe ich werde beeinflusst“ dazu zu bringen wieder die
    „seriösen“ Parteinen CDU/CSU/SPD zu wählen.
    Also der Versuch, so die Wahlen zu beeinflussen.

  23. So ganz konnte ich der Argumentation im Prolog auch nicht folgen.

    Allerdings würde ich schon an der Verwendung des Begriffs „Künstliche Intelligenz“ Kritik üben. Wenn wir von einem Programm sprechen, dass Kreditwürdigkeit bewertet, dann hat das nichts mit der Nachbildung von autonomer Intelligenz zu tun. Es werden lediglich Techniken verwendet, die ein Nebenprodukt der Forschung an Künstlicher Intelligenz sind, aber nicht mit dem Ziel eine solche zu erzeugen. Natürlich, da menschliche Intelligenz allem Anschein nach nichts anderes als ein Rechenprozess eines komplexen Systems ist, gibt es eine gewisse Ähnlichkeit dieser Anwendung mit Aspekten von Denken. Das gilt aber genauso für herkömmliche Programme mit explizit formulierten Algorithmen, nur deshalb ist ein Computer für uns nützlich.

    Von dieser Kritik kann man zu der Diskussion über Ethik weitergehen. Ich glaube, dass zumindestens ein Teil der Personen, die von einer Roboter- oder KI-Ethik sprechen, eigentlich die ethische Bewertung der Technik meinen (in Analogie etwa zur Tierethik) und nicht „Ethik in Maschinensprache“. Und das ist ein Aspekt von Technikfolgenabschätzung. Eure ganze Diskussion beruht auf Überlegungen zur ethischen Dimension der technischen Entwicklung. Nur durch die schwammigen Vorstellungen von Künstlicher Intelligenz kommt es zu unproduktiven Nebendiskussionen.

  24. Ich sehe diese ganze Big Data Geschichte eher als Bedrohung des (volkswirtschaftlich sinnvollen) Modells „Versicherung“. Dieses dient dazu, die Kosten von seltenen, aber existenziell teuren Ereignissen (Erkrankung, Brand etc) Gleichmäßig auf die Bevölkerung zu verteilen. Das funktioniert aber nur, weil niemand wissen kann, ob es ihn trifft oder ob er einer der vielen (meisten) ist, die nur einzahlen, aber nie einen wesentlichen Schaden haben werden.

    Wenn jetzt aber Big Data (oder welche Technologie auch immer) dazu führt, dass man das individuelle Risiko präziser bestimmen kann (im krassesten Fall durch die Erfindung der Technologie „Glaskugel“), dann würde niemand, den es dann später nicht trifft, noch eine Vermischung abschliessen, was dazu fuehrt, dass die, die sie dann bräuchten sie auch nicht mehr zur Verfügung haben.

  25. Linus, du sagst ja, dass Maschinen im Zweifelsfall dann bessere, weil präzisere Entscheidungen treffen. Diese Formulierung finde ich schwierig, weil ja niemand davon abgehalten wird, eine Paychopathen-KI zu bauen, die, so alle so agieren würden, nicht funktionieren würde, im Netz der gemäßigten KIs aber einen evolutionären Vorteil hat, weil sie die über gewisse Gesetzmäßigkeiten hinwegsetzt.

  26. Lose zum Thema: Ich habe gehört (Anekdotenwissen!), dass (zumindest hier in Österreich) eine der automatisierten Regeln für das Ermitteln der Kreditwürdigkeit einer Person ist, ob ihr Vorname „Kevin“, „Jacqueline“ o.ä. ist. Wenn ja wird die Kreditwürdigkeit heruntergestuft, weil „Proletenfamilie“. Zumindest diese Art der Diskriminierung existiert bereits.

  27. Lieber Tim, lieber Linus,

    (vorweg: Geld und Schoko kommt bald per Post, keine Bock auf Flattrtracking)
    Bis jetzt immer verpennt, dass man auch Kommentieren kann …
    Also: Fettes Lob! Logbuch Netzpolitik ist mein Wochenlichtblick :-) und lachen muss man auch!!!

    Prima finde ich:
    – Ihr nehmt die Bedrohung einer freien Gesellschaft durch zunehmendes Infragestellen von Grundrechten, nur weils um den digitalen Raum geht, ernst. ZB durch umfangreiches Tracking via SocialMedia plugins. Ist eher selten (draussen, in der normalen Welt ;-) ). Egal ob mit oder ohne Facebook.

    – Ihr nennt Leute, die diesbezüglich besonders unverschämt sind beim Namen (!) – zB im NSA-Ausschuss.

    – Ihr seid witzig-zynisch, ohne dabei beliebig und apolitisch zu sein. UNd es ist super, wenn ihr euch in die Wolle kriegt.

    Was ich mir wünsche.
    – manchmal mehr Überblick (is ja nicht Chaosradio)

    – etwas häufiger konkrete Tips

    – den alten Jingle zurück.

    Ergo: Volle Kraft voraus!

  28. Die EU hat das Thema BigData bereits auf dem Schirm. Wir arbeiten in einem EU-Projekt (eudeco), indem es darum geht, einen Markt für Datenanbieter und Datennutzer zu schaffen, sodass die Gesamtgesellschaft von diesen Daten profitieren kann. Hier mal ein Link zur Projektseite: http://data-reuse.eu

  29. 1:40 – 1:47
    „das muss ein Philosph oder so gewesen sein …
    auf jedenfall einer der zuwenig zu tun hat.“

    Das regt mich echt auf. Fordere eine Entschuldigung und werde bis dahin keine Zeit mehr mit lnp verschwenden.

  30. Neben Analytics hat Google auch andere Möglichkeiten nachzuvollziehen welche URLs besucht werden. Webseitenbetreiber und beliebte Frameworks wie WordPress, Bootstrap und deren Themes nutzen diese überwiegend gedankenlos und wird einem auch nicht einfach gemacht, dies zu unterbinden:
    – Google Web Fonts (Asset, könnte auch lokal liegen)
    – Google Maps (API)
    – Google Adwords (API)
    – Google Youtube (Embeded)
    – Google Graphs (API)

    Mir fällt dann auch noch weit verbreitete Nutzung ein von:
    – JQuery (Asset, könnte auch lokal liegen)
    – Gravatar (API)
    – Font Awesome (Asset, könnte auch lokal liegen)
    – Paypal spenden Button
    Wäre ja mal interessant zu untersuchen, was diese Firmen damit machen/könnten laut AGBs.

    Neben den großen wie Google, Facebook, Amazon, Apple, Twitter, sollte man Microsoft und besonders IBM (Watson Deeplearning, Alchemy) nicht vergessen. Wenn doch Daten und besonders personalisierte Daten das neue Öl ist werden diese auch zugekauft werden. Firmen, die gar nicht so wahrgenommen sammeln doch schon lange und erstellen Profile für alle möglichen Zwecke, wie Acxiom.
    In dem „Filter Bubble“ Buch gabs doch eine Stelle:
    „“As soon as the hijackers’ names had been publicly released, Acxiom had searched its massive data banks, which take up five acres in tiny Conway, Arkansas. And it had found some very interesting data on the perpetrators of the attacks. In fact, it turned out, Acxiom knew more about eleven of the nineteen hijackers than the entire U.S. government did—including their past and current addresses and the names of their housemates. We may never know what was in the files Acxiom gave the government (though one of the executives told a reporter that Acxiom’s information had led to deportations and indictments). But here’s what Acxiom knows about 96 percent of American households and half a billion people worldwide: the names of their family members, their current and past addresses, how often they pay their credit card bills whether they own a dog or a cat (and what breed it is), whether they are right-handed or left-handed, what kinds of medication they use (based on pharmacy records) … the list of data points is about 1,500 items long.”
    ― Eli Pariser, The Filter Bubble: What the Internet is Hiding From You

  31. Hallo,

    finde eure Sendung großartig!!
    Kann der Argumentation, dass „Botarmeen“, die z.B. Pegidamist verbreiten, nicht demokratiegefährdend sein sollen…

    Zum Thema KI noch ein Filmtipp: Ghost in the Shell

  32. Möchte widersprechen, dass Social Media Bots „kein relevantes Problem“ sind.

    Relevanz in den Medien ergibt sich heutzutage zu einem guten Teil aus Relevanz in sozialen Medien. Siehe: zahllose Berichte über virale Internet-Ereignisse.

    Wenn etwas auf Twitter/Facebook trendet, ist es auch für seriöse Medien schon eher einen Artikel wert.

    Und der Mensch ist ein Herdentier. Wenn wir hören, dass viele andere eine Meinung haben, schließen wir uns dieser Meinung eher an, als wenn es erkennbar eine abseitige Einzelmeinung ist.

    AfD und Trump sind zu einem guten Teil Social Media Phänome, die hässlichen Fratzen kaputter Filterblasen.

    Deshalb, in Zeiten knapper Wahlergebnisse (es gibt selten Erdrutschsiege, so dass eine kleine Manipulation reicht) und dem Glaubwürdigkeitsverlust der klassischen Medien gegenüber der Filterblase – ja, es erscheint mir absolut plausibel, dass man mit Twitter-Bots und Facebook-Fakes reale Politik beeinflussen und Wahlen kippen kann.

  33. Um nochmal auf die Twitterbots zurückzukommen. Im unten verlinkten Bloomberg-Feature geht es um einen kolumbianischen Hacker, der für rechte politische Kräfte in Lateinamerika an der Manipulation der öffentlichen Meinung gearbeitet hat. Laut dem Text waren Bots, die eine hohe Zahl von Accounts verwaltet haben, eines seiner Werkzeuge, um Themen zu setzen und Falschinformationen zu verbreiten:

    http://www.bloomberg.com/features/2016-how-to-hack-an-election/

    (via netzpolitik.org)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.