In Folge 25 unsere Podcasts „D wie Digital“ haben wir mit Mads Pankow über Künstliche Intelligenz gesprochen und das vergangene Jahr Revue passieren lassen. Hier könnt ihr die Folge nachhören.

DiFü-News: Mads, warum denkst du, dass das Thema Künstliche Intelligenz nicht nur faszinierend, sondern für viele auch emotional aufgeladen ist?  

Mads Pankow: Ich denke, dass das Thema stark mit Angst besetzt ist. Wenn man sieht, dass Maschinen wöchentlich oder im Monatstakt Dinge können, von denen wir dachten, dass nur wir Menschen das könnten, dann haben viele den Reflex, das zu skalieren und zu sagen: Dann denken Maschinen bald wie Menschen, und wenn sie wie Menschen denken, dann können sie sich auch selbst verbessern. Und wenn sie das können, dann sind sie bald hyperintelligent und bringen dann plötzlich alle Menschen um? Jeder zweite Science-Fiction-Film handelt davon, dass die Künstliche Intelligenz (ein) Bewusstsein entwickelt und uns Menschen tötet. Diese Angst kann ich verstehen.  Ich glaube, dass das vielleicht auch ein Grund war, warum ich mich so detailliert mit dem Thema auseinandersetzen wollte.

DiFü-News: Um vielleicht auch gegen deine eigene Angst anzukommen?

Mads Pankow: Ja vielleicht. Aber eigentlich müsste man eher Angst vor dummer Technik haben. Das ist dann die andere Hälfte der Science-Fiction-Filme; Maschinen, die ihren Auftrag nicht verstehen.  Da gibt es das berühmte Paperclip-Gedankenexperiment (Anmerkung der Redaktion: Paperclip bedeutet Büroklammer): Was passiert, wenn eine KI den Auftrag hat, besonders effizient so viele Büroklammern wie möglich herzustellen? Sie fängt dann irgendwann an, alle Ressourcen auf der Welt dafür zu verbrauchen und die Menschen zu töten, um Büroklammern herzustellen. Eine solche Gefahr, dass eine Maschine stumpf und ohne Rücksicht einen Auftrag ausführt, ist eher wahrscheinlich als eine Maschine, die bewusst handelt.

DiFü-News: Das klingt gruselig. Was sind deiner Meinung nach die größten negativ besetzten Mythen rund um KI?

Mads Pankow: Das ist immer schwer zu sagen, weil wir darüber ein begrenztes Wissen haben. Vor drei Jahren habe ich Dinge, die heute möglich sind, noch für unmöglich gehalten.

Um die Frage zu beantworten, muss ich ganz weit rauszoomen: Ich denke, der größte Mythos ist, dass jede Form von Problemlösungsfähigkeit am Ende mit menschlicher Intelligenz gleichgesetzt wird – oder einer Vorstufe – und man dann anfängt, überall menschliche Intelligenz zu sehen. Der Delfin kann Probleme lösen, also ist er genauso intelligent wie wir, der muss nur schneller werden, wir sehen wie intelligent Krähen und Primaten sind. Beim Primaten ist das ja auch ein plausibles Argument, weil wir uns aus dem heraus entwickelt haben. Aber Computern wird immer unterstellt, dass wenn wir sie noch schneller machen, dass sie dann wie Menschen denken können. Früher gab es beispielsweise die Annahme, dass ein Computer bei 10.000 Terraflops so schnell wie das menschliche Gehirn ist.

Ich denke, das Wichtige ist zu verstehen, dass es erkenntnistheoretisch oder bewusstseinstheoretisch beliebig viele verschiedene Formen gibt, die Welt zu verarbeiten und Probleme zu lösen. Diese Formen müssen dann aber nicht automatisch auf eine menschliche Intelligenz zustreben. Denn nur weil man ein Auto immer schneller baut, wird es nicht anfangen zu fliegen. Die Art und Weise, wie Menschen verarbeiten, ist im Gegenteil viel schlechter als Computer, bei denen wir immer darauf warten: Wann sind die intelligenter als wir? Taschenrechner rechnen seit 80 Jahren schneller als jeder Mensch. Sprachmodelle können inzwischen so viel Wissen verarbeiten wie kein Mensch. Ich frage mich, worauf wir warten. Die KI ist in vielerlei Hinsicht längst viel besser als wir, und zwar in den Dingen, die sie gut kann. Und warum müssen wir immer noch mit Gewalt versuchen, ihr auch noch beizubringen, wie wir denken, nämlich leider extrem unlogisch, sehr ineffizient. Aber: Wir haben ein Bewusstsein, wir können reflektieren, wir wissen um die Existenz der Welt. Das zeichnet uns Menschen aus und dadurch können wir andere Lösungen finden. Maschinen haben das nicht, sie verarbeiten nur Nullen und Einsen. Wir haben mit Künstlicher Intelligenz sehr viel möglich gemacht, aber die Frage des Bewusstseins, also einer Selbst- und Fremdreflexion, der Weltverarbeitung und das Wissen um die Existenz der Welt – da gibt es überhaupt keinen Fortschritt.

DiFü-News: Warum streben wir danach, dass auch Maschinen ein Bewusstsein haben?

Mads Pankow: Weil es dann die Hoffnung gibt, dass wir gar nichts mehr tun müssen, weil die Maschine dann das kann, was wir auch können. Zum Beispiel wenn ich jetzt einen Bildgenerator wie Midjourney nutze, dann gibt es da momentan das sogenannte wacky-finger-Problem: Bildgeneratoren können keine Hände erzeugen, da ist immer ein Finger zu viel oder zu wenig. Das wird noch sehr viel besser werden, aber jetzt gerade sehen Hände immer schlecht aus.  

Wenn Maschinen selbst ein Bewusstsein hätten, könnten sie solche Probleme vollautonom lösen und bräuchten nicht immer jemanden, der sie mit Daten über die Welt füttert, der ihnen Anweisungen gibt, die Ergebnisse kontrolliert und Verantwortung trägt.

Das alles könnte man delegieren. Vielleicht ist es aber auch die Hoffnung, dass dann alle Probleme der Welt gelöst wären. Das wäre auch ein tolles Narrativ: Der Mensch kann die Probleme der Welt kaum ertragen und baut sich dann einfach selbst einen Gott selbst. Ich mag die Geschichte, aber ich habe Zweifel, dass es so funktionieren wird. Wie gesagt, in vieler Hinsicht sind die Maschinen schon viel besser als wir und können für uns Dinge, die wir vorher für gottgleich gehalten haben, übernehmen. Aber diese allgemeine künstliche Intelligenz, danach sieht es erst mal nicht aus. Das heißt nicht, dass es die nicht irgendwann geben kann. Aber dann bräuchte man vielleicht eine andere Technologie.

DiFü-News: Es gibt viele Debatten darüber, dass Künstliche Intelligenz Stereotype reproduziert, weil die Daten für die KI eben von Menschen eingespeist werden. Kannst du etwas dazu sagen, wie KI uns als Gesellschaft vielleicht den Spiegel vorhält?

Mads Pankow: Das ist eine großartige Frage. Meiner Meinung nach ist die Geschichte der KI und der Algorithmen eine kontinuierliche Kränkung des Menschen. Vorher galt der Mensch als logisch denkendes Wesen als hohes Ideal der Philosophie: Doch rational denken, besser rechnen und logisch denken, das können Computer schon lange viel besser als wir Menschen. Außerdem müssen wir uns, genau, wie du gesagt hast, damit auseinandersetzen, dass, wenn ein Computer von Menschen lernt, vor allem auch, Rassismen, Chauvinismen und Vorurteile lernt.

Dass unsere Kreativität, die wir vorher für einen göttlichen Funken gehalten haben, in verschiedenster Art und Weise durch einen Computer abzubilden ist, das ist eine große Enttäuschung. Genauso wie die Annahme, dass wir wissen, was richtig und falsch ist – wenn wir versuchen, das einem Computer beizubringen, stellen wir fest, dass Ethik nicht eindeutig ist. Es gibt viele Graubereiche. Das heißt nicht, dass sie falsch ist, aber das entzaubert das Verständnis von richtig und falsch, bis hin zur gesellschaftlichen Konstruktion. Stellen wir uns vor, dass wir einen Rechtssprechungscomputer bauen, der die Gesellschaft überwacht. Was macht das mit einer Gesellschaft, wenn man für jedes Vergehen geahndet wird? Unser Rechtssystem basiert zwar auf der Idee, dass wir alle gleich sind und dass wir alle jederzeit geahndet werden müssten. Das passiert dann aber nicht , denn unser Rechtssystem baut darauf, dass es immer Variationen und Interpretationen von Menschen mit Entscheidungsspielräumen gibt. Ich will das Recht überhaupt nicht lächerlich machen, es ist richtig und gut. Aber es funktioniert anders, als wir uns das vorgestellt haben.

DiFü-News: Welche Auswirkungen kann das haben?

Mads Pankow: Es gibt Regionen auf der Welt, in denen man Künstliche Intelligenz weniger kritisch sieht. Es gibt eine chinesische Stadt, in der die Ampeln mit Sprühsystemen ausgestattet sind. Wer bei Rot über die Ampel geht, wird nass gesprüht.  Wir müssen uns damit auseinandersetzen, was diese Automatisierung der Ahndung und dieses Nudging der Bevölkerung, hin zu einem erwünschten Verhalten, bedeutet. Im Moment sagen wir hier: Das ist bevormundend, das trainiert die intrinsische Motivation zu gerechtem Verhalten ab, weil man überall überwacht wird. Ja, ist alles richtig. Das ist alles hoch bedenklich, auch wenn man bedenkt, dass möglicherweise eine politische Agenda durchgesetzt wird und so eine Gesellschaft zunehmend überwacht wird. Das könnte aber möglicherweise auch Vorteile haben, dass zum Beispiel Kriminalität fast vollständig ausgerottet ist. Es wird schon jetzt häufig nach China geschaut. Ich stelle mir dann aber vor, wie wir in 40 Jahren solche Systeme importieren müssen. Davor habe ich Angst. Ich glaube, wir müssen uns hier zeitnah Gedanken machen, wie wir unsere Gesellschaft als universalistische, rechtsstaatliche Gesellschaft neu denken, mit künstlicher Intelligenz. Da müssen wir anfangen, so etwas selbst zu bauen. Nur weil es kompliziert und gefährlich ist, können wir uns dem nicht verwehren.

DiFü-News: Kannst du uns noch kurz einen Rückblick geben auf das Jahr 2023?

Mads Pankow: 2022 war die Zeit, in der die ersten wichtigen generativen KIs veröffentlicht wurden, Bildgeneratoren und Sprachmodelle, die so sprechen und Bilder erstellen konnten, dass wir sie kaum von menschlichen Produkten unterscheiden konnten. 2023 sind wir bereits in dem Jahr, in dem das in der Masse ausgerollt wurde. Das ging sehr schnell für einen technologischen Schub, insbesondere wenn man vergleicht, wie lange es bei E-Mail oder Social Media gebraucht hat, um sich im Internet zu verbreiten. Innerhalb weniger Wochen hat ChatGPT mehr als 100 Millionen Nutzende erreicht. Solche Large Language Models durchdringen jetzt überall unsere Anwendungen: Man kann sich das so vorstellen, dass 2023 der Anfang war, dass generative KI sich wie ein dünner Film über alle Nutzeroberflächen drüberlegte.

In einem Jahr kann es sein, dass die meisten Menschen keine E-Mails mehr selbst schreiben, sondern nur noch den Befehl geben: Schreib eine freundliche Absage. Es gibt so viele Bereiche, die davon beeinflusst sind, Programmieren ändert sich gerade rapide.  Ich glaube, dass 2023 mit dem Ausrollen dieser wirklich funktionalen Technologien in die Breite, dass das eben nicht mehr ein Nischenprodukt ist, sondern dass man diesen smarten Assistenten nicht mehr entgehen können wird.

DiFü-News: Du hast es eben angesprochen: E-Mails, die wir nicht mehr selbst schreiben müssen. Meine Frage ist jetzt natürlich: Wann kommt die Null-Stunden-Woche?

Mads Pankow: Ich warte immer noch auf die 15-Stundenwoche. Der berühmte Wirtschaftstheoretiker John Maynard Keynes hat 1930 gesagt, dass wir in 100 Jahren nur noch 15 Stunden die Woche arbeiten würden. Die Gesamtarbeitszeit der Gesellschaft pro Person – wenn man auch berücksichtigt, dass Frauen früher weniger gearbeitet haben – ist nur gering gesunken. Warum ist das so? Keynes hat Recht gehabt, wenn man sagt, dass 15 Stunden Arbeit die Woche ausreichen würden, um den Lebensstandard von 1930 herzustellen – der aber auch sehr spartanisch war. Warum arbeiten wir immer noch so viel? Da gibt es viele verschiedene Theorien. Vielleicht sind die Ansprüche gewachsen, vielleicht sind wir aber auch von Werbung beeinflusst, dass wir Geld anhäufen müssen, um Sachen zu kaufen. Das ist alles plausibel. Ich denke aber auch, dass einer der entscheidenden Faktoren ist, dass Menschen heimlich gerne arbeiten. Arbeit entfaltet auch in der Gesellschaft viele Funktionen, die nur schwer anders erzeugt werden können. Zum Beispiel das Gefühl, dass man etwas bewirken kann, dass man einen Beitrag für die Gesellschaft leistet und auch Identität. Außerdem sorgt Arbeit für soziale Integration, dass man als Gesellschaft zusammenhält. Arbeit leistet viel, was häufig ausgelassen wird, wenn man es nur auf Broterwerb reduziert und davon ausgeht, dass Menschen nicht mehr arbeiten würden, wenn sie es nicht müssten. Da zweifle ich dran, und da gibt es klare Hinweise für. Qualitative Interviews zeigen dann, dass Menschen gar nicht weniger arbeiten wollen.  Andere Statistiken zeigen, dass Menschen, die am glücklichsten sind, über 41 Stunden die Woche arbeiten. Das könnte an der materiellen Absicherung liegen, aber ich denke auch, dass Arbeit für viele Bedürfnisse, die über den wirtschaftlichen Aspekt hinausgehen, befriedigt. Deswegen sollten wir darüber nachdenken, was wir eigentlich in Zukunft wollen. Außerdem gibt es viele Aufgaben, besonders im sozialen Bereich, die nicht gut automatisierbar sind. Für einen Dialog braucht man zwei mit Bewusstsein. Ich ahne, dass die Zukunft in allen Berufen den Großteil automatisieren wird – was dadurch den sozialen Aspekt wichtiger macht. Man kann dann mehr leisten, muss aber auch mehr sozial leisten, und die soziale Arbeit, die Kümmerarbeit, wird immer größeren Anteil der Gesamtarbeitsaufkommen auch einnehmen. Viele Jobs fallen weg, und dadurch kommen da mehr, denn das ist der Vorteil der sozialen Arbeit. Sie ist tendenziell unendlich. Solange nicht jeder Mensch austherapiert und betreut und glücklich ist, gibt es was zu tun, und dieses Szenario sehe ich bei allem Optimismus nicht. Ich glaube, dass wir in Zukunft sehr viel arbeiten müssen und dass es hart wird, denn: Soziale Arbeit ist harte Arbeit. Von der Null-Stunden-Woche sind wir weit entfernt.

DiFü-News: Wir haben in diesem Jahr in diesem Podcast sehr viele Themen angesprochen und ich wollte dich fragen, ob du uns zu ausgewählten Themen einen kurzen Ausblick geben kannst. Fangen wir mit politischer Arbeit an.

Mads Pankow: In der politischen Arbeit liegt die Herausforderung darin, sich mit sozialen Medien auseinanderzusetzen, dass man sich nicht einschüchtern lässt von Fehlinformationen und mit Verleumdung und Hate Speech zurechtkommt. Ich denke, dass das für KI eine sehr hohe Herausforderung sein wird, die sie einerseits durch Detektionsmechanismen erleichtern, aber nicht lösen wird. Ich glaube, das ist extrem schwer, dass man als Politiker in der Öffentlichkeit steht und all dem ausgesetzt ist. Auch das wird ein zunehmend größeres Thema sein.

DiFü-News: Das leitet zu einem anderen Thema über: Desinformation. Kannst du vielleicht sagen, was KI eventuell für ein Potenzial im Bereich Desinformation hat?

Mads Pankow: Wir müssen uns mit dem Thema Desinformation auseinandersetzen. Wir müssen uns damit abfinden, dass mit der Liberalisierung der Medien, dass alle am Diskurs teilnehmen können, auch eine Verantwortung einhergeht: Nämlich die Verantwortung, aktiv gegen Fake News, Verleumdung und digitale Gewalt einzustehen. Das ist eine Frage von Zivilcourage. Auch wenn Regulationen und Automatisierung einen Beitrag leisten können. Algorithmen allein können das Problem nicht lösen. Wir sind da alle gefordert.

DiFü-News: Wir springen zurück zur politischen Arbeit. Du meintest, dass sie ohne digitale Verwaltung eigentlich nicht denkbar ist – lass uns darüber sprechen.  

Mads Pankow: Die Übersetzung von analogen Prozessen in Digitale bringt uns nur begrenzt weiter. Ich will nicht behaupten, dass es nicht gut ist, dass ich den Antrag zum Kindergeld digital stellen kann. Aber anhand der technischen Möglichkeiten müsste man zum Beispiel solche Familienleistungen ganz anders denken: Anstatt, dass Personen aus einer Vielzahl an Leistungen selbst herausfinden müssen, welche sie in Anspruch nehmen können, müsste eigentlich ein Algorithmus individuell auf die jeweiligen Lebensbedürfnisse eine finanzielle Unterstützung oder Beratung zuschneiden. Das ist eigentlich Gerechtigkeit: Nicht Ungleiches gleichbehandeln. Algorithmen bieten hier eine Möglichkeit, unterschiedliche Situationen abzubilden.

DiFü-News: Danke für das spannende Gespräch, Mads!

Mads Pankow: Danke!

Artikelbild: Tara Winstead via pexels.com