KI, also Künstliche Intelligenz, ist in aller Munde. Man hört oft davon, dass diese Technologie vieles besser als der Mensch kann, sie ist teils kostenlos im Netz verfügbar, jeder kann damit spielen und arbeiten und die Ergebnisse sind oft beeindruckend. Sam Altmann und andere Tech-CEOs sind schon fast zu Gestalten der Pop-Kultur geworden, jeder kennt sie, aber was steckt dahinter? Ist KI mehr als ein Hype, ist sie die Lösung der Menschheitsprobleme oder gefährlich?
Wir sprechen dazu mit Prof. Rainer Mühlhoff. Prof. Mühlhoff ist Diplom-Mathematiker, mit den Nebenfächern Theoretische Physik und Informatik, und promovierter Philosoph. Er lehrt an der Universität Osnabrück zum Thema „Ethik der künstlichen Intelligenz“. In der Vergangenheit sammelte er auch Berufserfahrungen als Programmierer und Unternehmensberater.
Mit seinem Buch „Künstliche Intelligenz und der neue Faschismus“ hat er eine ausführliche Analyse der zu erwartenden/befürchtenden gesellschaftlichen Verwerfungen bei einer Machtübernahme durch die Apologeten des Heilsversprechens der KI ausgearbeitet.
Hinweis: Das Lesen des Artikels ersetzt keineswegs die Beschäftigung mit dem Buch. Die Fragen im Gespräch sind selbstverständlich stark von den Intentionen des Autors geprägt.
Wir trafen Prof. Mühlhoff am 23. Juli 2025 per Zoom zu einem Gespräch.
Herr Prof. Mühlhoff, vielen Dank, dass Sie sich die Zeit nehmen. Zum Einstieg einige Verständnisfragen:
Auf Ihrer Webseite bezeichnen Sie sich als „Philosoph, Mathematiker, Programmierer“, sind also der Technikfeindlichkeit unverdächtig. Nutzen Sie selbst manchmal KI-Tools, wenn ja: wofür?
Ich bin tatsächlich gar nicht technikfeindlich. Ich bin mit Programmieren und Informatik von Kindesbeinen an aufgewachsen. Das war mein größtes Hobby, Computer. Und ich habe auch erst Mathematik und Informatik studiert und in diesen Feldern gearbeitet, bevor ich mich der geisteswissenschaftlichen Reflexion über die gesellschaftlichen Auswirkungen von Technologie zugewendet habe. Ich selbst nutze KI relativ wenig. Allerdings habe ich in meiner Forschung natürlich viel Kontakt mit KI-Systemen, weil ich über KI arbeite und KI-Systeme teste. Zum Beispiel KI-Systeme, die im Schulunterricht eingesetzt werden, zur Automatisierung von Notengebung.
Kommen wir zu Begriffen. In einem Artikel habe ich zum wiederholten Mal geschrieben, ich würde bei KI „lieber von Maschinenintelligenz, in Abgrenzung zur komplexeren menschlichen Intelligenz, sprechen.“ Kann man das so plakativ sagen?
Auf jeden Fall, denn ich glaube, die Abgrenzung maschineller versus menschlicher Intelligenz ist das Mindeste. Ich würde fast noch weitergehen, denn viele Leute bezweifeln ja, dass Maschinen überhaupt Intelligenz haben können. Sondern sie simulieren menschliche Intelligenz nur. Das ist schon in diesem sehr zentralen Kriterium für KI, dem Turing-Test, fest verankert: Nach diesem Prinzip kann eine Maschine „intelligent“ genannt werden, wenn sie sich so verhält, dass sie mit einem Menschen verwechselbar ist.
Damit wird die Frage umschifft, ob die Maschine wirklich Intelligenz hat oder die Intelligenz des Menschen nur gut simulieren kann. Ich wäre da auch eher auf der pessimistischen Seite. Ich würde sagen, man kann bei KI allermeist von maschineller Automatisierung sprechen, und gar nicht von Intelligenz.
Ebenso wird, in Bezug auf KI, der Begriff „Lernen“, auch in der Form Deep-Learning, gebraucht. Sollte man besser wirklich von „Training“, in Abgrenzung zum menschlichen Lernprozess sprechen? Das „Muster“ nach dem wir zwischen Hunden und Katzen unterscheiden, ist ja ein anderes als bei einer KI.
Das ist eine sehr wichtige Sache. Die Begriffe, vor allem die Verben, die wir verwenden, wenn wir über KI sprechen, wie zum Beispiel „lernen“ oder „die KI entscheidet“ oder „die KI hat gesagt“ oder „die KI hat geantwortet“ – mit diesen Verben nehmen wir Anthropomorphisierungen vor. Das heißt Vermenschlichungen von Maschinen.
Und diese Vermenschlichungen führen dazu, dass wir die ganze Zeit die Wahrnehmung auf Maschinen projizieren, dass es sich da um eine menschenähnliche Fähigkeit handelt, während der Algorithmus der Maschine eigentlich nur eine sehr clevere statistische Berechnung vollzieht.
Also letzten Endes vermenschlichen wir die Maschine.
Ja, der Begriff KI ist nicht denkbar ohne vermenschlichendes Projektionsgeschehen, also die Bereitschaft der Menschen, menschliche Eigenschaften auf Maschinen zu projizieren. Weizenbaum hat das mit seinem sogenannten ELIZA-Chatbot, dem ersten großen Chatbot der Welt, bahnbrechend nachgewiesen. Das ist eine anerkannte wissenschaftliche Erkenntnis seit den 1960ern.

Sie sprechen im Buch über Faschismus und manchmal auch über Technokratie, bzw. Tech-Ideologie. Vergleichen wir die Begriffe mit den „14 Merkmalen des Ur-Faschismus“ nach Umberto Eco, die Sie auch im Buch verwenden, kann man diese schon synonym verwenden?
Ich glaube nicht, dass man die Begriffe Tech-Ideologie, Faschismus und Technokratie synonym verwenden sollte. Die Tech-Ideologien, die ich in dem Buch beschreibe, sind ja auch ganz verschiedene, die ich allerdings summarisch unter dem Aspekt behandle, dass sie alle faschistoide Tendenzen enthalten und Gemeinsamkeiten mit dem historischen Faschismus haben. Ich würde also sagen, diese Tech-Ideologien können zu einem Faschismus führen, sie tragen das Potenzial oder die Möglichkeit in sich. Faschismus ist dann wiederum ein Begriff, der gerade in Deutschland historisch aufgeladen und schuldbeladen ist.
Der wird vielfach als ein Kampfbegriff aufgefasst, als ein Schmähwort. An der Stelle ist mir wichtig, dass wir diesen Begriff nicht nur mit historischem Bezug verwenden sollten. Wir müssen uns von der Idee befreien, dass ein Faschismus in der Gegenwart genauso aussehen muss wie bei den Nazis. Und dass wir einen Faschismus erst dann vorliegen haben, wenn es zu einem Völkermord kommt.
Faschismus fängt schon vorher an. Faschismus ist eine Politikform, die auf drei wesentlichen Merkmalen basiert. Da habe ich Umberto Eco ein bisschen griffig vereinfacht und aus 14 Merkmalen jene drei Merkmale herausgestellt, die ich für besonders zentral halte.
Das ist erstens das Merkmal, dass Faschismus eine Politikform ist, die auf Gewaltbejahung basiert, also auf der Nutzung von Gewalt als politisches Mittel, als Mittel zur Lösung politischer Konflikte. Das kann physische Gewalt sein, z. B. Deportation, Ermordungen oder Schlägereien auf der Straße. Eine viel größere Rolle noch spielt aber symbolische Gewalt, also Gewalt, die sprachlich oder zum Beispiel im Internet stattfindet, wie Hetzkampagnen, Einschüchterungsversuche, Doxing-Kampagnen, Trollkampagnen.
Das, was man gerade im Zusammenhang mit der Rechtswissenschaftlerin Frauke Brosius-Gersdorf rund um die Wahl zur Richterin am Bundesverfassungsgericht sieht, ist ein Beispiel dafür. Hier wird mittels einer Diffamierungskampagne Politik gemacht, die sich den etablierten parlamentarischen Verfahren, dem Für und Wider von Argumenten und dem Prinzip der Kompromissbildung entzieht und stattdessen auf gewaltvolle Demontage einer Person setzt.
Das zweite Merkmal faschistischer Politik ist, dass sich diese wesentlich gegen den Rechtsstaat wendet. Faschistische Politik will nicht innerhalb des Rechtsstaats und des parlamentarischen demokratischen Systems eine bestimmte Position vertreten, die man innerhalb des Parteienspektrums von links nach rechts einordnen könnte.
Faschistische Politik steht außerhalb dieses Spektrums, indem sie den argumentativen Streit verschiedener parteipolitischer Positionen insgesamt unterminieren möchte. Faschisten wollen politische Fragen nicht durch Überzeugungsarbeit, Kompromissfindung, oder Interessenausgleich lösen, sondern sie wollen genau dieses System der gewaltfreien Entscheidungsfindung aushebeln. Faschismus ist eine destruktive, anti-deliberative und anti-intellektuelle Kraft.
Das dritte zentrale Merkmal, welches mich auch zum Schreiben dieses Buches motiviert hat, ist, dass Faschismus historisch wie in der Gegenwart durch eine ganz besondere Relation zur Technologie geprägt ist: Faschismus vergöttert modernste Technologie und möchte sie sich als Machtinstrument, also als politisches Instrument, zur Verstärkung seines destruktiven politischen Agierens aneignen. Das sehen wir gerade in den USA sehr gut, durch die Zusammenarbeit von Tech-Industrie und den Alt-Right-Eliten. Wir haben das historisch im Nazi-Deutschland auch gesehen.
Die Fragen waren mir wichtig, es geht ja immer um die Entwicklung der KI, hin zur AGI, der Künstlichen Allgemeinen Intelligenz, die vermeintlich dem Menschen überlegen ist, die von Menschen nicht mehr beherrscht werden kann und am Ende die Menschheit beherrscht. Ist diese wirklich erwartbar, oder nur ein Mittel um die aktuellen KI-Modelle, sozusagen „im vorauseilenden Gehorsam“, überall einzusetzen?
Zunächst: die Idee einer „allgemeinen künstlichen Intelligenz“, also einer „Superintelligenz“, die in allen Bereichen den Menschen übertrifft, ist schon relativ alt. Sie zirkulierte seit den 1950er Jahren immer dann gesellschaftlich und wurde durch KI-Forscher:innen und Industrielle immer wieder dann besonders gepusht, wenn bei KI-Technologie neue Durchbrüche errungen wurden.
Allerdings: Das Ziel, eine AGI zu entwickeln, wurde noch nie erreicht und es ist auch wissenschaftlich nicht bewiesen, dass es AGI jemals geben kann. Da gibt es auch gravierende philosophische Einwände, ob das überhaupt möglich ist. Dennoch, wenn man KI-Wissenschaftler:innen oder Industrieakteure fragt, wann AGI kommen würde, dann glauben viele daran, dass das in 20 bis 30 Jahren der Fall sein werde.
Es gibt eine interessante Studie, die zeigt, dass das auch schon 1950 so war. Also wenn man in den 1950ern KI-Wissenschaftler:innen gefragt hat, wann es denn AGI gebe, haben die im Durchschnitt gesagt, in 20 bis 30 Jahren. Ebenso in den 1970er Jahren. Das heißt, diese Vision der Superintelligenz ist wie die Karotte, die stets im gleichen Abstand von 20 bis 30 Jahren vor dem Kopf des Esels hängt und dessen Motivation bildet, warum er weitermachen müsse, ganz dringend und ungebremst.
Nur dass, um im Bild zu bleiben, sich dieser Esel die Karotte möglicherweise einfach nur einbildet. Er macht uns aber alle glauben, dass wir nur noch 20 Jahre davon entfernt seien, einen für die Welt, ja für das Universum vermeintlich disruptiven Schritt zu erreichen.
Das erstmal, um zu erläutern, warum AGI ein zentraler Teil von KI-Ideologien ist. Das Entscheidende ist nun: Auch wenn sie sich als eine Zukunftsvision verkauft, geht es bei der Vision einer AGI eigentlich nicht um die Zukunft, sondern um eine politische Wirkung in der Gegenwart. In dem Buch mache ich die These, dass diese Vision aufrechterhalten wird, um in der Gegenwart damit Politik zu machen.
Es handelt sich dabei natürlich um eine Politik, die sagt: Wir dürfen die KI-Entwicklung nicht bremsen, zum Beispiel, indem wir sie regulieren. Stattdessen, so die Forderung, müssen wir der Industrie möglichst freie Hand lassen und sie am besten sogar großzügig finanzieren – damit nicht die Chinesen zuerst AGI entwickeln, so heißt es dann oft.
Sie haben gerade den Begriff „disruptiv“ verwendet, der ist heute ein Schlagwort geworden. Wissen denn die meisten Menschen, Ihrer Meinung nach, wovon sie reden, wenn sie von Disruption sprechen? Was soll denn zerstört werden?
Ich denke mal, dass das Verständnis, was da eigentlich zugrunde liegt, kein besonders charmantes ist. „Disruption“ bedeutet doch letztlich, dass die bestehenden Verhältnisse zersprengt werden sollen, damit mächtige Player in der dadurch entstehenden Situation der Ungewissheit und des Chaos noch mehr Macht an sich reißen können. Das ist aus meiner Sicht das, was eigentlich hinter „Disruption“ steht. Eigentlich sollte das ein Wort sein, welches gesellschaftlich als ein Unwort gilt, denn mit Disruption werden immer nur die ohnehin schon mächtigen noch mehr Macht an sich reißen.
Das ist aber interessanterweise nicht das allgemeine Verständnis, sondern auf einer ideologischen Ebene wird bei uns die öffentliche Meinung produziert, dass unsere Verhältnisse irgendwie im Stillstand seien oder in der Sackgasse stecken würden und wir deswegen irgendeine nicht inkrementelle, sondern eben disruptive Kraft bräuchten, die das erstmal alles zerschlägt, um dann aus den Scherben etwas Effizientes, Besseres aufbauen zu können. Man schafft es offenbar, den Diskurs so zu framen, dass das als eine positive Vision erscheint.
Sie führen im Buch mehrere utopisch wirkende, Gesellschaftsvisionen der Tech-Ideologen auf, beispielsweise Transhumanismus, Cyberlibertarismus und Dark Enlightenment (Dunkle Aufklärung). Abgesehen davon, dass diese die Ideologie ihrer Apologeten widerspiegeln, ist eine solche Entwicklung überhaupt glaubhaft, oder ist das nur die Schaffung eines ideologischen Überbaus?
Ich sehe darin in erster Linie die Schaffung eines Weltbildes, welches es den Anhängern erlaubt, im Glauben, das Richtige zu tun und bloß Technik zu erfinden, also sozusagen etwas Neutrales zu tun, eigentlich politisch zu agieren. Und zwar politisch auf eine Weise, die in dem Fall antidemokratisch und illiberal ist. Also gegen Gleichheit und Demokratie vorgeht. In diesem Sinne handelt es sich dabei um eine Ideologie.
In Teil 2 des Gespräches geht es weiter mit der Kategorisierung von Menschen nach Nützlichkeit und was KI mit unseren Fähigkeiten machen könnte.
Empfohlen auf LZ
So können Sie die Berichterstattung der Leipziger Zeitung unterstützen:














Keine Kommentare bisher