Das Gespräch mit Professor Rainer Mühlhoff war etwas länger, deshalb ist der Artikel in zwei Teile geteilt. Zur Erinnerung: Prof. Mühlhoff ist Diplom-Mathematiker und Philosoph, an der Universität Osnabrück lehrt er zum Thema „Ethik der künstlichen Intelligenz“. In der Vergangenheit sammelte er auch Berufserfahrungen als Programmierer und Unternehmensberater.
Mit seinem Buch „Künstliche Intelligenz und der neue Faschismus“ hat er eine ausführliche Analyse der zu erwartenden/befürchtenden gesellschaftlichen Verwerfungen bei einer Machtübernahme durch die Apologeten des Heilsversprechens der KI ausgearbeitet. Im ersten Teil des Gespräches haben wir über einige Begriffe gesprochen und über die kritischen Ideologien, die von Apologeten der KI vertreten werden.
Herr Professor Mühlhoff, KI macht Massendaten kategorisierbar und gibt, im Falle der Large Language Models, sprachlich verständlich Antworten auf gestellte Fragen. Welchen Einfluss haben Intentionen, wie die oben beschriebenen Ideologien, der „Schöpfer“ auf deren KI-Modelle?
Hierzu fallen mit zwei Sachen ein. Das eine ist, man muss sich klarmachen, es gibt kein großes, bedeutsames KI-System auf unserem Erdball, das nicht kommerziell ist. Wir müssen also davon ausgehen, dass zumindest die Art und Weise, wie diese Systeme angeboten werden, profitorientiert ist.
Das heißt nicht automatisch, dass sich das auch auf der Ebene der Ausgaben solcher Systeme niederschlägt, aber mindestens in der Art und Weise wie versucht wird, diese Systeme in unseren Alltag und unsere Lebenswelten einzuklinken und Leute, Arbeitswelten oder soziale Realitäten davon abhängig zu machen oder damit zu infiltrieren. Als kommerzielle Bestrebungen sind KI-Technologien natürlich in erster Linie mit Profitinteressen verschränkt und nicht mit dem Interesse, unsere Welt oder unser Leben besser zu machen.
Zweitens, beim Chatbot Grok von Elon Musks Firma xAI wurde in den letzten Monaten vielfach in den Nachrichten thematisiert, dass dieses Modell ganz klar ideologisch gefärbte Ausgaben produziert. Ausgaben, die sexistisch und rassistisch sind oder Verschwörungsnarrative reproduzieren.
Dieses Beispiel zeigt, dass der ideologische Einfluss sich tatsächlich auch auf der Ebene der Ausgaben solcher Systeme niederschlagen kann und es auch sicherlich regelmäßig tut. Besonders kritisch wird es, wenn dieser Einfluss subtil ist und nicht so leicht entlarvt werden kann, wie es der Fall ist, wen Grok zum Beispiel mal wieder den Holocaust leugnet.
Das Versprechen der KI, besonders beim Einsatz in Verwaltungen, ist das der Effektivität. Heruntergebrochen bedeutet es meist eine Kosten-Nutzen-Rechnung. Momentan gibt es, nicht nur in Deutschland, immer größere Bestrebungen, Register und Listen anzulegen, um Kategorien von Menschen, wie psychisch erkrankte oder Trans-Personen, zu erfassen. Mich erinnert das an den Einsatz der Hollerithmaschinen im Dritten Reich. Ist die Möglichkeit des Einsatzes von KI zur Selektion nach Nützlichkeit eine reale Gefahr?
Das ist eine ganz reale Gefahr. Man muss sich klarmachen, dass KI in der Version, die seit 15 Jahren groß und erfolgreich ist, nichts anderes ist als eine Technologie, die dafür gebaut wird, Vorhersagen über Menschen auszurechnen. Zu diesen Vorhersagen gehört vieles, was wir nicht freiwillig preisgeben würden: Leiden wir an psychischen Krankheiten? Was ist unsere sexuelle Identität? Was sind unsere politischen Interessen? Wie ist unsere Arbeitsmoral?
Das sind alles Sachen, wo Interesse daran besteht, uns nach abgeschätzten Informationen unterschiedlich zu behandeln. Zum Beispiel bei einem Einstellungsverfahren oder beim automatischen Entscheiden über Versicherungsanträge. Wir müssen davon ausgehen, dass auch DOGE in den USA mit solchem Mitteln Deportationslisten, also Listen für zu inhaftierende Personen, erstellt. Gerade die Zusammenführung von Datenbeständen, die aus historisch gewachsenen guten Gründen bei verschiedenen Verwaltungsorganen getrennt gehalten werden, spielt hierbei eine große Rolle.
Auch in Deutschland gibt es seit vielen Jahren den Ruf danach, dass Registerdaten mehr zentralisiert werden sollen und es gibt immer weitere Schritte in diese Richtung. Jede Form von Zentralregister ist aber eine große Gefahr, besonders wenn KI-Technologie bereitsteht, um diese enormen Datensätze dann auszuwerten.
Was macht das mit uns und unseren Fähigkeiten? Im Beitrag bei NDR-Kultur sprechen Sie von de-skilling. Verlieren wir durch die KI und blinde Technikgläubigkeit eventuell nicht nur emotionale Skills, sondern auch technische? Verlernen wir vielleicht das kritische Denken, das Analysieren und Überprüfen, wenn wir der KI und ihren Apologeten kritiklos folgen?
Das ist zumindest eine Gefahr, die viel geäußert wird und die ich auch sehr plausibel finde. Ich glaube nicht, dass man in einen kompletten Technik-Pessimismus abdriften sollte. Ziel des Pessimismus sollten aber die Geschäftsmodell und ökonomischen Machtstrukturen sein, die sich mit moderner Technologie untrennbar verschränken. Man sollte davon ausgehend genau darüber reflektieren: Wie ändert sich das Denken, das Verstehen und auch das kritische Denken durch technische Tools und Medien, durch neue Medien und neue technische Tools?
Die berühmten KI-Ethikerinnen Emily Bender und Timnit Gebru haben es in Bezug auf ChatGPT mal auf die Formel gebracht: ChatGPT ist ein stochastischer Papagei. Eine Maschine, die nachplappert, und zwar das, was stochastisch am wahrscheinlichsten ist. Das heißt, was da als Antworten herauskommt, hat immer eine Konvergenz in Richtung Stereotyp, in Richtung des Erwartbaren oder in Richtung dessen, was wir schon tausendmal gesehen haben.
Ich denke deshalb, dass das, was Large Language Models können, niemals kritisches Denken ist. Ich glaube auch, dass das kulturell irgendwann erkannt wird. Ich glaube nur, dass auf dem Weg dahin viel kaputtgehen kann. Insbesondere, wenn man die Technologie bis dahin vergöttert. Also zum Beispiel so vergöttert, dass man sagt: Wir können jetzt alle Beamten entlassen und Entscheidungen über Sozialhilfe an KI-Systeme delegieren.
Letzte Frage: Ein Resümee, ist KI also nur ein weiteres Werkzeug für uns, oder doch mehr?
Wichtig ist zunächst, KI ist nicht einfach nur eine Technologie, also nicht nur ein technischer Apparat. Sondern KI ist auch ein Hype und eine Ideologie, eine Bereitschaft an die Intelligenzfähigkeit von Maschinen zu glauben. Diese Bereitschaft wird gesellschaftlich gerade sehr gut genährt. KI ist ein Hype in der Form von Investmentkapital, politischem Willen und relativ blindem Gehorsam gegenüber der Industrie, die sogar so etwas wie den Grundrechtsschutz unter das Rad wirft.
Vor diesem Hintergrund ist es eine sehr diffizile Frage: Ist KI-Technologie nun ein Werkzeug oder mehr? Natürlich ist KI erst mal nicht nur ein Werkzeug, denn jede Technologie kreiert auch Zwecke oder Anwendungswelten oder Gewohnheiten. Das muss man anerkennen. Ich glaube aber, dass man ethisch gesprochen KI auf den Werkzeugstatus wieder herunterdrücken muss.
KI-Technologie hat im Besonderen die Eigenschaft, sich immer wieder zu mehr zu machen als nur einem Werkzeug, indem sie sich in allen Lebensbereichen schier aufdrängt, gerade in dieser Hype-Dynamik. Unsere Aufgabe muss darin bestehen, immer wieder zu fragen: Was ist jetzt eigentlich der Zweck, für den wir das verwenden wollen? Ist das ein guter Zweck? Wie können wir diese Apparate auf diesen Zweck begrenzen? Wie können wir diese Technologie wieder auf den Werkzeugstatus herunterdrücken?
Nehmen wir das als Schlusswort. Herr Professor Mühlhoff, ich danke Ihnen für das Gespräch.
Empfohlen auf LZ
So können Sie die Berichterstattung der Leipziger Zeitung unterstützen:












Keine Kommentare bisher