Ob im Internet, in Zeitungen oder im Koalitionsvertrag von CDU/CSU und SPD, überall ist das Thema Künstliche Intelligenz (KI) bzw. AI omnipräsent. Es gibt Versprechungen und Bedenken zum Einsatz dieser Technik und die EU hat mit dem AI Act das weltweit erste Gesetz zur Regulierung des Einsatzes von AI beschlossen. Was bringt der AI Act, was bedeutet er für Nutzerinnen und Nutzer? Dieser Frage wollten wir nachgehen.

Tea Mustać und Peter Hense haben sich, in ihrem Buch „AI Act kompakt – Compliance, Management und Use Cases in der Unternehmenspraxis“, mit dem Thema auseinandergesetzt. Bereits in der Einleitung stellen sie fest: „Der AI Act ist handwerklich kein gutes Gesetz. Es wimmelt von Eigentümlichkeiten, sprachlichen Verwirrungen, Wiederholungen, Lücken und Widersprüchen. Aber die großen Linien sind erkennbar.“ 

Buch „AI Act kompakt“ mit Lesezeichen auf Holztisch
„AI Act kompakt“ , Exemplar des Autors mit Memos, Foto: Thomas Köhler

Wir trafen Peter Hense zum Gespräch über das Buch und anderen Fragen zur AI. Der Autor und Peter Hense sind seit der OTMR 2024 per Du, wir haben das im Gespräch beibehalten.

Hallo Peter. Schön, dass es heute geklappt hat. Tea und Du, ihr habt das Buch „AI Act kompakt“ geschrieben und im Titel ist die Rede von der Unternehmenspraxis. Das deutet normalerweise darauf hin, dass es etwas für jedes Unternehmen ist. Beginnen wir aber allgemein mit dem Thema AI. Wie intelligent ist diese? Ihr habt explizit geschrieben: „Autonomie, wie in den Werken der Science-Fiction-Literatur existiert in der technologischen Realität in dieser Form nicht.“

Das habe ich wirklich geschrieben, ja. Da war es heiß, das war im August, ich hatte die Füße in einem Eimer mit kaltem Wasser, und habe zu Hause, unter dem Trommeln meiner Kinder an der Tür, versucht, das sinnvoll zu formulieren.

Ich gehe davon aus, dass Du weiter zu der Aussage stehst, das steht ja jetzt gedruckt im Buch.

Es ist alles noch viel schlimmer. Wir hätten nie gedacht, als wir am Ende so früh dran waren mit dem Erscheinen des Buchs, dass es quasi bis heute keine vergleichbare sinnvolle Erklärung zum AI Act gibt. Das hat viel damit zu tun, dass es eine nicht ganz so leicht zugängliche Materie ist und sehr viel interdisziplinäre Arbeit erfordert. Es gibt natürlich andere Bücher zum AI Act, die sehr juristisch sind und sehr auf den Gesetzeswortlaut und die Herkunft gucken.

Aber zusammenfassend und parallelinenziehend zu sagen, das ergibt Sinn, das ergibt weniger Sinn: Da gibt es echt wenig. Ich bin stolz auf Thea und am Ende auch auf mich, wobei der größere Teil der intellektuellen Arbeit, was die Zusammenhänge im Gesetz angeht, von ihr stammt.

Tea hat auf der OTMR kurz und knackig formuliert: Die Definition von AI ist im AI Act wie die französische Grammatik. Es gibt Regeln, aber zu jeder Regel sieben Ausnahmen.

Das stimmt, das hat sie gesagt. Das haben wir im Buch gar nicht drin stehen.

Ich habe es mir gemerkt. Jetzt habt ihr eine Art von Definition, besser einen Ansatz, für AI die durch den AI Act reguliert werden soll, entwickelt. „Wann immer Sie sich darüber den Kopf zerbrechen müssen, ob Sie es mit einem AI System nach dem AI Act zu tun haben, lautet die Antwort ‚Ja‘.“

Genau, immer wenn Du dir den Kopf zerbrechen musst, ob Du eins hast, hast Du eins. Das habe ich bloß dann doch nicht ganz so flapsig formuliert, sondern noch irgendwie versucht es hochsprachlich zu fassen. Eigentlich ist das umgangssprachlich formuliert viel treffender, so wie Tea sich das ausgedacht hat. Das war relativ früh, wir sind das durchgegangen und da sind wir glaube ich bei einem der ersten Missverständnisse. Die Leute und leider auch der Gesetzgeber oder manche, die am Gesetzgebungsverfahren beteiligt waren, haben gedacht, dass es hier um eine Regulierung von einer besonders hohen Intelligenz geht.

Wenn Leute AI-Act hören, dann denken sie: Vielleicht wird da etwas eingegrenzt damit diese Intelligenz uns nicht übermannt. Nein, das hat damit nichts zu tun die Risiken die von schlechten Systemen ausgehen, von einer schlechten Automatisierung, sind viel größer als von tatsächlich hochwertigen Systemen. Deswegen setzt der AI-Act bei seiner Definition von dem, was zu regulieren ist, ganz unten an und sagt: Praktisch jede Art von Automatisierung ist problematisch, wenn sie in bestimmten Bereichen stattfindet, dann ist sie hohes Risiko.

Das ergibt auch Sinn, denn wenn wir uns am Beispiel Covid vorstellen, wir hätten punktuell in den Krankenhäusern eine Triage gehabt und hätten diese automatisiert mit einer Excel-Liste nur nach Körpergröße gemacht, dann wäre das kein AI-System. Das wäre nicht das, was wir als künstliche Intelligenz bezeichnen, sondern vielleicht einfach eine bescheuerte Sortierformel bei Excel. Aber das Risiko, welches aus dieser Art von Automatisierung kommt, das sind Mängel ,die solche Systeme nicht haben dürfen.

Einfach gesagt, sobald wir der Maschine die Entscheidung überlassen und nicht mehr nachdenken?

Und nicht mehr nachdenken, das ist der Punkt. Deswegen setzt der AI Act ganz unten an und am Ende fällt auch die Excel-Summenformel mit unter den AI Act als AI-System, hat aber natürlich keine Pflichten. Der AI Act setzt ja nur dort an, wo ich gute oder schlechte, dumme oder weniger dumme Systeme in einem Hochrisikokontext einsetze.

Kurz mal abseits von Eurem Buch. Ich habe mir den Koalitionsvertrag angeschaut und da drin taucht 15-mal der Begriff KI auf. Wissen diese Leute eigentlich, was das ist?

Unsere Politik ist eine Geriatrie. Da sind wir alle selber dran schuld, ich kann es auch nicht mehr leiden nur auf Politikerinnen und Politiker abzumeckern. Es haben sich zu wenig Junge bereit erklärt. Es bringt nichts, sich mit Fridays for Future auf die Straße zu stellen, wenn Du dann die echte Politik den alten Säcken und ihren Beraterinnen und Beratern von McKinsey, PwC, KPMG und Co überlässt.

Genauso liest sich dieser Koalitionsvertrag am Ende. Zum Glück wird davon ganz vieles nicht umsetzbar sein, es steht dort einfach nur drin. Der nächste Punkt ist: Zum Glück interessiert sich die Naturwissenschaft, unsere Erde, die Physik, ein bisschen auch die Informatik nicht dafür, was da irgendwo jemand in einen Koalitionsvertrag geschrieben hat.

Wir haben AI, wir haben überall künstliche intelligente Systeme, maschinenintelligente Systeme im Einsatz. Das ist unser Abblendlicht beim Auto, was automatisch bei Sonneneinstrahlung aus und bei fehlender Sonneneinstrahlung angeht. Wir haben am Telefon reihenweise Maschinenintelligenz verbaut. Die gesamte Medizin ist voller Maschinenintelligenz. Und insofern sind wir da schon relativ gut dabei. Was uns häufig aber fehlt und das ist das, was mir immer weh tut, wenn ich an Politik denke, wir denken nicht logisch in Infrastruktur.

Hast Du keine Infrastruktur, wirst Du verlieren. Da kannst Du Dir Mühe geben, wie Du willst. Was früher Öl, Salpeter, Schmierstoffe, Stahl und Eisenbahn waren, das sind heute stabile Rechenzentren, Verbindung von A nach B, Funkverbindung. Und da könnten wir es so viel besser haben. Natürlich brauchen wir weiterhin Eisenbahnlinien, dagegen will ich jetzt gar nichts sagen.

Was wir nicht brauchen, wo wir keine Regulierung und keine zusätzlichen großen Investitionen brauchen, ist der Application Layer. Wenn Du eine geile Infrastruktur hast, kommen Applikationen von selber. Wenn Du bei der Applikationsebene anfängst, etwas wie DE-Mail zu bauen und hast darunter eine Infrastruktur liegen, die nicht funktioniert, dann fliegt das den Leuten um die Ohren.

Zum Thema AI Literacy fand ich bei Euch die Aussage: „Wenn wir daher AI Literacy als rechtliche Verpflichtung betrachten, müssen wir sie in einem breiten Kontext sehen, da es keine einheitliche Lösung für alle gegeben wird. Diese Verpflichtung zieht darauf ab, die Gesamtheit der europäischen Bürgerinnen und Bürger dazu zu bringen, sich kritisch und verantwortungsbewusst mit AI auseinanderzusetzen.“ Sollte das ein Thema für die Politik sein?

Es ist eine Aufgabe jedes Einzelnen, der Teil des Staatskörpers ist, den wir Politea nennen, wenn man es platonisch betrachten möchte. Es gibt diesen englischen Satz: „Drowning in Information, starving for knowledge“, also „Ertrinken in Informationen, hungern nach Wissen“. Und ich glaube, Demokrit hat den auch schon in ähnlicher Form gesagt, „polumathiê noon echein ou didaskei“, also „Vielwisserei lehrt nicht Verstand haben“. Wir haben an der Stelle ein Problem.

Du kannst versuchen noch mehr, wie im Nürnberger Trichter, in die Leute hineinstoßen. Die Aufnahmefähigkeit ist mittlerweile auf 20 Sekunden TikTok Snippets begrenzt, die Dopaminzyklus-Ausnutzung. Wie will man in so einem Umfeld Literacy in irgendeinem Bereich, geschweige denn in einem technologischen Bereich, erreichen? Bedauerlicherweise bleiben die hehren Ziele des Gesetzgebers am Ende an jedem Einzelnen selbst hängen.

Soll sich ein Mensch der AI, ob im privaten oder im geschäftlichen Kontext nutzt, überhaupt mit diesem AI Act beschäftigen? Zum großen Teil geht im Buch um Provider und Deployer, also um die Großen, die Entwickler, Vertreiber, Betreiber. Soll sich jetzt der Handwerksmeister, der ChatGPT für seine Kundenanschreiben benutzt, auch damit beschäftigen?

Der Handwerksmeister, der ChatGPT oder ähnliche Systeme für seine Anschreiben benutzt, oder derjenige der Zeit seines Lebens sich mit einer LRS gehandicapt gefühlt hat, die sollten auch gern große Sprachmodelle nutzen können, um eigene Behördenschreiben oder sonstige Schreiben zu verbessern. Das ist zwar grundsätzlich von der Regulierung umfasst, aber es entstehen keine zusätzlichen Pflichten.

Du sprachst vorhin schon von Hochrisikobereichen, für die der AI Act Regelungen trifft. Was ist darunter zu verstehen?

Das ist tatsächlich was gewesen, wo viel Lobbying gemacht wurde, da kam auch die Zivilgesellschaft zum Zuge. Hochrisikobereiche sind nicht abschließend definiert. Es gibt einen Bereich, der ist überall dort, wo wir schon Produktsicherheitsvorschriften haben. Das heißt überall dort, wo der Gesetzgeber schon in der Vergangenheit gesagt hat: Autos brauchen ein Zulassungsverfahren, Eisenbahnen brauchen ein Zulassungsverfahren, Spielzeuge müssen zugelassen werden, da ansonsten Kleinteile verschluckt werden könnten oder giftige Stoffe austreten können.

Jetzt gibt es wieder eine Rückausnahme, wodurch Autos und Eisenbahnen nicht darunterfallen. Das ist aber eine andere Geschichte, die sind halt so spezifisch reguliert, dass es kein AI-Act braucht. Aber grundsätzlich überall dort, wo ich Maschinensicherheit habe und allgemeine Sicherheitsvorschriften habe. Medizinprodukte fallen rein, die sind immer Hochrisiko, weil der Gesetzgeber das schon früher als hohes Risiko erkannt hat. Die müssen jetzt zusätzlich den AI-Act einhalten.

Dann haben wir eine offene Liste, das ist der Annex 3 zum Artikel 6 mit dem Hochrisikosystem und im Annex 3, da gibt es eine Liste von 8 Ziffern und ein paar Unterpunkte. Da sind so Sachen drin wie biometrische Fernidentifikation.

Aber jetzt mal nur auf die Sachen, die den Menschen im Alltag betreffen. Da ist insbesondere das Thema HR-Management, also alles, was Personalverwaltung betrifft. Von der Schaltung von Stellenanzeigen über Karrierepfade, über die Sortierung von Bewerbungen, Entscheidungen über Beförderung, Qualifikation und so was. Überall dort, wo es um Menschen und ihre Schicksale geht. Dort wird gesagt, das ist ein hohes Risiko. Hier müsst Ihr besonders sorgfältig arbeiten und müsst das auch alles nachweisen, weil ansonsten fliegen Euch diese Systeme um die Ohren.

Jetzt sagen die Leute: Huch, das ist ja alles so schwierig. Die Verpflichtung haben die eigentlich schon. Über Antidiskriminierungsrecht, aus dem Arbeitsrecht allgemein, aus der DSGVO. Das ist eigentlich alles nichts Neues.

Lange Rede kurzer Sinn, was rätst Du als Anwalt dem Normalmenschen, wenn er mit AI umgeht? Nicht alles glauben, was diese sagt?

Das ist eine der Fragen, über die ich jetzt gerade im letzten halben Jahr sehr lange nachgedacht habe. Ich merke, dass man, selbst wenn man mit Fachleuten (also mit Anwälten und Anwältinnen) spricht, dass die genauso vor dem gleichen Problem stehen, weil es so schwierig ist, gegen einen Trend, gegen einen Hype anzukämpfen. Der hat ja auch im Koalitionsvertrag Niederschlag gefunden. Anstatt, dass man kluge Leute fragt. An den Instituten hätte man fragen können, aber das lässt sich nicht so gut verkaufen.

Gerade mit diesem HR-Thema, wo alle sagen, das wäre doch super, das funktioniert doch wunderbar, probiere es an Dir selber aus. Frag diese Systeme, bevor Du andere klassifizierst. Lade ein Bild von Dir hoch und frag: Wer ist das und was kannst Du aus diesem Bild inferieren? Was kannst Du ableiten? Wir haben das gemacht und es war erstaunlich unpräzise. Ein Kollege war sauer, dass er als Mitte 40 eingeschätzt wird, obwohl er Mitte 30 ist.

Lade Deinen eigenen Lebenslauf und zehn Lebensläufe die Du im Internet findest hoch und lass Dich einsortieren. Das machst Du drei, vier, fünfmal hintereinander, immer wieder iterativ, um zu verstehen, dass das nichtdeterministische Systeme sind, weil bei fünf hintereinander folgenden Abfragen immer fünf unterschiedliche Ergebnisse herauskommen. Dann verstehst Du vielleicht, warum das ein Problem ist.

Zum Schluss nochmal zu Eurem Buch, damit habt ihr wohl einen Nerv bei den Fachleuten getroffen. Du bist demnächst mit Thea dazu in London und Tea geht dann auf, ich würde fast sagen, Welttour.

Ab dem Sommer ist Tea in den USA, die ist dann weg. Wir haben Glück gehabt, Spaß dran und erstaunlicherweise ist das auch eine Motivation, wenn Du Dich mit einem Thema beschäftigst. Egal, wie nah oder wie fern das von Deiner Alltagsarbeit ist, Du kannst Dich einlesen und einarbeiten. Es hat mich zwei, drei Monate gekostet, um die Themen, ich fand den Hype auch ganz toll, einigermaßen zu verstehen.

Also, wie das Zeug funktioniert und Annahmen für mich selbst zu formulieren, die bis heute nicht widerlegt sind. Es ist keine höhere Mathematik, es ist überhaupt nicht so kompliziert: Schlag die AI mit ihren eigenen Methoden, lass Dir Schritt für Schritt immer alles von ChatGPT erklären, frag alles fünfmal nach. Dann kriegst Du fünf unterschiedliche Antworten. Das kann im Kern helfen und dann bilde Dir Deine eigene Meinung. Also wie Brecht beim lernenden Arbeiter: Es ist nicht zu ersetzen, sich selbst mit Themen zu beschäftigen.

Peter, ich danke Dir für das Gespräch.

Das Gespräch wurde gekürzt wiedergegeben.

Empfohlen auf LZ

So können Sie die Berichterstattung der Leipziger Zeitung unterstützen:

Keine Kommentare bisher

Schreiben Sie einen Kommentar