Der Zug hat den Bahnhof verlassen (und wir suchen noch den Fahrplan)
Es gibt Rechtsgebiete, die entwickeln sich langsam. Und dann gibt es solche, die einem das Gefühl geben, man renne ihnen hinterher wie einem Zug, der den Bahnhof längst verlassen hat – während man selbst noch am Fahrkartenautomaten steht und verzweifelt „Bitte wählen Sie eine Option“ liest. Das Recht der Künstlichen Intelligenz gehört eindeutig zur zweiten Kategorie und genau hier stehen Themen wie AI act und DSGVO und Probleme der AI im Fokus.
Während Juristen noch eifrig darüber diskutieren, ob ein Algorithmus überhaupt „verstehen“ kann, was er tut (Spoiler: Der Algorithmus diskutiert nicht zurück), hat die Praxis längst Fakten geschaffen: Bewerbungen werden automatisiert vorsortiert, Kreditentscheidungen algorithmisch vorbereitet und Texte von Maschinen verfasst, die sich kaum noch von menschlichen unterscheiden – was gelegentlich auch daran liegt, dass manche menschlichen Texte sich kaum noch von Maschinen unterscheiden.
Der Gesetzgeber hat darauf, na sagen wir mal, reagiert – mit dem viel diskutierten europäischen AI Act. Doch wer glaubt, damit sei nun Klarheit geschaffen, glaubt vermutlich auch, dass Bedienungsanleitungen freiwillig gelesen werden.
Ordnung durch Kategorien – oder: Willkommen im regulatorischen Escape Room
Der AI Act ist ein typisches Produkt europäischer Regulierung: ambitioniert, systematisch, risikobasiert – und ungefähr so leicht zugänglich wie ein Möbelaufbau ohne Anleitung, aber mit sehr vielen Schrauben.
Er teilt KI-Systeme in Kategorien ein – von „inakzeptabel“ bis „geringes Risiko“. Was auf den ersten Blick nach Ordnung aussieht, entpuppt sich bei näherem Hinsehen als eine Art juristischer Escape Room: Man ist sich sicher, dass es irgendwo eine Lösung gibt, aber der Weg dahin ist… nun ja… kreativ.
Denn das zentrale Problem beginnt bereits bei der Einordnung: Wann genau liegt ein „Hochrisikosystem“ vor? Die Antwort ist keineswegs trivial. Ein KI-System im Personalbereich kann hochriskant sein – muss es aber nicht. Es kommt darauf an. Worauf genau, wird man im Zweifel herausfinden, wenn es zu spät ist.
Für Unternehmen bedeutet das: Sie müssen nicht nur ihre Systeme kennen, sondern auch deren rechtliche Einordnung antizipieren. Also im Grunde hellsehen. Und das in einem Umfeld, das sich technologisch schneller verändert als jede Norm – was für Juristen ungefähr so komfortabel ist wie ein bewegliches Ziel beim Dartspielen.
Statisches Recht trifft dynamische Technologie (Spoiler: Das wird holprig)
Hinzu kommt ein strukturelles Problem: Das Recht arbeitet mit klaren Kategorien, die Technik mit fließenden Übergängen. Juristen lieben Schubladen. Technik hingegen ist eher so der Typ „offenes Loft ohne Wände“.
Ein System, das heute nur unterstützt, kann morgen eigenständig entscheiden. Ein Chatbot, der gestern als harmloses Kommunikationsmittel galt, wird heute zur potenziellen Quelle von Fehlinformationen – oder zumindest von erstaunlich selbstbewussten Halbwahrheiten.
Der AI Act versucht, diese Dynamik einzufangen – doch er bleibt dabei zwangsläufig statisch. Man könnte auch sagen: Er versucht, ein Video mit einem Standbild zu regulieren.
Haftung im Schatten der Autonomie (oder: Wer war’s?)
Besonders spannend wird es dort, wo das KI-Recht auf klassische Rechtsgebiete trifft. Etwa im Haftungsrecht. Wer haftet, wenn ein KI-System eine fehlerhafte Entscheidung trifft?
Der Entwickler?
Der Betreiber?
Der Nutzer?
Oder – ganz revolutionär – vielleicht doch niemand so richtig?
Die bisherigen Antworten sind, höflich formuliert, ausbaufähig. Das Deliktsrecht kennt keine „digitale Eigenverantwortung“. Es knüpft an menschliches Verhalten an – Vorsatz, Fahrlässigkeit, Organisationsverschulden. Also Dinge, die man notfalls noch jemandem vorwerfen kann.
Doch KI-Systeme entziehen sich dieser Logik. Sie lernen, sie entwickeln sich weiter und sie verhalten sich in gewisser Weise „autonom“. Das führt zu einer paradoxen Situation: Je intelligenter das System, desto schwieriger wird es, jemanden verantwortlich zu machen. Fortschritt hat eben auch seine ganz eigenen Nebenwirkungen.
Der AI Act versucht, das Problem präventiv zu lösen – durch Dokumentationspflichten, Transparenzanforderungen und Risikomanagement. Das ist sinnvoll. Und gleichzeitig ungefähr so beruhigend wie ein sehr gut geführtes Protokoll eines Unfalls, den man gerade nicht verhindern konnte.
Denn Haftung ist – wie so oft – reaktiv. Sie greift erst, wenn etwas schiefgelaufen ist. Und genau dann zeigt sich, ob die schönen Strukturen auch mehr sind als gut gemeinte PowerPoint-Folien.
DSGVO vs. AI Act – wenn zwei Regelwerke sich höflich im Weg stehen
Ein weiteres Spannungsfeld eröffnet sich im Verhältnis zum Datenschutzrecht. Die DSGVO war lange das zentrale Regelwerk für den Umgang mit Daten – und damit auch für viele KI-Anwendungen. Nun tritt mit dem AI Act ein weiteres Regime hinzu.
Das Ergebnis ist kein harmonisches Zusammenspiel, sondern eher ein höfliches Aneinandervorbeireden auf regulatorischem Niveau. Während die DSGVO auf individuelle Rechte fokussiert ist, denkt der AI Act stärker in Systemrisiken.
Für Unternehmen bedeutet das doppelte Prüfprogramme, potenziell widersprüchliche Anforderungen und eine erhebliche Rechtsunsicherheit. Oder anders gesagt: mehr Compliance, mehr Meetings und mehr Gründe, warum Projekte „leider noch nicht ganz freigegeben werden können“.
Regulierung als Innovationsbremse? (oder als Fitnessprogramm)
Und dann ist da noch die vielleicht grundlegendste Frage: Wie viel Regulierung verträgt Innovation?
Europa hat sich bewusst für einen regulativen Ansatz entschieden. Vorsorge statt Versuch und Irrtum. Das ist politisch nachvollziehbar – schließlich geht es um Grundrechte, Diskriminierungsschutz und gesellschaftliche Risiken. Also um die kleinen Dinge.
Doch Regulierung kostet. Nicht nur Geld, sondern auch Zeit, Nerven und gelegentlich den letzten Funken Experimentierfreude. Gerade kleinere Unternehmen könnten Schwierigkeiten haben, die komplexen Anforderungen zu erfüllen.
Die Folge könnte eine Marktverschiebung sein – hin zu großen Playern, die über die nötigen Ressourcen verfügen. Ironischerweise würde ausgerechnet Regulierung, die Fairness schaffen soll, zu einer sehr effizienten Konzentration von Marktmacht führen. Man könnte es auch als unbeabsichtigtes Förderprogramm für Großkonzerne lesen.
Der AI Act als Anfang, nicht als Ende (leider)
Das bedeutet nicht, dass der AI Act ein Fehler ist. Im Gegenteil: Er ist notwendig. Aber er ist eben auch kein Endpunkt, sondern eher der Beginn einer längeren Reise – ohne klare Streckenführung und mit gelegentlichen Baustellen.
Die eigentliche Arbeit beginnt jetzt: in der Anwendung, in der Auslegung, in der gerichtlichen Praxis. Gerichte werden klären müssen, was der Gesetzgeber vielleicht lieber offen gelassen hat. Behörden werden Leitlinien entwickeln. Unternehmen werden Strategien anpassen. Und Juristen werden – wie immer – versuchen, Ordnung in ein System zu bringen, das sich höflich weigert, sich vollständig ordnen zu lassen.
Ein neues Selbstverständnis des Rechts (oder: Willkommen im Neuland)
Vielleicht liegt genau darin die eigentliche Herausforderung des KI-Rechts: Es zwingt uns, die Grenzen des klassischen Rechtsdenkens zu erkennen.
Das Recht war immer darauf ausgelegt, menschliches Verhalten zu steuern. Nun trifft es auf Systeme, die zwar von Menschen geschaffen wurden, sich aber zunehmend eigenständig verhalten. Eine Art rechtliches „Eltern haften für ihre Kinder“ – nur dass die Kinder inzwischen anfangen, eigene Entscheidungen zu treffen. Und ganz ehrlich, manchmal wäre mir lieber eine gefühllose KI würde Entscheidungen treffen ,als ein durchgeknallter Präsident.
Die Frage ist daher nicht nur, wie wir KI regulieren. Sondern auch, wie sich das Recht selbst verändern muss. Und das ist bekanntermaßen eine Disziplin, in der das Recht traditionell eher zurückhaltend ist.
Die richtigen Fragen stellen (Antworten optional)
Bis dahin bleibt der Eindruck, dass der AI Act weniger ein fertiges Regelwerk ist als vielmehr ein juristisches Experiment. Ein Versuch, Struktur in ein Feld zu bringen, das sich jeder endgültigen Ordnung entzieht.
Und vielleicht ist das die ehrlichste Erkenntnis: Dass das Recht der Künstlichen Intelligenz nicht darin besteht, endgültige Antworten zu geben – sondern darin, die richtigen Fragen zu stellen.
Die Antworten kommen dann. Irgendwann. Vielleicht. Oder auch nicht.
Newsletter abonnieren
Sie wollen keine Kolumne mehr verpassen? Dann melden Sie sich zu unserem wöchentlichen Newsletter an und erhalten Sie jeden Freitag einen Überblick über die Kolumnen der Woche.




Ihr Kommentar