Ihre
Suche

    10.11.2025

    KI-Agent im öffentlichen Sektor: Ein Kompass für die rechtlichen Herausforderungen


    Die digitale Transformation der öffentlichen Verwaltung hat eine neue Stufe erreicht. Nach der Einführung von E-Akten und digitalen Fachverfahren steht nun der Einsatz von Künstlicher Intelligenz (KI) im Fokus. Eine besonders vielversprechende, aber auch herausfordernde Entwicklung ist der sogenannte „KI-Agent“. Diese autonomen KI-Systeme versprechen, die Effizienz und Effektivität des Verwaltungshandelns radikal zu verbessern. Doch ihr Einsatz wirft komplexe rechtliche Fragen auf, die einer sorgfältigen Analyse bedürfen, um das Vertrauen der Bürger in den Rechtsstaat zu wahren und die Funktionsfähigkeit der Verwaltung langfristig zu sichern.

    In diesem Beitrag beleuchten wir die spezifischen rechtlichen Herausforderungen, die der Einsatz eines KI-Agenten im öffentlichen Sektor mit sich bringt. Wir erklären, was ein KI-Agent ist, welche rechtlichen Rahmenbedingungen insbesondere durch die EU KI-VO geschaffen werden und welche zentralen Fragen sich in Bezug auf Haftung, Datenschutz und Grundrechte stellen. Abschließend geben wir konkrete Handlungsempfehlungen für Entscheidungsträger in der öffentlichen Verwaltung.

    Was sind KI-Agenten?

    KI-Agenten, oder „Agentic AI“, bezeichnet eine fortschrittliche Form der künstlichen Intelligenz, die in der Lage ist, autonom und proaktiv zu handeln, um vordefinierte Ziele zu erreichen. Im Gegensatz zu herkömmlichen KI-Systemen, die auf spezifische Anweisungen reagieren, können agentische Systeme eigenständig komplexe, mehrstufige Aufgaben planen, Entscheidungen treffen und Aktionen ausführen. Sie können mit externen Datenquellen und Werkzeugen interagieren, Informationen aus dem Internet abrufen, Datenbanken abfragen und sogar andere Software oder Systeme steuern.

    Ein einfaches Beispiel zur Veranschaulichung: Während eine generative KI wie ChatGPT einen Text über die Voraussetzungen für eine Baugenehmigung erstellen kann, könnte ein KI-Agent den gesamten Prozess autonom begleiten. Er könnte den Antragsteller durch die erforderlichen Schritte führen, die notwendigen Dokumente anfordern, die Vollständigkeit prüfen, die relevanten rechtlichen Vorschriften aus einer Datenbank abrufen, den Antrag an die zuständige Abteilung weiterleiten und den Status des Verfahrens überwachen.

    Die Kernmerkmale vom KI-Agenten sind:

    MerkmalBeschreibung
    AutonomieHandelt unabhängig und ohne ständige menschliche Überwachung.
    ProaktivitätErgreift von sich aus die Initiative, um Ziele zu erreichen.
    AnpassungsfähigkeitLernt ggf. aus Erfahrungen und passt ihr Verhalten an neue Situationen an.
    ZielorientierungVerfolgt übergeordnete Ziele und bricht diese in kleinere, ausführbare Schritte herunter.
    InteraktivitätKommuniziert mit Nutzern und interagiert mit anderen Systemen und Datenquellen.


    Für den öffentlichen Sektor liegt das Potenzial auf der Hand: Angesichts des demografischen Wandels und des zunehmenden Fachkräftemangels kann ein KI-Agent dazu beitragen, Routineaufgaben zu automatisieren, komplexe Verfahren zu beschleunigen und die Qualität von Verwaltungsentscheidungen zu verbessern. Doch diese Autonomie und Proaktivität sind zugleich die Quelle der größten rechtlichen Herausforderungen.

    Der rechtliche Rahmen: Die EU KI-VO

    Die am 1. August 2024 in Kraft getretene EU KI-VO ist der weltweit erste umfassende Rechtsrahmen für künstliche Intelligenz. Er verfolgt einen risikobasierten Ansatz und ist für den öffentlichen Sektor von besonderer Bedeutung, da viele der als „hochriskant“ eingestuften KI-Systeme in den Bereich des Verwaltungshandelns fallen.

    Hochrisiko-Systeme im öffentlichen Sektor

    Die KI-VO stuft KI-Systeme in vier Risikoklassen ein: inakzeptabel, hoch, begrenzt und minimal. Für den öffentlichen Sektor sind insbesondere die Hochrisiko-Systeme relevant, die in Anhang III der KI-VO aufgeführt sind. Dazu gehören unter anderem KI-Systeme in den Bereichen:

    • Biometrische Identifizierung
    • Kritische Infrastrukturen
    • Bildung und berufliche Bildung
    • Beschäftigung und Personalauswahl
    • Zugang zu wesentlichen öffentlichen und privaten Dienstleistungen (z.B. Sozialleistungen, Kreditvergabe)
    • Strafverfolgung, Migration und Justiz

    Der Einsatz solcher Systeme unterliegt strengen Anforderungen, darunter die Einrichtung eines Qualitätsmanagementsystems, die Erstellung einer umfassenden technischen Dokumentation und die Durchführung einer Konformitätsbewertung.

    Die Grundrechte-Folgenabschätzung (FRIA)

    Eine der zentralen neuen Pflichten für den öffentlichen Sektor ist die Grundrechte-Folgenabschätzung (Fundamental Rights Impact Assessment, FRIA) gemäß Art. 27 KI-VO. Einrichtungen des öffentlichen Rechts (sowie private Einrichtungen, die öffentliche Dienstleistungen erbringen) müssen vor dem Einsatz eines Hochrisiko-KI-Systems eine solche Folgenabschätzung durchführen. Ziel ist es, die potenziellen Auswirkungen des Systems auf die Grundrechte der betroffenen Personen zu bewerten und Maßnahmen zur Risikominderung zu ergreifen.

    Die FRIA muss unter anderem folgende Aspekte beleuchten:

    • Die Verfahren, in denen das System eingesetzt wird
    • Die betroffenen Personengruppen
    • Die spezifischen Risiken für die Grundrechte (z.B. Diskriminierung, Verletzung der Privatsphäre)
    • Die geplanten Maßnahmen zur Risikobewältigung, einschließlich Regelungen zur menschlichen Aufsicht und zu Beschwerdeverfahren

    Die Ergebnisse der FRIA müssen der zuständigen Marktüberwachungsbehörde vorgelegt werden. Dies schafft Transparenz und ermöglicht eine externe Kontrolle.

    Zentrale Rechtsfragen beim Einsatz von KI-Agenten

    Über die Vorgaben der KI-VO hinaus wirft der Einsatz von KI-Agenten spezifische Rechtsfragen auf, die sich aus der Autonomie dieser Systeme ergeben. Natürlich müssen diese im Einzelfall bezogen auf den spezifischen Verwendungszweck geprüft werden – nachfolgend aber ein erster Überblick dazu, welche Aspekte eine wichtige Rolle spielen:

    Ziele, Kontext und Messbarkeit

    Eine grundlegende Voraussetzung für den rechtssicheren Einsatz von KI-Agenten ist, dass das System seine Ziele und Unterziele präzise versteht und deren Erreichung messen kann. Es reicht nicht aus, einer KI das Ziel „Baugenehmigungen effizient bearbeiten“ vorzugeben. Das System muss den gesamten Kontext verstehen:

    • Warum sind diese Ziele wichtig? Geht es um die Beschleunigung von Bauvorhaben, die Entlastung von Mitarbeitern oder die Verbesserung des Bürgerservice?
    • Welche rechtlichen Rahmenbedingungen sind zu beachten? Das System muss die relevanten Baugesetze, Verordnungen und internen Dienstanweisungen kennen und anwenden können.
    • Welche Rechte von Bürgern und Unternehmen müssen beachtet werden? Dazu gehören Verfahrensrechte wie das Recht auf rechtliches Gehör, der Anspruch auf eine begründete Entscheidung und der Schutz personenbezogener Daten.

    Die Definition dieser Ziele und des relevanten Kontexts ist keine rein technische, sondern eine zutiefst juristische und organisatorische Aufgabe. Die Ziele müssen so formuliert werden, dass sie mit den gesetzlichen Vorgaben und den Grundrechten im Einklang stehen. Zudem muss klar definiert sein, wie der Erfolg gemessen wird. Eine reine Fokussierung auf die Bearbeitungszeit könnte beispielsweise zu Lasten der Prüfungsqualität gehen.

    Haftung und Verantwortlichkeit

    Eine der drängendsten Fragen lautet: Wer haftet, wenn eine autonome KI einen Fehler macht? Wenn ein KI-Agent fälschlicherweise eine Sozialleistung verweigert, einen belastenden Verwaltungsakt erlässt oder sensible Daten preisgibt, stellt sich die Frage der Verantwortlichkeit.

    Grundsätzlich gilt: Eine KI hat keine eigene Rechtspersönlichkeit und kann daher nicht selbst haften. Die Verantwortung verbleibt bei den handelnden Personen und Institutionen. In der Regel wird die Verantwortung beim Betreiber des Systems liegen, also bei der jeweiligen Behörde. Diese kann nicht einfach auf den Hersteller (dem "Anbieter" nach KI-VO) des KI-Systems verweisen.

    Es können sich jedoch komplexe Konstellationen einer geteilten Haftung ergeben:

    • Haftung des Herstellers: Wenn der Schaden auf einen Fehler im Systemdesign, fehlerhafte Trainingsdaten oder unzureichende Sicherheitsmaßnahmen zurückzuführen ist, kommt eine Produkthaftung des Herstellers in Betracht.
    • Haftung des Betreibers (Behörde): Die Behörde haftet für eine sorgfältige Auswahl, Implementierung und Überwachung des Systems. Eine Verletzung der Aufsichtspflicht kann eine eigene Haftung begründen.

    Für den öffentlichen Sektor bedeutet dies, dass der gesamte Lebenszyklus eines KI-Systems – von der Beschaffung über die Implementierung bis zum laufenden Betrieb – rechtlich abgesichert werden muss. Dies erfordert klare vertragliche Regelungen mit den Herstellern (z.B. durch die Verwendung von Mustervertragsklauseln wie den MCC-AI), eine umfassende Dokumentation und die Einrichtung effektiver Mechanismen zur menschlichen Aufsicht.

    Datenschutz und Grundrechte

    KI-Agenten-Systeme verarbeiten zwangsläufig eine große Menge an Daten, darunter auch sensible personenbezogene Daten. Die Einhaltung der Datenschutz-Grundverordnung (DSGVO) ist daher von zentraler Bedeutung. Die Autonomie der Systeme erschwert jedoch die Umsetzung von Grundsätzen wie der Datenminimierung und der Zweckbindung.

    Die bereits erwähnte Grundrechte-Folgenabschätzung (FRIA) ist hier ein wichtiges Instrument. Sie weist inhaltliche Parallelen zur Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO auf. In vielen Fällen könnten beide Folgenabschätzungen erforderlich sein. Es ist ratsam, diese Prozesse zu bündeln, um Doppelarbeit zu vermeiden.

    Besondere Aufmerksamkeit erfordert der Schutz vor Diskriminierung. Die den KI-Systemen zugrundeliegenden Modelle lernen aus Daten und können bestehende gesellschaftliche Vorurteile reproduzieren oder sogar verstärken. Der öffentliche Sektor hat hier eine besondere Verantwortung, sicherzustellen, dass KI-Systeme fair und diskriminierungsfrei arbeiten. Dies erfordert eine sorgfältige Auswahl der Trainingsdaten und kontinuierliche Kontrollen im laufenden Betrieb.

    Handlungsempfehlungen für den öffentlichen Sektor

    Aus der Analyse der rechtlichen Rahmenbedingungen und Herausforderungen ergeben sich folgende konkrete Handlungsempfehlungen für den Einsatz von KI-Agenten im öffentlichen Sektor:

    1. Schaffung von rechtlicher und technischer Expertise: Der Aufbau von interdisziplinären Teams aus Juristen, IT-Experten und Verwaltungsfachleuten ist unerlässlich, um die komplexen Fragestellungen zu bewältigen.
    2. Sorgfältige Planung und Zieldefinition: Vor dem Einsatz von KI-Agenten müssen die Ziele, der Kontext und die Erfolgskriterien klar und rechtssicher definiert werden. Dies ist eine Führungsaufgabe, die nicht an die IT-Abteilung delegiert werden kann.
    3. Durchführung von Folgenabschätzungen: Die Grundrechte- und Datenschutz-Folgenabschätzungen sind nicht nur eine gesetzliche Pflicht, sondern ein zentrales Instrument zur Risikosteuerung. Sie sollten frühzeitig und sorgfältig durchgeführt werden.
    4. Etablierung einer robusten Governance: Es müssen klare Verantwortlichkeiten und Prozesse für den gesamten Lebenszyklus des KI-Systems etabliert werden. Dazu gehören Regelungen zur menschlichen Aufsicht, zu Beschwerdeverfahren und zur regelmäßigen Überprüfung des Systems.
    5. Rechtssichere Beschaffung: Die Komplexität der KI-Beschaffung erfordert eine sorgfältige Vertragsgestaltung. Die Verwendung von Mustervertragsklauseln (MCC-AI) kann hier eine wertvolle Unterstützung sein.
    6. Nutzung von KI Sandboxes: Die ab 2026 verpflichtenden nationalen KI-Sandboxes bieten eine hervorragende Möglichkeit, neue KI-Systeme in einer kontrollierten Umgebung zu testen und Erfahrungen zu sammeln, bevor sie im Echtbetrieb eingesetzt werden.

    Fazit

    KI-Agenten haben das Potenzial, die öffentliche Verwaltung grundlegend zu verändern und zu verbessern. Doch der Weg dorthin ist mit erheblichen rechtlichen Herausforderungen gepflastert. Ein rein technikgetriebener Ansatz wird scheitern. Der Erfolg hängt davon ab, ob es gelingt, die technologischen Möglichkeiten mit den rechtsstaatlichen Anforderungen in Einklang zu bringen.

    Die EU KI-VO gibt hierfür einen klaren Rahmen vor, doch die konkrete Ausgestaltung im Einzelfall bleibt eine anspruchsvolle Aufgabe. Für den öffentlichen Sektor ist es nun an der Zeit, sich proaktiv mit diesen Fragen auseinanderzusetzen, die notwendige Expertise aufzubauen und eine klare Strategie für den verantwortungsvollen Einsatz von künstlicher Intelligenz zu entwickeln. Nur so kann sichergestellt werden, dass KI-Agenten zu einem Werkzeug werden, das dem Bürger dient und den Rechtsstaat stärkt.

    Dennis Hillemann
    Johannes Voß-Lünemann

    ADVANT Beiten berät ProMach beim Erwerb der DFT Technology GmbH
    Düsseldorf, 8. Dezember 2025 – Die internationale Wirtschaftskanzlei ADVANT Beit…
    Weiterlesen
    ADVANT Beiten wählt insgesamt 16 neue Partner, darunter sechs Local Partner und ein Equity Partner
    Frankfurt, 17. November 2025 – Die internationale Wirtschaftskanzlei ADVANT Beit…
    Weiterlesen
    Auch das OVG Sachsen-Anhalt stuft das Freefloating-Modell bei E-Scootern als straßenrechtliche Sondernutzung ein!
    In seiner Entscheidung vom 15. September 2025 hat sich jüngst der 2. Senat des O…
    Weiterlesen
    Erfolg für die Bundesrepublik Deutschland: EuGH hebt Entscheidung der ACER zur Stromkapazitätsberechnung auf
    Brüssel, 2. Oktober 2025 – Die internationale Wirtschaftskanzlei ADVANT Beiten h…
    Weiterlesen
    KI transformiert die Datenverarbeitung für mehr Effizienz: Warum der deutsche öffentliche Sektor umdenken muss
    Die Künstliche Intelligenz (KI) revolutioniert gegenwärtig die Art und Weise, wi…
    Weiterlesen
    VG Leipzig: Sondernutzungsgebühren für neue Mobilitätsformen müssen angemessen sein!
    In einer aktuellen Entscheidung (Urt. v. 12.2.2025 – 1 K 2286/24) hat sich das V…
    Weiterlesen
    Berufung zurückgewiesen: ADVANT Beiten gewinnt für die Bundesrepublik Deutschland vor dem OLG Düsseldorf im Streit um das stillgelegte Kernkraftwerk in Hamm-Uentrop
    Berlin/München, 13. Juni 2025 – Die internationale Wirtschaftskanzlei ADVANT Bei…
    Weiterlesen
    Reform des Vergaberechts und die Modernisierung der Infrastruktur
    Wesentliches Ziel der neuen Bundesregierung ist die Modernisierung der deutschen…
    Weiterlesen
    ADVANT Beiten berät CATL als German Legal Counsel bei Börsengang in Hongkong
    Berlin/München, 20. Mai 2025 – Die internationale Wirtschaftskanzlei ADVANT Beit…
    Weiterlesen