Praxiswissen auf den Punkt gebracht.
logo
  • Meine Produkte
    Bitte melden Sie sich an, um Ihre Produkte zu sehen.
Menu Menu
MyIww MyIww
  • · Fachbeitrag · KI

    Erste Regulierung von künstlicher Intelligenz (KI) ist auf der Zielgeraden: Überblick über den AI Act

    von RA Martin Figatowski, LL.M. (Taxation), GTK Rechtsanwälte, Bonn

    | Der Beitrag informiert über die am 13.3.24 vom EU-Parlament beschlossene VO zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung bestimmter Rechtsakte der Union (= AI Act). |

    1. Ziele des AI Acts

    Der AI Act soll nach Zustimmung des Ministerrats im Mai 24 im EU-Amtsblatt veröffentlicht werden. 20 Tage danach tritt er in Kraft, wobei dessen Vorschriften sukzessive angewendet werden. Die allgemeinen Regelungen, insbesondere die Verpflichtungen für Hochrisiko-Systeme, treten erst nach 24 Monaten in Kraft. Bei dem AI Act handelt es um eine nach Art. 294 AEUV erlassene VO, die unmittelbar geltendes Recht in allen Mitgliedsstaaten ist. Art. 1 des AI Acts sieht als Ziele der VO u. a. vor, dass die Grundrechte, Demokratie, Rechtsstaatlichkeit und ökologische Nachhaltigkeit vor den Risiken von KI geschützt werden sollen. Zugleich soll der AI Act Innovationen in diesem Bereich fördern und die Führungsrolle der EU bei KI stärken. Um dieses Ziel zu erreichen, legt der AI Act Verpflichtungen für KI fest, abhängig von den potenziellen Risiken und Auswirkungen. Besonders sensibel sind u. a. die Regelungen, wenn Strafverfolgungsbehörden biometrische Fernidentifizierungssysteme einsetzen. Diese Ausnahmeregelungen reflektieren das Spannungsfeld zwischen Sicherheitsanforderungen und dem Schutz der Grundrechte.

    2. Wer ist vom AI Act betroffen?

    Der AI Act richtet sich nach Art. 2 unmittelbar an Anbieter (Entwickler) von KI-Systemen oder KI-Modellen mit allgemeinem Verwendungszweck (sog. General Purpose AI, GPAI wie z. B. GPT-4), die in der EU in Verkehr gebracht oder in Betrieb genommen werden. Daneben werden Betreiber (= Nutzer, wie natürliche und juristische Personen und Behörden) adressiert, wenn diese ein KI-System oder ein GPAI eigenverantwortlich beruflich verwenden. Erfasst werden auch Anbieter und Betreiber mit Sitz außerhalb der EU, wenn das vom KI-System oder GPAI hervorgebrachte Ergebnis in der EU verwendet wird. Der AI Act betrifft dagegen keine Endnutzer, die ein KI System sowie ein GPAI privat nutzen. Auch nicht erfasst sind KI-Systeme, die militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit betreffen, unnabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt (iww.de/s11005).

    3. Was ist ein KI-System?

    Ein KI-System ist ein maschinengestütztes System, das für einen in wechselndem Maße autonomen Betrieb ausgelegt ist. Es kann nach seiner Einführung anpassungsfähig sein. Das System kann aus den Eingaben explizite oder implizite Ziele ableiten, wie Ergebnisse, Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen, die physische oder virtuelle Umgebungen beeinflussen können, Art. 3 Ziff. 1 AI Act. Die EU hat damit eine allgemeine und „dynamische” Definition eines KI-Systems geschaffen. Zentrales Merkmal eines KI-Systems ist die Fähigkeit, aus Eingaben Ziele abzuleiten, die über eine bloße Datenverarbeitung hinausgehen (Erwägungsgrund 12 S. 3 AI Act).

     

    Der Ansatz des AI Acts ist risikobasiert, um KI-Systeme zu klassifizieren. Der AI Act stuft das KI-System ein mit einem unannehmbaren Risiko, einem hohen Risiko, einem begrenzten Risiko und einem minimalen Risiko:

     

    a) Unannehmbares Risiko

    Ein unannehmbares Risiko bzw. eine verbotene Praktik nach Art. 5 AI Act liegt u. a. in folgenden Fällen vor: Die KI beeinflusst manipulativ Personen zu Entscheidungen, die sie sonst nicht getroffen hätten; wenn Personen auf Grundlage ihrer biometrischen Daten (Religion, Herkunft, politische Anschauung, sexuelle Ausrichtung etc.) biometrisch kategorisiert werden; wenn Emotionen erkannt werden (z. B. am Arbeitsplatz, in der Schule) oder wenn KI-Systeme verwendet werden, die Datenbanken durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder durch Überwachungskameras erstellen, um Gesichter zu erkennen. Strafverfolgungsbehörden dürfen nur für spezifische Zwecke wie die Suche nach Vermissten oder zur Terrorismusabwehr Personen in Echtzeit aus der Ferne identifizieren, etwa indem Videoaufnahmen mit Datenbanken oder der Gesichtserkennung in öffentlich zugänglichen Räumen abgeglichen werden. Es sind diverse Sicherheitsbestimmungen einzuhalten inklusive zeitlicher und räumlicher Beschränkungen. Es bedarf i. d. R. der vorherigen Genehmigung durch Gerichte. Für die nachträgliche biometrische Fernidentifizierung, z. B. wenn Überwachungsvideos nach einer Straftat ausgewertet werden, gelten noch strengere Vorgaben. Hier ist stets eine gerichtliche Genehmigung erforderlich, die zudem einen konkreten Bezug zu einer Straftat haben muss.

     

    KI-Systeme, um Kriminalitätsrisiken auf Basis von Persönlichkeitsmerkmalen und Verhaltensmustern durch den AI Act zu bewerten und vorherzusagen, sog. „Predictive Policing“-Methoden, um Profile zu erstellen, sind verboten, Art. 5 Abs. 1 d) AI Act.

     

    b) Hochrisiko-Systeme, Art. 6 ‒ 28 AI Act

    Nach Art. 6 Abs. 2 i. V. m. Anhang III AI Act. gilt als „Hochrisiko“ der Einsatz von KI-Systemen in sicherheitskritischen Bereichen wie kritischer Infrastruktur (z. B. im Straßenverkehr), Bildung (u. a. bei der Überprüfung von Lernergebnissen), Beschäftigung (wie z. B. bei personalisierten Stellenanzeigen), Gesundheitswesen (u. a. Auswertung von Gesundheitsdaten), Versicherungswesen (z. B. bei der Risikobewertung von Versicherungsnehmern) sowie bestimmten Anwendungen im Strafverfolgungs- und Justizbereich.

     

    Wird ein KI-System als hochriskant eingestuft, müssen Betreiber Sorgfaltspflichten erfüllen wie Risikomanagement, Dokumentation, Transparenzanforderungen, Beaufsichtigung durch Menschen etc. Konkret müssen Betreiber u. a. durch technische und organisatorische Maßnahmen Folgendes sicherstellen: Wenn die KI angewendet wird, muss die Gebrauchsanweisung des Anbieters beachtet werden. Ferner müssen natürliche Personen das Hochrisiko-System beaufsichtigen, die entsprechend geschult sind (Stichwort: „AI Literacy“, Art. 26 Abs. 2 AI Act).

     

    Werden KI-Systeme mit hohem Risiko am Arbeitsplatz eingesetzt, müssen die Arbeitnehmer und der Betriebsrat vorab informiert werden, Art. 26 Abs. 7 AI Act. Natürliche Personen sind stets zu informieren, wenn Hochrisiko-Systeme die natürliche Person betreffende Entscheidungen treffen oder bei solchen Entscheidung unterstützen, Art. 26 Abs. 11 AI Act.

     

    Ein KI-System gilt nicht als hochriskant, wenn kein erhebliches Risiko vorliegt, dass die Gesundheit, die Sicherheit oder Grundrechte von natürlichen Personen beeinträchtigt werden, indem es u. a. nicht das Ergebnis der Entscheidungsfindung beeinflusst, z. B. weil das KI-System nur dazu bestimmt ist, eine vorbereitende Aufgabe für eine Bewertung durchzuführen. Allerdings gilt ein KI-System immer als hochriskant, wenn es ein Profiling natürlicher Personen vornimmt, Art. 6 Abs. 3 S. 3 AI Act).

     

    Gem. Erwägungsgrund 59 des AI Acts sollen KI-Systeme, die speziell für Verwaltungsverfahren in Steuer- und Zollbehörden bestimmt sind, nicht als Hochrisiko-Systeme eingestuft werden. Wie dies umgesetzt wird, bleibt abzuwarten.

     

    c) Beschränktes Risiko

    Liegt nur ein beschränktes Risiko des KI-Systems vor, sind lediglich die Transparenzpflichten nach Art. 50 AI Act zu beachten. Dazu zählt, dass natürliche Personen vor der direkten Interaktion mit dem KI-System entsprechend zu informieren sind, dass es sich um ein KI-System handelt. Dies gilt nicht, sofern es nicht bereits offensichtlich ist, dass es sich um ein KI-System handelt (wie z. B. beim Einsatz eines Chatbots).

     

    Bei Deepfakes (= täuschend echt wirkende und mittels KI erstellte Bilder) muss offengelegt werden, dass die Inhalte künstlich erstellt oder manipuliert wurden, Art. 50 Abs. 4 AI Act. Dies gilt nicht, wenn es zulässig ist, Deepfakes zu verwenden, um Straftaten aufzudecken, zu verhüten, zu ermitteln oder zu verfolgen. Zwar ist nachzuvollziehen, dass Transparenzpflichten in dem Bereich die Arbeit von Ermittlungsbehörden ad absurdum führen würden. Im Hinblick auf die hohe Missbrauchsgefahr bleibt aber zu hoffen, dass die Ermittlungsbehörden Deepfakes “mit Augenmaß” einsetzen werden. Ferner muss bei künstlich erstellten Texten, die veröffentlicht werden, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, dies vorher offengelegt werden. Dies gilt nicht, wenn die mittels KI erzeugten Texte redaktionell geprüft wurden.

     

    d) Minimales Risiko

    Betreiber von KI-Systemen mit minimalem Risiko müssen keine besonderen Sorgfaltspflichten nach dem AI Act erfüllen. KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI, GPAI, Art. 3 Ziff. 63 AI) sind allgemein verwendbar und in der Lage, unabhängig von der Art und Weise ihres Inverkehrbringens ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Insoweit geltend besondere Vorschriften für Anbieter von GPAI, die der VO-Geber in einem eigenen Abschnitt geregelt hat, Art. 51 bis 56 AI Act. Entscheidend bei den GPAI für den Grad der Regulierung und damit für den Umfang der Sorgfaltspflicht ist, ob das KI-Modell einen hohen Wirkungsgrad hat, Art. 51 ff. AI Act. Ein hoher Wirkungsgrad und damit ein systemisches Risiko wird bei einem GPAI nach Art. 51 Abs. 2 AI Act (widerlegbar) vermutet, wenn die kumulierte Menge der für sein Training verwendeten Berechnungen mehr als 10°25 FLOPs (Floating Points Operations, Gleitkommaoperationen, zur Definition Erwägungsgrund 67 AI Act) beträgt. Dies dürfte derzeit nur bei GPT-4 und Gemini von Google der Fall sein. Nach Art. 51 ff. AI Act gelten derzeit für Betreiber von GPAI mit einem hohen Wirkungsgrad (z. B. einen Anwalt, der GPT-4 für seinen Schriftsatz nutzt) keine besonderen Sorgfaltspflichten. Es verbleiben aber die allgemeinen Transparenzpflichten nach Art. 50 AI Act, deren Umfang sich nach der Verwendung des GPAI im Einzelfall richtet.

    4. Sanktionen

    Bei Verstößen drohen Anbietern und Betreibern von KI-Systemen hohe Bußgelder: Verstöße gegen Art. 5 AI Act sind mit Geldbußen bis 35 Mio. EUR oder bis zu 7 % des weltweiten Jahresumsatzes belegt. Bei Verstößen gegen alle Pflichten außerhalb von Art. 5 AI Act können Geldbußen bis 15 Mio. EUR oder bis zu 3 % des weltweiten Jahresumsatzes verhängt werden.

    5. Fazit

    Der AI Act ist bedeutsam, um KI-Technologien mit den grundlegenden Werten und Rechten in Einklang zu bringen sowie den rechtlichen Rahmen für den Einsatz von KI innerhalb der EU zu definieren. Für Betreiber von KI-Systemen und GPAI (u. a. Unternehmen oder Freiberufler, aber auch Behörden) bringt der AI Act umfassende Pflichten mit sich. Es bleibt abzuwarten, wie effektiv die Vorgaben in der Praxis um- und durchgesetzt werden können. Auch wird sich ggf. erst durch entsprechende Gerichtsentscheidungen zeigen, ob die Definition von KI-Systemen in Art. 3 Ziff. 1 AI und von KI-Modellen mit allgemeinem Verwendungszweck in Art. 3 Ziff. 63 AI Act ausreichen, die relevanten Sachverhalte zu erfassen. Es ist ratsam, sich schon jetzt mit den Vorschriften vertraut zu machen und die genutzten KI-Systeme und KI-Modelle mit allgemeinem Verwendungszweck (GPAI) risikobasiert einzustufen.

    Quelle: Ausgabe 07 / 2024 | Seite 154 | ID 50009957