· Fachbeitrag · Beratung
Neue KI-Regeln: Das müssen ArbG jetzt wissen
| ChatGPT, Deepl und Co.: Seit dem 2.2.25 gibt es neue Vorgaben für ArbG, die KI entwickeln, anbieten oder nutzen. Wir haben für Sie zusammengefasst, worum es geht und welche Maßnahmen jetzt sinnvoll sind. |
Hintergrund: Der AI Act gehört zum Bereich der „Produktregulierung“. Er regelt, welche KI-Systeme in der EU erlaubt und welche verboten ist. Die Verordnung stellt einheitliche Regeln für alle 27 Mitgliedstaaten auf ‒ für den Verkauf und die Verwendung von KI-Systemen in der EU. Kern ist dabei, eine Klassifizierung von KI-Systemen nach ihrem Risiko für Gesundheit, Sicherheit und Grundrechte in einem vierstufigen Modell. Der AI Act ist eine Verordnung der EU, die unmittelbar in Deutschland gilt. Am 2.2.25 trat die erste Stufe in Kraft.
CHECKLISTE / Vorgehensweise in Unternehmen bei Einsatz von KI | |
Prüfen, welche KI-Tools eingesetzt werden | Der AI Act betrifft neben großen Tech-Unternehmen, die Entwickler und Anbieter sind, auch fast alle Unternehmen, die KI in irgendeiner Form einsetzen. Auch KMU benutzen Tools, ohne sich der KI-Basis bewusst zu sein, z. B. in der Buchhaltungssoftware, im CRM, in der Personalabteilung, bei Terminplanern oder Chatbots für Kundenanfragen. Zunächst sollten daher alle KI-gestützten Tools im Unternehmen identifiziert und in einer Liste erfasst werden.
Wichtig | Auch cloudbasierte Tools mit automatisierten Funktionen können unter die Verordnung fallen. Häufig genutzt sind beispielsweise Online-Lösungen zur Textverbesserung, zum Übersetzen, zur Erstellung von Videos oder zum Transkribieren. |
Risikoklasse bestimmen | Je höher das Risiko in der Anwendung, desto höher die Anforderungen bei den Sicherungsmaßnahmen. Das bedeutet, dass derjenige, der eine KI selbst entwickelt oder diese für den Bau kritischer Infrastruktur einsetzt, anderen Anforderungen unterliegt, als ein Marketingmitarbeiter, der eine KI zur Recherche nutzt.
Das EU-Recht unterscheidet in verschiedenen Stufen vom Hersteller bis zum Betreiber. Zudem teilt der AI Act KI-Systeme in vier Risikostufen ein:
Praxistipp | ArbG können für eine erste Einordnung die offizielle Website nutzen, den EU AI Act Compliance Checker unter https://artificialintelligenceact.eu/de/bewertung/eu-ai-act-compliance-checker/. |
Datenschutz beachten | KI verarbeitet oft personenbezogene Daten (z. B. Kundeninformationen oder Mitarbeiterdaten). Daher ist auch hier die DSGVO zu beachten. Entsprechend sollte sichergestellt werden, dass die KI-Systeme keine unnötigen personenbezogenen Daten speichern oder weitergeben. Zudem sollte eine entsprechende KI-Information an die ArbN erarbeitet werden. |
Mitarbeiter schulen | Laut der KI-Verordnung müssen Mitarbeiter über ein „ausreichendes Maß an KI‑Kompetenz“ verfügen. Eine konkrete Regelung, wie dieses Niveau zu erreichen ist und wann es als erfüllt gilt, enthält die Verordnung nicht. Das liegt im Ermessen der ArbG. |