Es ist fast schon ein geflügeltes Wort: "Künstliche Intelligenz verändert HR" springt es Dich und mich aus vielen Präsentationen auf allen einschlägigen HR-Events an. Vom Recruiting über Personalentwicklung bis hin zur Bindung von Mitarbeiter*innen nehmen uns zunehmend smarte Tools uns Arbeit ab.
Mit dem EU AI Act wird’s jetzt ein Stück ernster. Die neue KI-Verordnung der EU und die Vorschriften darin zielen darauf ab, dass KI in HR transparent, fair und sicher bleibt. Heißt für Unternehmen: Handlungsbedarf.
Ein kleiner Disclaimer: Dieser Beitrag stellt keine Rechtsberatung dar. Er dient der allgemeinen Information und gibt meine persönliche Einschätzung wieder. Unternehmen sollten sich bei konkreten rechtlichen Fragen zum EU AI Act an eine fachkundige Rechtsberatung wenden.
Ein Beispiel für diesen Handlungsbedarf: Der AI Act unterscheidet u.a. in Artikel 6 verschiedene Risikoklassen und schreibt insbsondere für "Hochrisiko-Systeme" einige besondere Anforderungen vor. Viele KI-Systeme im HR, etwa für Bewerberauswahl oder Leistungsbewertungen, fallen allgemeiner Einschätzung nach in die „hochriskante“ Kategorie. Klingt nach viel Bürokratie? Ja. Aber es ist auch eine Chance, KI-Prozesse so zu gestalten, dass sie nicht nur compliant, sondern auch besser und fairer werden.
Hier sind 5 essenzielle Schritte, die ich HR-Teams empfehle, um ihre KI-Systeme mit Blick auf die EU-KI-Verordnung zu beurteilen:
Schritt 1: Bestandsaufnahme - Welche HR-KI nutzt ihr?
Im ersten Schritt musst Du genau wissen, welche KI-gestützten Systeme in Deinem HR-Bereich im Einsatz sind. Was einfach klingt, ist oft herausfordernder als gedacht. Meiner persönlichen Einschätzung nach sind folgende Dimensionen im ersten Schritt hilfreich:
✅ Inventar anlegen: Liste alle HR-Tools auf, die KI im Sinne der Verordnung verwenden. Gehe dazu den ganzen HR-Lebenszyklus von Bewerbermanagement-Systemen über automatisierte Entscheidungsunterstützung bis hin zu Personalentwicklungs- und Performance-Tools durch.
✅ Risikoklassifizierung nach dem EU AI Act: Der AI Act stuft KI-Systeme grundsätzlich in vier Risikoklassen ein:
Minimales Risiko (z. B. ein Email-Spamfilter im Recruitingpostfach)
Geringes Risiko (z. B. ein klassischer Chatbot für HR-Fragen)
Hohes Risiko (z. B. KI-gestützte Bewerbungsauswahl oder Nachfolgeplanung)
Verbotene KI (z. B. Systeme zur biometrischen Kategorisierung oder zur Auslese von Emotionen aus Stimme oder Gesichtsausdrücken)
💡 Tipp: Als grobe Richtschnur. Wenn ein System in mindestens einem Feature tatsächlich künstliche Intelligenz einsetzt, werden die meisten dieser HR-KI-Anwendungen unter hohes Risiko fallen und müssen von Dir besonders streng geprüft werden. Hier ist ein toller Praxisleitfaden von bitkom, die euch dabei sicher weiterhilft. Ab Seite 11 findet ihr hier konkrete Beispiele für HR-Tools und eine beispielhafte Einordnung in die Risikoklassen.
✅ Datenfluss analysieren: Stell' Dir mindestens folgende Fragen zur kritischen Reflexion:
Welche personenbezogenen Daten verarbeitet eure KI?
Wohin fließen sie?
Wird alles DSGVO-konform gespeichert und mit Löschkonzept versehen?
Schritt 2: Compliance-Check - Erfüllen eure Systeme die neuen Anforderungen?
Jetzt wird’s schon konkreter. Der EU AI Act verlangt, dass KI-gestützte Entscheidungen erklärbar und nachvollziehbar sind.
✅ Transparenz fördern: Die von euch eingesetzten KI-Systeme im HR müssen den Nutzenden so transparent wie möglich sein. Dabei ist es wichtig, dass Klarheit darüber besteht, die ein System zu seinen Ergebnissen kommt. Sinnvolle Leitfragen sind aus meiner Sicht:
Kann das System erklären, warum es eine Entscheidung getroffen hat?
Werden die Vorhersagen oder Bewertungen eines Systems dokumentiert?
Können betroffene Personen (Bewerber*innen, Mitarbeitende) eine Erklärung verlangen und diese auch erhalten?
Es kann für Dich und Deine HR-Abteilung sehr sinnvoll sein, sich mit dem Konzept "Explainable AI" auseinanderzusetzen. Falls das noch nicht erfolgt ist, wäre das ein wichtiger Wissensbaustein.
✅ Technische Dokumentation sicherstellen: Es gibt immer wieder Systeme, die nicht genau dokumentieren, wie ihre Feature technisch ausgestaltet sind. Ich würde das Risiko eines möglichen Audits und den dann spätestens eingeforderten Details nicht eingehen. Also stell Dir zeitnah folgende Leitfragen für jedes der im ersten Schritt definierten Systeme:
Gibt es Audit-Protokolle, die die KI-Entscheidungen des Systems dokumentieren?
Wer hat Zugriff auf die Daten und die Entscheidungslogs?
✅ Risikomanagement etablieren: Neben dem eingangs erwähnten Risiko-Assessment eines jeden KI-Systems, geht ein proaktives Risikomanagement natürlich weit darüber hinaus. Einen sehr ausführlichen Umsetzungsleitfaden für die Compliance-Anforderungen an Hochrisiko-Systeme findest Du hier. Am Anfang eines umfassenden Risikomanagements sehe ich persönlich die folgenden Fragen:
Welche möglichen Risiken gehen von euren HR-KI-Systemen aus?
Welche Maßnahmen gibt es, um Fehleinschätzungen, Verzerrungen oder Diskriminierung durch die HR-KI-Systeme zu vermeiden?
💡 Tipp: Falls ihr eine Blackbox-KI einsetzt (Systeme, die ihre Entscheidungen nicht erklären können), müsst ihr euch aus meiner Sicht dringend nach Alternativen umsehen. Oder ihr geht mit dem Anbieter dieses Systems in den engen Austausch, um eine Klarheit bzgl. der Entscheidungsfindung des Systems herzustellen.
Schritt 3: Governance & menschliche Kontrolle sicherstellen
Der EU AI Act verlangt, dass kritische Entscheidungen nicht ausschließlich von einer KI getroffen werden dürfen. Menschen müssen in den Prozess eingebunden bleiben. Genau genommen ist das gar nichts Neues. Denn die EU-Datenschutzgrundverordnung schließt bereits so genannte entscheidungsersetzende Verfahren aus. Das sind genau solche Systeme, die eine menschliche Entscheidung ersetzen und eben nicht nur ergänzen.
✅ Menschliche Aufsicht gewährleisten:
Gibt es ein Team, das kritische KI-Entscheidungen überprüft?
Haben Bewerber*innen oder Mitarbeitende eine Möglichkeit zur Anfechtung von KI-gestützten Entscheidungen?
✅ Interne Compliance-Richtlinien anpassen:
Sind eure Datenschutz-, Ethik- und Compliance-Richtlinien auf den AI Act abgestimmt?
Gibt es klare Vorgaben, wie HR-KI genutzt werden darf?
✅ Bias & Diskriminierung vermeiden:
Wurden eure HR-KI-Systeme auf mögliche Vorurteile (Bias) überprüft?
Nutzt ihr diverse und repräsentative Trainingsdaten für eure KI-Modelle oder sind diese nachweislich von euren Anbietern genutzt worden?
💡 Tipp: Ein guter Ansatz ist der "Human-in-the-Loop" (HITL) dabei trifft die KI Vorentscheidungen, die dann von Menschen überprüft und final freigegeben werden. Diesen Ansatz finde ich so wichtig, dass ich in einem kleinen Einschub dessen Eckpunkte für Dich skizziert habe.
Einschub zum "Human-in-the-Loop"-Ansatz: So kann dieser Ansatz in Deiner HR-Praxis funktionieren.
👉 Aktive menschliche Beteiligung: KI unterstützt HR, aber der Mensch hat immer das letzte Wort. Automatisierte Einstufungen oder Empfehlungen müssen überprüft und freigegeben werden.
👉 Iterative Interaktion: HR-Teams trainieren die KI mit Feedback, korrigieren Fehler und sorgen dafür, dass das System sich kontinuierlich verbessert.
👉 Aufgabenverteilung: KI übernimmt repetitive Aufgaben (z. B. erste Screening-Prozesse), während Menschen sich auf komplexe Entscheidungen konzentrieren (z. B. Interviews oder Kultur-Fit-Bewertungen).
👉 Qualitätssicherung: Der Mensch erkennt kontextbezogene Nuancen, die eine KI nicht erfassen kann – und verhindert diskriminierende oder unfaire Entscheidungen.
👉 Ethische Kontrolle: Sensible Entscheidungen wie Bewerbungsbewertungen oder interne Beförderungen sollten niemals rein KI-gesteuert sein. Der HITL-Ansatz stellt sicher, dass Unternehmen Verantwortung für ihre KI-Prozesse übernehmen.
Schritt 4: Maßnahmen zur Anpassung der Systeme umsetzen
Nun hast Du in den ersten drei Schritten viel über Deine HR-Systemlandschaft und die darin verbauten KI-Systeme gelernt. Im vierten Schritt geht es nun um die Umsetzung von ggfs. notwendigen Anpassungen Deiner Systeme. Je nachdem welche der Punkte aus den ersten drei Schritten offen geblieben oder als potenzielles Problem identifiziert wurden, musst Du diese Punkte proaktiv angehen. Meiner Erfahrung nach haben sich folgende Umsetzungsfelder bewährt:
✅ HR-Tools technisch anpassen:
Falls eure KI-Tools nicht AI-Act-konform sind, müssen sie überarbeitet oder ausgetauscht werden.
Achtet auf Anbieter, die bereits Compliance-Vorgaben erfüllen.
✅ HR-Teams schulen:
Wissen eure Mitarbeitenden, wie die KI-Systeme funktionieren?
Gibt es verschiedene Arten von Nutzer*innen eurer KI-Systeme, deren "Schulungsintensität" angepasst werden muss?
Welche KI-Kompetenzen bringen die Mitarbeitenden im HR-Bereich bereits mit?
Können sie Risiken und Fehler erkennen?
✅ Kontinuierliches Monitoring einführen:
Wird eure KI regelmäßig auf Fehler, Verzerrungen oder Diskriminierung überprüft?
Gibt es einen Mechanismus, um problematische Entscheidungen zu melden, zu bemerken und zeitnah zu korrigieren?
💡 Tipp: Dieser Bereich der HR-IT-Compliance ist definitiv kein Einmal-Projekt, sondern ein kontinuierlicher Prozess. Regelmäßige Überprüfungen und Updates sind Pflicht. Schließlich ist es sehr wahrscheinlich, dass die verwendeten HR-Tools im Zeitverlauf mehr und mehr KI-Features freigeschaltet kriegen.
Schritt 5: Abschlussbewertung & Zukunftssicherheit
Im letzten Schritt geht es darum ein dauerhaftes Wissensmanagement rund um den jeweiligen Status der KI-Compliance im HR aufzubauen. Kurzum, es geht darum alles sauber zu dokumentieren und für die Zukunft abzusichern. Das gilt insbesondere dafür, dass dieses Wissen kein Geheimwissen sein darf oder mit bestimmten Menschen das Unternehmen verlassen darf. Als grober Rahmen dienen aus meiner Perspektive die folgenden Fragen
✅ Compliance-Berichterstattung etablieren:
Welche Maßnahmen wurden entlang der obigen Schritte und bzgl. der EU KI Verordnung umgesetzt?
Welche Risiken wurden identifiziert und wie wurden sie behoben behoben?
✅ Standards für neue KI-Projekte definieren:
Welche Anforderungen muss eine KI erfüllen, bevor sie im HR-Bereich Deines Unternehmens eingeführt werden kann?
Wie stellst Du sicher, dass neue KI-Lösungen den AI Act von Anfang an berücksichtigen?
✅ Regelmäßige Kontrollen und Audits etablieren:
Wurden alle wichtigen Vorgaben beachtet?
Welche neuen Risiken entstehen durch Updates oder neue Funktionen?
💡 Tipp: Die Umsetzung des EU AI Acts ist kein statisches Ziel, sondern ein laufender Prozess, an dem Du proaktiv dranbleiben musst. Ich empfehle hier nochmal eindrücklich den Umsetzungsleitfaden von bitkom.
Fazit: Jetzt handeln, statt später nachbessern
Der EU AI Act bringt neue Regeln, aber auch neue Chancen für HR. Wer jetzt vorbereitet ist, reduziert Risiken und sorgt für faire, transparente und nachvollziehbare KI-Prozesse. Zugleich schafft das Vertrauen bei allen Seiten, um einen verantwortungsvollen umgang moderner KI-Systeme zu treiben. Ich habe die Erfahrung gemacht, dass man sich hier nicht zu ideologisch aufstellen darf. Es handelt sich um eine komplexe Verordnung, deren juristische Implikationen von verschiedenen Expert*innen unterschiedlich nuanciert werden. Ich persönlich halte viel davon verschiedene Sichtweisen auf das Thema zuzulassen und auch kritische Fragen anzugehen. Eine solche kritische Frage ist: Was ist eigentlich ein KI-System nach Vorgabe des EU AI Act? Nimm diese Frage doch mal mit zu den Expert*innen für die Umsetzung der Verordnung bei Dir im Unternehmen und beginne damit den ersten Schritt.
Dieser Beitrag stellt keine Rechtsberatung dar. Er dient der allgemeinen Information und gibt meine persönliche Einschätzung wieder. Unternehmen sollten sich bei konkreten rechtlichen Fragen zum EU AI Act an eine fachkundige Rechtsberatung wenden.
Über 9000 HR-Professionals trennen KI-Fiktion von KI-Fakten mit Hilfe meiner Newslettern: #HRDL News und Humanly Analytic. Melde Dich jetzt an und bleib immer auf dem neuesten Stand der KI-Entwicklungen in unserem geliebten Personalmanagement.
Additional information: This article reflects my personal views only and is not necessarily the view of the companies I am associated with.
Comments