KI und Datenschutz in der Personaldienstleistung: Das ist zu beachten

KI und Datenschutz in der Personaldienstleistung

Künstliche Intelligenz in der Personaldienstleistung gewinnt in der Recruitingbranche zunehmend an Bedeutung. Damit rücken auch der Datenschutz und die Datensicherheit in den Fokus – und das aus gutem Grund: Personaldienstleister verarbeiten große Datenmengen. Um den Schutz dieser Daten zu gewährleisten, sollten Technologie-Anbieter und Personaldienstleister daher eng zusammenarbeiten. Insbesondere sollten  sie dabei auf eine klare Strategie für den Einsatz von KI setzen.

Wie können Personalvermittler nun garantieren, dass ihre Teams bei der Nutzung von KI und Automation sensible Informationen sicher und vertraulich behandeln? Wie stellt Bullhorn sicher, dass die Daten unserer Kunden geschützt bleiben? Welche Maßnahmen können Unternehmen ergreifen, um KI-Tools im Recruiting vorurteilsfrei oder, anders gesagt unbiased, zu nutzen?

Jason Heilman, Senior Vice President für Product – Automation & AI bei Bullhorn, geht im Interview auf diese Fragen aus der Perspektive von Bullhorn ein. Außerdem verrät er seine Tipps für die Entwicklung einer erfolgreichen KI-Strategie.

Jason, wie stellt Bullhorn sicher, dass die KI-gesteuerten Funktionen den geltenden Vorschriften im Datenschutz und Sicherheitsstandards entsprechen?

J.H.: Wir haben uns mit TrustArc, einem Anbieter von Compliance-Lösungen rund um den Datenschutz und Data Governance, einen professionellen Partner an Bord geholt. TrustArc bewertet unsere Prozesse und prüft die Entwicklung unserer Automatisierung zur Entscheidungsfindung, die das Herzstück der Bullhorn Copilot-Suite bildet. So stellen wir sicher, dass unsere AI-Data-Governance verantwortungsbewusst, fair und transparent ist.

Derzeit arbeiten wir mit TrustArc an einer „Responsible AI Certification“ für die Automatch-Funktionalität in Bullhorn Copilot. Diese Zertifizierung soll zeigen, dass Bullhorn Copilot unter Berücksichtigung des Datenschutzes und der Privatsphäre entwickelt wurde.

Zusätzlich haben wir O’Neil Risk Consulting und Algorithmic Auditing (ORCAA) beauftragt, die Bullhorn Copilot Automatch-Funktionalität zu überprüfen. Diese Funktion hilft Personaldienstleistern, die passenden Kandidat:innen für Stellen zu finden, indem sie Empfehlungen auf Basis von Profil- und Lebenslaufdaten gibt. ORCAA prüft, ob unsere Algorithmen und KI fair funktionieren. Konkret haben wir ORCAA gebeten, die Automatch-Funktionalität im Hinblick auf das New Yorker Gesetz Local Law 144 zu überprüfen. Die Ergebnisse zeigen, dass Bullhorn Copilot Automatch Kandidat:innen unabhängig von Geschlecht und ethnischer Zugehörigkeit gleichberechtigt behandelt.

Unser Ziel ist es, einen soliden Rahmen für die Entwicklung von Automatisierung und KI in unseren Produkten zu schaffen. Experten wie ORCAA und TrustArc helfen uns dabei, das Vertrauen unserer Kunden zu gewinnen. Wir sind überzeugt, dass unser durchdachter Ansatz, unterstützt durch Expertenanalysen, die Grundlage bildet, um als SaaS-Dienstleister weiterhin neue Gesetze und Vorschriften für KI und automatisierte Entscheidungsfindung einzuhalten.

Ähnlich wie Bullhorn ATS SOC 2, Typ 2-zertifiziert ist, möchten wir durch Expertenanalysen sicherstellen, dass unsere Tools die Daten unserer Kunden angemessen schützen.

Was können  Bullhorn-Kunden konkret tun, um die Daten ihrer Kunden und Bewerber:innen zu schützen?

J.H.: Wir raten dazu, interne Sicherheitsvorschriften einzuführen. So wissen alle Mitarbeitende, wie sie mit personenbezogenen und sensiblen Daten umzugehen haben. Personaldienstleister müssen zudem sicherstellen, dass sie mit vertrauenswürdigen Anbietern und Softwarepartnern arbeiten, deren Lösungen gründlich auf Sicherheit geprüft sind und den Datenzugriff sinnvoll beschränken.

Unsere Kunden haben die volle Kontrolle darüber, wer auf ihre Daten zugreift, sei es Bullhorn, unsere Partner oder Drittanbieter. Bullhorn entwickelt seine KI- und Automatisierungsprodukte mit eigenen Modellen und speichert alle Daten sicher in unseren Rechenzentren. Die Bewertung von Kandidat:innen erfolgt ausschließlich auf unseren Systemen. Somit verlassen diese Daten niemals das Rechenzentrum. Seit 1999 vertrauen uns unsere Kunden ihre Daten in der Cloud an und wir sorgen für eine lückenlose Kontrolle über das gesamte System.

Was sollten unsere Kunden über den Datenschutz und die Sicherheit in der KI-Lösung Bullhorn Copilot wissen?

J.H.: Bei Bullhorn setzen wir alles was in unserer Macht steht ein, um all unsere Tools sicher, geschützt und transparent zu entwickeln. Wir können die Daten benennen, die zur Generierung der KI-gestützten Abfragen verwendet werden. Bei einer Kandidatensuche etwa können Kunden stets die genauen Kriterien einsehen, die zur Generierung der Suche verwendet wurden. Alle Daten werden sicher verarbeitet, und der Zugriff ist auf die Personen beschränkt, die diese Daten benötigen.

Es gibt zwei Aspekte der Privatsphäre und Sicherheit von KI-Tools: Erstens erfordert die Entwicklung einer intelligenten Lösung viele Daten, um die gewünschte Ausgabe zu erzeugen. Zweitens sende ich jedes Mal, wenn ich Copilot eine Frage stelle, die nötigen Daten, um die gewünschte Antwort zu erhalten. In beiden Fällen – beim Erstellen oder Beantworten von Fragen – übertragen wir die Daten sicher. Das ist letztlich das Wichtigste.

Wir haben bislang darüber gesprochen, was Bullhorn und unsere Kunden tun oder tun sollten, um Daten zu schützen. Bei einer verantwortungsbewussten KI-Strategie gibt es jedoch zwei wichtige Komponenten: Der Datenschutz und die Vermeidung von Bias*.

Wie können Recruiter:innen Vorurteile bei der Nutzung von KI reduzieren und mit KI-Tools unvoreingenommene Ergebnisse liefern?

J.H.: Zunächst einmal liefern unsere Tools keine voreingenommenen  Ergebnisse, wenn die eingegebenen Daten frei von Vorurteilen sind. Ich empfehle daher, solide interne Verfahren zu etablieren, um Voreingenommenheit bei der Rekrutierung zu reduzieren und alle Personen gleichberechtigt zu behandeln. Das bedeutet, einen breiten, heterogenen Datensatz zu nutzen. Damit das KI-Tool auf vielfältigen Daten basiert gilt es, verschiedene Geschlechter, Hintergründe und geografische Regionen zu erfassen. Wenn Recruiter:innen Maßnahmen ergreifen, um Vorurteile bei der Einstellung zu vermeiden, folgt die Software ihrem Beispiel.

Bei der Entwicklung unserer Lösungen, insbesondere Bullhorn Automation und Copilot, verwenden wir keine voreingenommenen, sprich personenbezogenen Daten. Wenn du Copilot bittest, eine Kandidatenzusammenfassung zu erstellen, nutzt das Tool nur bestimmte Teile der Daten des Kandidaten – wie beispielsweise die Berufserfahrung. Danach werden die Daten wieder beim Recruiter oder der Recruiterin gespeichert und nicht im Bullhorn System aufbewahrt.

 


Du möchtest mehr über KI-Tools im Recruiting erfahren und wie du Bullhorn gewinnbringend für dein Business einsetzen kannst? Vereinbare hier dein persönliches Gespräch mit unseren Expert:innen.

Erhalten Sie die neuesten Updates direkt in Ihr Postfach.

Füllen Sie dieses Formular aus, um unsere Bloginhalte, Recruiting-Tipps und Best-Practices zu abonnieren.