HR-Teams stehen ständig vor der Aufgabe, kreative Lösungen zu entwickeln, um Abläufe zu rationalisieren und die Effizienz und Produktivität zu steigern, und die explosionsartige Verbreitung von KI bietet verlockende Möglichkeiten. Könnte die Akzeptanz des chatgpt-Hypes wirklich die Antwort sein?

Auch die Rechtsabteilungen sind nicht von dem hartnäckigen Unternehmensmantra verschont geblieben, die Kosten zu verwalten und mit weniger mehr zu erreichen.

Allerdings lassen sich bereits Lehren aus dem Einsatz von Automatisierung im Rechtsbereich und der Rolle der Abteilung bei der Einrichtung praktikabler Leitplanken ziehen, um Datenschutzrisiken anderer Unternehmensabteilungen zu mindern.

Die Nutzung dieser Erkenntnisse könnte HR-Teams dabei helfen, ähnliche Vorteile und Risiken des Einsatzes von KI im Tagesgeschäft zu bewältigen.


HR und KI: Wie kann HR KI effektiv und ethisch nutzen?

Der erste KI-Mitarbeiter Großbritanniens steht jetzt zur Anstellung

Kompetenzen für die Zukunft: Wie Technologie dabei helfen kann, das Kompetenzproblem zu lösen


Automatisierung: eine Rettung?

Die moderne Rechtsabteilung hat Vertragsmanagementsysteme installiert, um umfangreiche Vertragsanforderungen anderer Abteilungen zu bändigen, und hat Compliance-Genehmigungen in regulierten Branchen automatisiert.

General Counsel und ihre Teams müssen sich seit langem mit der DSGVO und anderen Datenschutzgesetzen auseinandersetzen und die Einhaltung der Datenschutzbestimmungen entscheidend in unternehmensweite Aktivitäten umsetzen und verankern, damit sie vom Unternehmen verstanden werden.

Sie können die in diesen Bereichen gewonnenen Erkenntnisse nutzen, um die Personalabteilung bei der Bewältigung ähnlicher Herausforderungen für ihre eigenen Aktivitäten zu unterstützen.

Die Möglichkeiten sind endlos

Personalabteilungen nutzen KI derzeit in vier Schlüsselbereichen (oder beginnen mit der Nutzung):

1. Rekrutierung: KI rationalisiert den Rekrutierungsprozess durch automatisiertes Kandidatenscreening, Talentidentifizierung und Leistungsvorhersage.

Siehe auch  5 SEO-Anwendungsfälle für das ChatGPT-Code-Interpreter-Plugin

Neben Algorithmen zur Analyse von Lebensläufen, Anschreiben und LinkedIn-Profilen zur Identifizierung der am besten qualifizierten Kandidaten können damit auch Telefoninterviews und Fragen und Antworten mit Kandidaten durchgeführt werden.

Dies reduziert den manuellen Zeit- und Arbeitsaufwand, den Talentakquiseteams sonst aufwenden müssten.

2. Leistungsmanagement: KI kann Kandidaten dabei helfen, die Leistung ihrer Mitarbeiter zu verwalten, indem sie Daten aus Leistungsbeurteilungen, Produktivitätsberichten und anderen Daten analysiert.

Dies wird verwendet, um Bereiche für Mitarbeiterverbesserungen zu kennzeichnen und maßgeschneiderte Schulungen für diese Bedürfnisse zu erstellen.

3. Kundenservice: Automatisierte Antworten, personalisierte Empfehlungen und Chatbots werden routinemäßig für die Bearbeitung grundlegender Fragen und Antworten eingesetzt, sodass HR-Mitarbeiter komplexere Angelegenheiten bearbeiten können.

4. Entscheidungsfindung: Datenbasierte Entscheidungen können auch durch Datenanalyse und Erkenntnisse gefördert werden.

Dies erleichtert das Erkennen von Mustern im Kundenverhalten, Markttrends und Finanzdaten, um strategische Entscheidungen zu treffen.

Bei der Anwendung auf die HR-Funktion können KI-gestützte Entscheidungsfindung und Datenanalyse dabei helfen, den Personalbedarf für verschiedene Unternehmensfunktionen vorherzusagen.

Die Risiken mindern

Jetzt kommen die Leitplanken. Die Aufgabe der Rechtsabteilungen besteht darin, sicherzustellen, dass die Personalabteilung und andere Abteilungen gesetzeskonform und im Einklang mit Gesetzen und Vorschriften arbeiten.

Sie müssen ihr Verständnis einer Reihe komplexer und sich oft überschneidender Rechts- und Datenschutzbestimmungen anwenden, um ihren Personalabteilungen Handlungsspielraum zu geben.

Aus Gesprächen mit einer Reihe von Technologie-, Rechts- und Datenschutzexperten geht hervor, dass es sechs große Risiken gibt, die Richtlinien, Verfahren und Überwachung erfordern, um KI und generative KI sicher umzusetzen und Rechtsstreitigkeiten zu vermeiden:

Voreingenommenheit und Diskriminierung: Die Erstellung und Codierung künstlicher Intelligenz birgt stets das Risiko einer bewussten oder unbewussten Voreingenommenheit in den Methoden, die zur Erstellung von Arbeitsergebnissen oder Daten verwendet werden.

Siehe auch  ChatGPT wird „Diskussionspartner“ für Wissenschaftler

Personalabteilungen müssen sich in den Methoden Diversität, Gerechtigkeit und Inklusion schulen und Wörter und Phrasen vermeiden, die mit geschützten Klassen in Verbindung gebracht werden (z. B. Geschlecht, ethnische Zugehörigkeit und sexuelle Orientierung).

Privatsphäre: KI-generierte Tools, die von der Personalabteilung verwendet werden, sammeln und analysieren Mitarbeiterdaten, einschließlich persönlicher Informationen, Leistungsmetriken und Kommunikationsprotokolle.

Damit verbunden ist die Pflicht, Daten sicher zu sammeln und zu speichern, um die Privatsphäre der Mitarbeiter zu schützen.

Vertraulichkeit: KI-Chatbots führen mithilfe ähnlicher Trainingseingaben Aufgaben für andere erneut aus.

Jede Eingabe in einen Chatbot kann letztendlich an einen Drittbenutzer weitergeleitet werden.

Es bleibt in einer KI-Datenbank außerhalb der Kontrolle des Unternehmens, auch wenn es nicht reproduziert wird.

Erwägen Sie, die Eingabe vertraulicher Geschäftsinformationen in Chatbots zu verbieten und stattdessen nicht automatisierte Kanäle und Materialien zu verwenden.

Datensicherheit: Chatverläufe eines Benutzers können als Ausgabe für einen anderen Benutzer erstellt werden.

Dabei kann es sich um eine Datenschutzverletzung oder eine gefälschte App handeln, bei der sich ein Cyberkrimineller als echtes ChatGPT oder ein anderes generatives KI-Produkt ausgibt, um Mitarbeiter zum Herunterladen von Malware zu verleiten.

Denken Sie daran, dies in die Datenschutzschulungen für Lernmanagementsysteme einzubeziehen.

Copyright-Verletzung: Wenn ein KI-Chatbot frühere Arbeitsergebnisse abtastet, um eine „neue“ Dokumentation zu erstellen, führt dies zweifellos dazu, dass urheberrechtlich geschützte Informationen aus dem Internet kopiert werden, die keine Fußnoten enthalten.

Die unbefugte Verwendung von Texten oder Bildern führt zu Rechtsstreitigkeiten, die einer menschlichen Aufsicht bedürfen.

Falsche Dateneingabe und menschliches Versagen: Um sich vor sogenannten „Halluzinationen“ zu schützen, bei denen sich ein Chatbot als Reaktion auf schwerwiegende Eingabefehler unberechenbar verhält, erfordert die Qualität der von einem Chatbot oder einem anderen KI-System verarbeiteten Dateneingaben eine menschliche Qualitätskontrolle nach einer speziellen Schulung zum Erlernen der Funktionsweise von KI programmiert und erkennt Systemfehler.

Siehe auch  Vier Wege, wie ChatGPT die Personalbeschaffung neu definiert

Das krasseste Beispiel ereignete sich, als ein Chatbot fiktive Präzedenzfälle vorlegte, die einem New Yorker Richter in einem kürzlichen Rechtsstreit vorgelegt wurden, und der beteiligte Anwalt sanktioniert wurde.

Ist KI die Zukunft für HR?

KI wird zweifellos zu mehr Effizienz führen und eine höhere Produktivität der Personalabteilungen ermöglichen.

Die Rechtsabteilung kann dazu beitragen, eine reibungslose Umsetzung und Ergebnisse sicherzustellen, indem sie eine Risikobewertung der Auswirkungen von KI auf die Privatsphäre und Vielfalt der Mitarbeiter durchführt. Testen von KI-Systemen auf Voreingenommenheit, einschließlich korrigierender Aufsicht und Überwachung; und schließlich die Bewertung und Überwachung von KI-Systemen, um das ordnungsgemäße Funktionieren und die beabsichtigten Ergebnisse sicherzustellen.

KI bietet HR-Teams spannende Möglichkeiten zur Rationalisierung von Abläufen, damit sie sich stattdessen auf wertschöpfende Aktivitäten konzentrieren können.

Es könnte jedoch ratsam sein, sich bei Ihren internen Anwälten zu erkundigen, bevor Sie auf den ChatGPT-Zug aufspringen.

Jerry Temko ist Geschäftsführer der internen Beratergruppe bei Major, Lindsey & Africa

4.6/5 - (120 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein