Der Start von ChatGPT durch OpenAI im vergangenen November hat der generativen künstlichen Intelligenz (KI) einen festen Platz auf der Landkarte verschafft. Der Chef von google Sundar Pichai hat kürzlich kommentiert, dass KI tiefgreifender ist als Feuer oder Elektrizität oder alles, was Menschen in der Vergangenheit getan haben. Darüber hinaus sind ChatGPT und ähnliche Tools leicht verfügbar. Um ChatGPT nutzen zu können, benötigen Sie lediglich einen Computer mit Internetzugang und ein Konto. ChatGPT ist rund um die Uhr verfügbar und steht jedem offen, der seine Bedingungen akzeptiert.
Was ist ChatGPT?
ChatGPT ist eine Anwendung, die Fragen beantworten und menschenähnliche Prosa und Antworten generieren kann. Anwendungen wie ChatGPT werden auf große Text- oder Datenmengen „trainiert“, die im Internet eingegeben oder daraus entnommen werden, sowie auf Bücher und Artikel. ChatGPT ist so weit fortgeschritten, dass es angeblich seine Fehler eingestehen, falsche Prämissen anfechten und unangemessene Anfragen ablehnen kann.
Die potenziellen Einsatzmöglichkeiten von KI im Geschäftskontext sind enorm. Generative KI kann beispielsweise bei Aufgaben wie der Überprüfung von Lebensläufen und der anschließenden Auswahl potenzieller Kandidaten, der Verwaltung von Vertragspaketen und der Durchführung von Risikomanagementaufgaben bis hin zur Erstellung von Inhalten unterstützen. ChatGPT hätte diesen Artikel schreiben können. Dennoch gibt es einige Herausforderungen und Bedenken im Zusammenhang mit KI. In diesem Artikel möchten wir einige erste Beobachtungen ermitteln, wenn Ihr Unternehmen den täglichen Einsatz von Tools wie ChatGPT in Betracht zieht.
Risiko – ist es richtig?
Wie ein Unternehmen generative KI-Tools wie ChatGPT einsetzt, hängt insbesondere in diesem frühen Stadium von vielen Faktoren ab, darunter der Risikotoleranz, der Branche und dem Sektor, in dem das Unternehmen tätig ist, sowie der Art und Verwendung des KI-Systems. KI bietet zweifellos große Chancen, aber einige Unternehmen zögern möglicherweise in diesem relativ frühen Stadium, in KI-basierte Systeme zu investieren oder diese zu nutzen. Abgesehen von den unten aufgeführten Punkten sind die Ergebnisse von KI-Systemen möglicherweise nicht immer korrekt. Ein New Yorker Anwalt steht beispielsweise vor einer Gerichtsverhandlung, nachdem seine Kanzlei ChatGPT für Rechtsrecherchen genutzt hat und sich die Gerichtsakte auf einen Rechtsfall bezog, den es nicht gab!
Datenschutz und KI: ein unglückliches Paar?
KI-Systeme werden auf große Datenmengen trainiert, von denen einige wahrscheinlich personenbezogene Daten enthalten. Alle von einem KI-System verarbeiteten personenbezogenen Daten müssen in Übereinstimmung mit den Anforderungen der Datenschutzgesetze, einschließlich der britischen DSGVO und der EU-DSGVO, verarbeitet werden. Jedes dieser Systeme sieht strenge Transparenzanforderungen vor und verlangt von Organisationen, bei der Verarbeitung personenbezogener Daten eine Rechtsgrundlage zu schaffen. Diese Anforderungen gelten sowohl beim „Training“ des zugrunde liegenden Systems anhand personenbezogener Daten als auch darüber hinaus bei der Verarbeitung personenbezogener Daten von Nutzern des Systems.
Für Entwickler und Anwender von KI-Tools kann es eine Herausforderung darstellen, dafür zu sorgen, dass jede Verarbeitungsaktivität eine rechtmäßige Grundlage für die Verarbeitung hat und die Transparenzanforderungen erfüllt. Darüber hinaus signalisieren die Datenschutzbehörden, dass sie bei der Einhaltung und Durchsetzung einen harten Ansatz verfolgen.
Automatisierte Verarbeitung und Diskriminierung
Für die automatisierte Verarbeitung gelten besondere datenschutzrechtliche Anforderungen, insbesondere wenn die Verarbeitung personenbezogener Daten zur Beurteilung einer Person ohne menschliches Zutun erfolgt. Dies kann wiederum zu einem Profiling führen. Die automatisierte Verarbeitung wurde datenschutzrechtlich als „hochriskant“ eingestuft. Jedes Unternehmen, das ein System verwendet, das eine Person, beispielsweise Kandidaten oder Bewerber, automatisch bewertet, sollte sich der zusätzlichen Anforderungen bewusst sein, die mit einer risikoreichen Verarbeitung wie Datenschutz-Folgenabschätzungen (Data Privacy Impact Assessments, DPIAs) einhergehen.
Es besteht möglicherweise auch das Potenzial für ungerechtfertigte Diskriminierungsklagen und andere beschäftigungsbezogene Probleme, wenn beispielsweise die zugrunde liegenden Systeme auf bestimmte Datensätze trainiert wurden, die bestimmte Gruppen oder ethnische Zugehörigkeiten ungerechtfertigt diskriminieren könnten.
Geistigen Eigentums
Überlegungen zum geistigen Eigentum sind ebenfalls relevant, da die Ein- und Ausgänge der KI geistige Eigentumsrechte enthalten und schaffen. Unternehmen müssen sich darauf verlassen können, dass die eingegebenen Daten zur Erstellung weiterer Werke verwendet werden können. Darüber hinaus besteht möglicherweise die Sorge, dass die Ergebnisse die geistigen Eigentumsrechte Dritter verletzen könnten.
Vertrauliche Informationen
Unternehmen, die Daten eingeben möchten, müssen sich auch aller Vertraulichkeitsaspekte bewusst sein. Besteht beispielsweise eine Pflicht gegenüber einem Dritten in Bezug auf die hochgeladenen Daten und wird diese Geheimhaltungspflicht verletzt oder wird das Hochladen dieser Daten die Vertraulichkeit dieser Informationen gefährden?
Gesetzliche KI-Regulierung
KI entwickelt sich in einem beispiellosen Tempo weiter und es werden regelmäßig verschiedene Tools, Lösungen und Updates veröffentlicht. Mit der Geschwindigkeit der Technologie kommen neue Gesetze und Vorschriften, da Regierungen und Regulierungsbehörden versuchen, Schritt zu halten. Die Europäische Kommission schlägt die Umsetzung vor KI-Gesetz wonach bestimmte Systeme, die ein „inakzeptables Risiko“ darstellen, verboten werden. Nach diesem Gesetz unterliegen Anwendungen mit hohem Risiko, beispielsweise Tools zum Scannen von Lebensläufen, die Bewerber bewerten, strengen gesetzlichen Anforderungen. Im Vereinigten Königreich hat die Regierung kürzlich ihr Strategiepapier veröffentlicht: KI-Regulierung: ein innovationsfördernder Ansatz und sucht Ansichten. Das Papier stellt fest, dass das Vereinigte Königreich schnell handeln muss, um weiterhin die internationale Diskussion über KI-Governance anzuführen und den Wert eines „pragmatischen, verhältnismäßigen Regulierungsansatzes zu demonstrieren und einen innovationsfreundlichen Rahmen zu unterstützen“.
Anleitung und Geschäftsbedingungen
Unternehmen, die KI-Systeme nutzen oder deren Einsatz zulassen, sollten das oben Gesagte beachten. Ein guter Ausgangspunkt besteht darin, eine klare Richtlinie zur internen Nutzung von KI zu haben und sicherzustellen, dass diese Richtlinie mit den bestehenden Richtlinien zum Datenschutz und zu Informationssystemen übereinstimmt.
Die Geschäftsbedingungen von KI-Systemen sollten überprüft werden, sowohl um die Einhaltung der Datenschutzgesetze sicherzustellen, als auch um das Eigentum an den Ergebnissen des Systems zu verstehen.
Wir gehen davon aus, dass im Rahmen jedes Geschäfts- oder Aktienkaufs eine verstärkte Due-Diligence-Prüfung erfolgen wird, mit spezifischen Garantien für KI-Systeme. Eine gute interne Aufzeichnung wird bei der Beantwortung dieser spezifischen Anfragen wahrscheinlich sehr hilfreich sein, um zu zeigen, dass vor der Integration und Nutzung eine ordnungsgemäße Due-Diligence-Prüfung des jeweiligen KI-Systems durchgeführt wurde.
Die Geschwindigkeit des Wandels und das Potenzial, mit Tools wie ChatGPT und KI Auswirkungen auf den Arbeitsplatz zu haben, kennen keine Grenzen und wir werden wahrscheinlich bedeutende Entwicklungen in diesem Bereich erleben.