[ad_1]

Um auf Anfragen (oder Aufforderungen) zu reagieren, verwendet chatgpt in der Praxis Daten, die durch Extraktion von Websites (Web Scraping), aus etablierten Datenbanken, Informationen in sozialen Netzwerken, offenen Datenquellen oder sogar direkt von allen Benutzern eingegebenen Daten gewonnen werden1. Wenn chatGPT nicht die einzige generative KI-Plattform ist – es gibt auch LightOn, google Bard, Notion AI, ChatSonic –, ist es die Plattform, die sich heute konzentriert die meisten Sorgen und bietet gleichzeitig viele Möglichkeiten im beruflichen Kontext: Verfassen eines Beitrags in den Netzwerken, Verfassen einer Stellenbeschreibung für die Personalbeschaffung, Generieren von Computercode, Übersetzen eines Textes ins Englische, Erstellen einer PowerPoint-Präsentation, Beantwortung einer Ausschreibung, Verfassen von Spezifikationen …

Im Zusammenhang mit der öffentlichen Auftragsvergabe und bevor eine solche Plattform zum Verfassen von Spezifikationen, zur Beantwortung eines öffentlichen Auftrags oder zur Erstellung einer Leistung genutzt wird, ist es notwendig, die Hauptrisiken zu identifizieren und anschließend einige bewährte Praktiken aufzulisten, die übernommen werden sollten.

1. Die Hauptrisiken beim Einsatz einer generativen KI-Plattform

  • Risiken im Zusammenhang mit personenbezogenen Daten

Die Frage des Schutzes personenbezogener Daten bei der Nutzung einer generativen KI-Plattform veranlasste die Datenschutzbehörde, die Nutzung von ChatGPT in Italien im April 2023 vorübergehend zu blockieren. Seitdem prüfen auch andere Länder diese Möglichkeit (Kanada, Deutschland usw.). In Frankreich ist die CNIL hat ein Kontrollverfahren eingeleitet, nachdem Beschwerden im Zusammenhang mit der Verwendung personenbezogener Daten eingereicht wurden. Gleichzeitig veröffentlichte die CNIL a Aktionsplan Ziel ist es insbesondere, die Entwicklung einer KI zu überwachen, die personenbezogene Daten respektiert, KI-Systeme zu prüfen und zu kontrollieren und Menschen zu schützen.

Selbst wenn keine behördliche oder gerichtliche Entscheidung vorliegt, ist es wahrscheinlich, dass ChatGPT in verschiedenen Punkten (Pflichten des Datenverantwortlichen, Recht auf Einschränkung der Verarbeitung, Widerspruchsrecht usw.) nicht die DSGVO einhält.2.

Da keine Informationen über die Verarbeitung der Daten vorliegen, ist es daher erforderlich, im Hinblick auf die vertraulichen Daten, die auf solchen Plattformen eingegeben werden, wachsam zu sein.

  • Die mit der Eingabe vertraulicher Daten verbundenen Risiken
Siehe auch  IM FOKUS: Wenn KI zum Mainstream wird – diese Profis nutzen ChatGPT, um ihre Arbeit besser zu machen

Soweit die eingegebenen Daten das Training von KI-Plattformen (maschinelles Lernen) ermöglichen, können sie auch alle oder einen Teil der Antworten an andere Nutzer darstellen. Daher ist es notwendig, die Vertraulichkeit der Daten zu hinterfragen (oder nicht), bevor sie in eine KI-Plattform eingegeben werden. Tatsächlich wurden beispielsweise Samsung-Mitarbeiter beschlagnahmt einige Daten in ChatGPT Dies führt zur Offenlegung vertraulicher Daten (interne Notizen, Daten zur Produktleistung, Quellcode usw.). Generell zeigt eine vom Cybersicherheitsunternehmen Cyberhaven initiierte Studie, dass 11 % der Daten, die Mitarbeiter in ChatGPT eingeben, vertraulich sind. Somit kann ChatGPT im Rahmen einer von einem Benutzer A eingegebenen Anfrage Antworten mit Daten vorschlagen, die einem Benutzer B und/oder einem Dritten gehören.

  • Risiken im Zusammenhang mit dem Dateneigentum

Wenn ein Benutzer eine Anfrage auf einer generativen KI-Plattform stellt, beantwortet diese die gestellte Frage nicht wörtlich, sondern wählt Daten aus und synthetisiert sie, um Antworten zu geben. Außerdem können diese Antworten alle oder einen Teil der Daten (vertraulich oder nicht) enthalten, die anderen Benutzern gehören.

Darüber hinaus sind die generierten Antworten möglicherweise urheberrechtlich geschützt, obwohl sich OpenAI dem Urheberrecht verpflichtet hat und ChatGPT kontinuierlich verbessert, um Verletzungen des geistigen Eigentums zu minimieren.3.

Schließlich können im Hinblick auf die Funktionsweise von KI-Plattformen und abhängig von der Art und Weise, wie die Anfrage vom Benutzer verfasst wird, die generierten Antworten auf dieselbe Frage widersprüchlich sein, ohne dass die Quellen zitiert werden, um die Elemente zu „faktenüberprüfen“. Angesichts dieser Risiken sollten bei der Nutzung dieser Plattformen bestimmte bewährte Verfahren übernommen werden, insbesondere im Zusammenhang mit der öffentlichen Auftragsvergabe.

2. Bewährte Praktiken zur Übernahme

Im Rahmen der öffentlichen Auftragsvergabe ist zwischen der Nutzung durch Käufer und der Nutzung durch Wirtschaftsteilnehmer (Bewerber oder Inhaber) zu unterscheiden.

  • Für öffentliche Auftraggeber

Wenn ein Gemeinschaft hat ihren Beauftragten vorsorglich die Nutzung von ChatGPT untersagt und in Anwendung des Vorsorgeprinzips auch ihren Dienstleistern (Konstruktionsbüros, AMO etc.) aus Gründen der Rechtssicherheit die Nutzung einer solchen Plattform untersagt.

Siehe auch  Der Chatbot ChatGPT wird den Menschen Gehälter in Höhe von bis zu 4,4 Billionen Dollar entziehen

Tatsächlich, so der stellvertretende Bürgermeister, „können wir nicht garantieren, dass die mit der Plattform ausgetauschten Informationen vor möglichen Verletzungen der Sicherheit, der Rechte oder der Vertraulichkeit geschützt sind“, räumte jedoch ein, dass „die Kontrollmittel noch nicht vorhanden sind“ und das Risiko besteht rechtliches Ungleichgewicht im Rahmen der öffentlichen Auftragsvergabe, wenn ChatGPT in wenigen Stunden einen vom Dienstleister in Rechnung gestellten Auftrag für mehrere Tage/Wochen ausführt.

In der Praxis ermöglicht diese Entscheidung, die Frage nach den Rahmenbedingungen für die Nutzung solcher Plattformen im Rahmen der Ausführung öffentlicher Aufträge zu verdeutlichen.

Ohne die Nutzung solcher Plattformen einfach zu verbieten, kann es angebracht sein, in bestimmte öffentliche Aufträge (z. B. geistige Dienstleistungen) eine Ausführungsklausel aufzunehmen, die darauf abzielt, den Inhabern zu verbieten, vertrauliche und/oder personenbezogene Daten einzugeben, um die vorbereitenden Arbeiten ganz oder teilweise zu erstellen und/oder das endgültige Ergebnis.

Darüber hinaus könnte es mit der Demokratisierung dieser Plattformen für Wirtschaftsakteure verlockend sein, sie auch bei der Vorbereitung ihrer Antworten zu nutzen.

  • Für Wirtschaftsbeteiligte

Ein Bieter für eine öffentliche Ausschreibung kann eine KI-Plattform nutzen, um seine Antwort vorzubereiten. Tatsächlich sind DCE-Daten öffentlich und über das Käuferprofil für jedermann zugänglich; Sie können daher auch dann in eine KI-Plattform eingegeben werden, wenn im DCE etwas anderes angegeben ist.

In jedem Fall müssen Kandidaten im Rahmen einer solchen Nutzung wachsam sein, wenn sie von einer KI-Plattform aus ein technisches Memorandum mit vertraulichen Daten des Unternehmens verfassen.

Tatsächlich haben einige Unternehmen im Hinblick auf die oben genannten Risiken bereits die Nutzung durch alle oder einen Teil ihrer Mitarbeiter eingeschränkt oder verboten (z. B. Samsung, apple, Amazon). Die Auswirkungen der Nutzung solcher Plattformen im beruflichen Kontext sind den allermeisten Unternehmen bislang jedoch noch nicht bewusst.

Bis es einen Regulierungsrahmen auf Ebene der Europäischen Union gibt4 und/oder Änderungen in den Vertraulichkeitsrichtlinien dieser Plattformen, müssen Unternehmen und öffentliche Auftraggeber bei der Nutzung solcher Plattformen durch ihre Mitarbeiter wachsam sein und haben zwei Möglichkeiten: entweder ihre Nutzung zu verbieten oder die Mitarbeiter zu sensibilisieren und ihre Nutzung für bestimmte Aufgaben zu regulieren und sie zu melden .

Siehe auch  Infobip stellt Erfahrungen vor: Ein Game-Changer in der Kundeninteraktion mit ChatGPT – IT News Africa

Abschluss

Die KI-Revolution steht erst am Anfang, mit noch nicht abschätzbaren Auswirkungen auf die Unternehmensproduktivität und die Folgen für die Beschäftigung. In jedem Fall wird KI eine neue Aufgabenverteilung zwischen Mensch und Maschine schaffen.

Obwohl einige KI-Plattformen offenbar nicht der DSGVO entsprechen, hat der französische Minister für Digitales erklärt, dass er nicht dafür ist eine Blockade und die EU will den Einsatz und die Kommerzialisierung von KI durch das Gesetz über künstliche Intelligenz regulieren.

Im Zusammenhang mit der öffentlichen Auftragsvergabe scheinen die Auswirkungen von KI für einige Start-ups zwar weit entfernt zu sein5 kommerzialisieren bereits KI-basierte Lösungen, um Unternehmen dabei zu helfen, Regierungsaufträge zu erkennen und besser darauf zu reagieren. Auf der Seite des öffentlichen Auftraggebers automatisieren einige Lösungen Beschaffungsaufgaben6 wenn andere Hilfe beim Schreiben von ELDs anbieten7.

Generell muss man sich darüber im Klaren sein, dass wir bisher noch nichts vom Potenzial der KI gesehen haben, wobei wir bei der Nutzung solcher Plattformen bedenken sollten: „Wenn es kostenlos ist, liegt es daran, dass man das Produkt ist“!

Baptiste Vassor, Jurist, Experte für öffentliches Beschaffungswesen und Administrator von l’APASP

[* Cet article a été écrit par un humain]


1. Open AI kündigte im März 2023 an, dass es beim Bezahlen eines Abonnements keine Benutzerdaten mehr zum Trainieren von ChatPGT verwenden werde.

2. Open AI gibt an, dass ChatPGT die „California Privacy Rights“ einhält.

3. Artikel L. 122-4 des Gesetzes über geistiges Eigentum: „Jede Darstellung oder Vervielfältigung ganz oder teilweise, die ohne Zustimmung des Autors oder seiner Rechtsnachfolger oder Zessionare erfolgt, ist rechtswidrig.“ Das Gleiche gilt für die Übersetzung, Bearbeitung oder Transformation, Anordnung oder Reproduktion durch irgendeine Kunst oder ein Verfahren welcher Art auch immer.“

4. Gesetz über künstliche Intelligenz: Hier ist, was die Europäische Union zur Regulierung von KI vorbereitet

5. Ex. : erklären

6.Ex. : Feuerstein

7. Ex. : MA-IA

[ad_2]

4.8/5 - (60 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein