MADRID, 28. November (Portaltic/EP) –
Cybersicherheitsexperten haben die Benutzer durch die Einführung gewarnt Informationen und personenbezogene Daten der Teilnehmer der generativen Künstlichen Intelligenz (KI) als chatgpt, diese bleiben bestehen registriert und können zur weiteren Schulung der Anwendung wiederverwendet werdenalso impliziert es „die Kontrolle über sie verlieren“ und mit Konsequenzen für die Privatsphäre rechnen müssen.
Derzeit gibt es verschiedene generative KI-Technologien die Benutzer regelmäßig verwenden verschiedene Aufgaben ausführen, sowohl im persönlichen als auch im beruflichen Umfeld. So können Sie beispielsweise eine erstellen präzise Suche nach Informationen, Texte schreiben in verschiedenen Formaten, übersetzen Geschichten in verschiedenen Sprachen, Produkte vergleichen und Empfehlungen geben.
Zu den bekanntesten Tools in diesem Bereich zählen Konversationsassistenten ChatGPT, entwickelt von OpenAI, das ist angekommen mehr als 100 Millionen aktive wöchentliche Benutzers in weniger als einem Jahr, und Bard, von google.
In diesem Sinne ist die Experten des Cybersicherheitsunternehmens Secure&IT habe davor gewarntmöglich Folgen der Eingabe persönlicher Informationen und Daten bei Interaktionen mit dieser Art von Teilnehmerndas diese Daten aufzeichnen kann, um die KI weiter zu trainieren und somit die Kontrolle über persönliche Daten verlieren.
So, wie von der erklärt IKT-Rechtsberaterin bei Secure&IT, Natalia Patiño, In einer Erklärung müssen Sie dies berücksichtigen, um ChatGPT korrekt verwenden zu könnenEs geht um einen Werkzeug, das die menschliche Arbeit „erleichtert oder ergänzt“, was es aber „nicht ersetzt“.
In diesem Rahmen hat er darauf hingewiesen „Es ist kein unfehlbares Werkzeug“ und dass, um Risiken zu vermeiden, „Seine Verwendung sollte immer überprüft werden.“ Ebenso hat er das auch betont Es ist keine Technologie, die in der Lage ist, zu argumentieren, Vielmehr sind seine Antworten mit den Daten verknüpft, mit denen es zuvor trainiert wurde.
TRANSFERLERNEN
Mit all dem hat Secure&IT das erklärt ChatGPT funktioniert unter Verwendung einer Lerntechnik namens „Lernen übertragen“. Das ist ein Training basierend auf einem großen Datensatz welches wiederum die Ergebnisse nutzt, um das Lernmodell weiter zu trainieren.
Auf diese Weise kann der Benutzer bei der Interaktion mit dem „Chatbot“ Geben Sie eine Anfrage ein und danach die Das Modell passt seine Antwort basierend auf den Anforderungen an durch den Benutzer und Kontextdaten, die Sie bereitgestellt haben. Dank dieses Systems ist der Assistent dazu in der Lage generieren immer präzisere Antworten und das ähnelt der Reaktion eines Menschen.
Experten haben jedoch betont, dass im Detailprozess KI-Tools zum Einsatz kommen „„alle Daten, die Benutzer eingeben“ und darüber hinaus werden diese Daten aufgezeichnet und können wiederverwendet werden. Daher muss dies der Fall sein Überlegen Sie, welche Informationen mit dem Chatbot geteilt werden und ob diese Daten personenbezogen sind.
Laut Patiño „„Die Einführung personenbezogener Daten und allgemein vertraulicher Informationen bedeutet, dass die Kontrolle über diese Daten und Informationen verloren geht.“ Unter personenbezogenen Daten versteht man somit alle Informationen, die sich auf eine „identifizierte oder identifizierbare“ natürliche Person beziehen.
Ebenso sollten Benutzer, wie empfohlen, dies vermeiden direkt identifizierbare Daten eingeben, sowie die Daten, die „Indirekt können sie zur Identifizierung führen.“ „Es ist sehr wichtig, diese Art von Informationen nicht in Abfragen einzubeziehen, insbesondere angesichts der Tatsache, dass derzeit KI-basierte Chats im Allgemeinen sehr undurchsichtig sind“, erklärte Patiño.
QUALITÄT DER CHATGPT-ANTWORTEN UND BIAS
Von Secure&IT wurde ebenfalls darauf hingewiesen, dass die Die Qualität der Antwort des Assistenten wird durch die Qualität der „Eingabeaufforderung“ bestimmt. die der Benutzer eingibt, also wie die erforderliche Aktion angefordert wird und welcher Kontext geteilt wurde. Daher ein Eintrag Angemessener Inhalt muss „klar“ sein und Schlüsselwörter enthalten die der KI helfen, die am besten geeignete Reaktion zu konstruieren.
Cybersicherheitsexperten haben jedoch betont, dass trotz alledem kann zu falschen oder unvollständigen Antworten führen. Sie können sogar empfangen Antworten mit „Halluzinationen“da der „Chatbot“ scheinbar logische und überzeugende Informationen liefern kann, in Wirklichkeit ist er es aber falsch oder erfunden.
Ein weiterer Faktor, der bei der Verwendung von KI-Tools wie ChatGPT berücksichtigt werden muss, sind die verschiedene Arten von Vorurteilen Das kann die Antworten verbergen. Ein Beispiel ist das Feedback-Voreingenommenheitwas auftritt, wenn bei der Verwendung von Benutzerfeedback zum Trainieren KI-Systeme „verewigen bestehende Vorurteile und Stereotypen.“
Laut Patiño liegt ein Fall von Feedback-Bias vor Alters- und Geschlechtsdiskriminierung im Arbeitsumfeldda ChatGPT weiterhin die Einstellung von Personen über 45 Jahren stoppen oder nur Profile von Männern für Führungspositionen anzeigen kann, „wenn das KI-Modell für die Kandidatenauswahl bereits voreingenommene Vorinformationen erlernt.“
Angesichts all dessen ist die europäische Union arbeitet bereits daran, den Einsatz von KI zu regulieren. Tatsächlich befindet sich Europa, wie Secure&IT erinnert, bereits in der „Endphase“ der Verabschiedung der KI-Verordnung. Diese Regelung beruht auf a Reihe gesetzlicher Regelungen zur Bewältigung technischer Aspekte, ethischer Fragen und anderer Herausforderungen Einsatzmöglichkeiten, die KI in mehreren Sektoren bietet.