[ad_1]

KI-Ethik war ein kompliziertes Thema, noch bevor chatgpt (und andere Large Language Models (LLMs)) und generative KI auf den Plan traten. In diesem Artikel behandeln wir, wie LLMs und generative KI die Ethiklandschaft verändert haben und was Unternehmen tun können, um mitzuhalten und weiterzumachen.

KI-Ethik ist ein umfangreiches und komplexes Thema. Auf hoher Ebene besteht die Absicht der ethischen KI darin, sicherzustellen, dass Systeme und Technologien im Einklang mit menschlichen Wertesystemen und der Sorge um die Umwelt erstellt werden und funktionieren. Im Rahmen dieses umfassenden Ziels besteht die KI-Ethik aus mehreren Komponenten, die hier beschrieben werden.

Wo passen große Sprachmodelle hinein?

Große Sprachmodelle berücksichtigen alle Bedenken der KI-Ethik und verstärken viele davon. Wenn man bedenkt, wie allgegenwärtig sie geworden sind und in so kurzer Zeit, werden ethische Fragen noch relevanter. Einige Beispiele für die ethischen Fragen von LLMs:

Hinweis: Halluzinationen schließe ich nicht ein, da Fehler ein wesentlicher Bestandteil jedes KI-Modells sind.

Wo passt generative KI hinein?

Die Beziehung zwischen generativer KI und LLMs wird je nachdem, wen Sie fragen, unterschiedlich definiert. Eine gute Definition ist jedoch, dass LLMs eine Teilmenge der generativen KI sind, da sie Text generiert. LLMs verfügen jedoch auch über starke Fachkenntnisse in textbasierten Abfragen. Für den Zweck dieses Artikels können wir die ethischen Herausforderungen der generativen KI so betrachten, dass sie alle Herausforderungen von LLMs sowie zusätzliche Herausforderungen im Zusammenhang mit Modellen umfassen, die Inhalte in mehreren Modalitäten (Bild, Video, Ton usw.) generieren.

Siehe auch  Copilot, Microsofts ChatGPT ist auf dem iPhone verfügbar

Was sagen die Gesetze?

Die Gesetze in diesem Bereich sind noch in den Kinderschuhen. Zum Beispiel, Es ist unklar, wer das Urheberrecht an einem KI-generierten Kunstwerk besitzt. Es gibt Debatte in der Europäischen Union über ChatGPT und den möglichen Verstoß gegen die DSGVO. Wie im obigen Abschnitt erwähnt, haben auch Klagen bezüglich des Eigentums an Inhalten begonnen, was dem Rechtssystem dann die Möglichkeit geben wird, Rechtsprechungsbewertungen des Eigentums an Inhalten anzubieten.

Welche neuen Technologien werden entwickelt?

Einige Beispiele für Technologien, die entwickelt werden, um diesen Problemen entgegenzuwirken

  • Varianten menschlichen Feedbacks, die in das Lernen integriert werden. Reinforcement Learning mit menschlichem Feedback (RLHF) ist ein Prozess, bei dem Menschen Feedback zu den Ergebnissen beispielsweise eines LLM geben. Diese Rückmeldungen werden verwendet, um eine Richtlinien-Engine zu erstellen, mit der das LLM die Kandidatenausgaben auswählen kann, die für Menschen am akzeptabelsten sind. Es wird allgemein angenommen, dass ChatGPT RLHF verwendet, während ein Konkurrent, Anthropic, eine Alternative vorgeschlagen hat – Verfassungsmäßige KI, bei dem anstelle von aktivem menschlichem Feedback ein strukturiertes Regelsystem verwendet wird, das menschliche Werte/Präferenzen repräsentiert. In beiden Fällen besteht die Absicht der Technologie darin, die Ergebnisse der KI an menschlichen Werten und Vorlieben auszurichten.
  • Verlernen. Ein Schlüssel zur Wahrung der Privatsphäre und guter Datenpraktiken besteht darin, zu kontrollieren (und sich darüber im Klaren zu sein), welche Daten in ein KI-Modell einfließen. Unter Verlernen versteht man die Technologie, bei der KI-Modelle ausgewählte Datenelemente „vergessen“ oder aus ihrem Verständnis eliminieren können. Die Bedeutung der Weiterentwicklung des Verlernens wird hervorgehoben durch google’s recent announcement of a competition to drive new unlearning advances“>Google hat kürzlich einen Wettbewerb angekündigt, um neue Fortschritte beim Verlernen voranzutreiben.
Siehe auch  Code Llama von Meta ist jetzt herausgekommen, um ChatGPT herauszufordern und Programmierern und IT-Ingenieuren bei der Arbeit zu helfen

Was können Sie für Ihr Unternehmen tun?

Vieles ist über diese Technologien noch unbekannt, aber es gibt einige Dinge, die Sie tun können, um Ihr Unternehmen zu schützen.

  • Verstehen Sie die Quelle Ihrer KI-Technologien. Wenn sie intern erstellt werden, sollten Sie verstehen, welche Daten (insbesondere Kundendaten) sie verwenden. Wenn sich beispielsweise ein Kunde später dazu entschließt, sich abzumelden, und verlangt, dass alle seine Daten aus Ihren Modellen entfernt werden – wissen Sie, wie das geht? Wenn Sie externe APIs (z. B. von anderen Parteien erstellte und bereitgestellte Modelle) verwenden, sollten Sie sich darüber im Klaren sein, welche Daten Sie diesen auch in Ihren Abfragen bereitstellen und ob dies für Ihr Unternehmen akzeptabel ist.
  • Treffen Sie je nach Bedarf Entscheidungen zwischen Bau und Kauf. Beispielsweise könnten generische (nicht private) Abfragen, die am besten von einem großen Modell beantwortet werden, für lizenzierte APIs geeignet sein, anstatt ein umfangreiches generisches Modell intern zu trainieren. Sensible Abfragen (unabhängig davon, ob sie private Kundendaten oder Ihre eigene IP enthalten) können von maßgeschneiderten internen Modellen profitieren. Selbst wenn ein internes Modell erstellt wird, stellen Sie sicher, dass Sie die Quelle verstehen, da viele im Code erstellte Modelle häufig ein aus dem Internet heruntergeladenes Startermodell verwenden.
  • Bleiben Sie über die neuesten rechtlichen Entwicklungen in Ihrem Unternehmensbereich auf dem Laufenden. Dieser Bereich bewegt sich sehr schnell und es gibt keine klaren Antworten, und die Ergebnisse dieser Entwicklungen werden mehr Licht auf die Meinung der Regierung werfen.

Folge mir auf Twitter oder LinkedIn.

[ad_2]

4.6/5 - (285 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein