KI-Ethik war ein kompliziertes Thema, noch bevor chatgpt (und andere Large Language Models (LLMs)) und generative KI auf den Plan traten. In diesem Artikel behandeln wir, wie LLMs und generative KI die Ethiklandschaft verändert haben und was Unternehmen tun können, um mitzuhalten und weiterzumachen.
KI-Ethik ist ein umfangreiches und komplexes Thema. Auf hoher Ebene besteht die Absicht der ethischen KI darin, sicherzustellen, dass Systeme und Technologien im Einklang mit menschlichen Wertesystemen und der Sorge um die Umwelt erstellt werden und funktionieren. Im Rahmen dieses umfassenden Ziels besteht die KI-Ethik aus mehreren Komponenten, die hier beschrieben werden.
Wo passen große Sprachmodelle hinein?
Große Sprachmodelle berücksichtigen alle Bedenken der KI-Ethik und verstärken viele davon. Wenn man bedenkt, wie allgegenwärtig sie geworden sind und in so kurzer Zeit, werden ethische Fragen noch relevanter. Einige Beispiele für die ethischen Fragen von LLMs:
Hinweis: Halluzinationen schließe ich nicht ein, da Fehler ein wesentlicher Bestandteil jedes KI-Modells sind.
Wo passt generative KI hinein?
Die Beziehung zwischen generativer KI und LLMs wird je nachdem, wen Sie fragen, unterschiedlich definiert. Eine gute Definition ist jedoch, dass LLMs eine Teilmenge der generativen KI sind, da sie Text generiert. LLMs verfügen jedoch auch über starke Fachkenntnisse in textbasierten Abfragen. Für den Zweck dieses Artikels können wir die ethischen Herausforderungen der generativen KI so betrachten, dass sie alle Herausforderungen von LLMs sowie zusätzliche Herausforderungen im Zusammenhang mit Modellen umfassen, die Inhalte in mehreren Modalitäten (Bild, Video, Ton usw.) generieren.
- Inhaltseigentum: Es wurden Klagen wegen Eigentumsrechten an Inhalten erhoben, mit Themen, die alle Inhaltsmodalitäten abdecken. Der Fokus liegt besonders stark auf der Creator Economy, wo generative KI ganze traditionelle Geschäftsmodelle auf den Kopf stellen kann. Dies gilt für alle Medientypen inklusive Text.
- Fehlinformation: Gilt wiederum für alle Medientypen, einschließlich Text. Generative KI kann sehr realistische gefälschte Bilder, Nachrichtenartikel usw. erstellen, deren Erkennung immer schwieriger wird. Darüber hinaus können generative KI und LLM-gestützte Chatbots erstellen eine neue Ära der Einmischung in die sozialen Medien.
Was sagen die Gesetze?
Die Gesetze in diesem Bereich sind noch in den Kinderschuhen. Zum Beispiel, Es ist unklar, wer das Urheberrecht an einem KI-generierten Kunstwerk besitzt. Es gibt Debatte in der Europäischen Union über ChatGPT und den möglichen Verstoß gegen die DSGVO. Wie im obigen Abschnitt erwähnt, haben auch Klagen bezüglich des Eigentums an Inhalten begonnen, was dem Rechtssystem dann die Möglichkeit geben wird, Rechtsprechungsbewertungen des Eigentums an Inhalten anzubieten.
Welche neuen Technologien werden entwickelt?
Einige Beispiele für Technologien, die entwickelt werden, um diesen Problemen entgegenzuwirken
- Varianten menschlichen Feedbacks, die in das Lernen integriert werden. Reinforcement Learning mit menschlichem Feedback (RLHF) ist ein Prozess, bei dem Menschen Feedback zu den Ergebnissen beispielsweise eines LLM geben. Diese Rückmeldungen werden verwendet, um eine Richtlinien-Engine zu erstellen, mit der das LLM die Kandidatenausgaben auswählen kann, die für Menschen am akzeptabelsten sind. Es wird allgemein angenommen, dass ChatGPT RLHF verwendet, während ein Konkurrent, Anthropic, eine Alternative vorgeschlagen hat – Verfassungsmäßige KI, bei dem anstelle von aktivem menschlichem Feedback ein strukturiertes Regelsystem verwendet wird, das menschliche Werte/Präferenzen repräsentiert. In beiden Fällen besteht die Absicht der Technologie darin, die Ergebnisse der KI an menschlichen Werten und Vorlieben auszurichten.
- Verlernen. Ein Schlüssel zur Wahrung der Privatsphäre und guter Datenpraktiken besteht darin, zu kontrollieren (und sich darüber im Klaren zu sein), welche Daten in ein KI-Modell einfließen. Unter Verlernen versteht man die Technologie, bei der KI-Modelle ausgewählte Datenelemente „vergessen“ oder aus ihrem Verständnis eliminieren können. Die Bedeutung der Weiterentwicklung des Verlernens wird hervorgehoben durch google’s recent announcement of a competition to drive new unlearning advances“>Google hat kürzlich einen Wettbewerb angekündigt, um neue Fortschritte beim Verlernen voranzutreiben.
Was können Sie für Ihr Unternehmen tun?
Vieles ist über diese Technologien noch unbekannt, aber es gibt einige Dinge, die Sie tun können, um Ihr Unternehmen zu schützen.
- Verstehen Sie die Quelle Ihrer KI-Technologien. Wenn sie intern erstellt werden, sollten Sie verstehen, welche Daten (insbesondere Kundendaten) sie verwenden. Wenn sich beispielsweise ein Kunde später dazu entschließt, sich abzumelden, und verlangt, dass alle seine Daten aus Ihren Modellen entfernt werden – wissen Sie, wie das geht? Wenn Sie externe APIs (z. B. von anderen Parteien erstellte und bereitgestellte Modelle) verwenden, sollten Sie sich darüber im Klaren sein, welche Daten Sie diesen auch in Ihren Abfragen bereitstellen und ob dies für Ihr Unternehmen akzeptabel ist.
- Treffen Sie je nach Bedarf Entscheidungen zwischen Bau und Kauf. Beispielsweise könnten generische (nicht private) Abfragen, die am besten von einem großen Modell beantwortet werden, für lizenzierte APIs geeignet sein, anstatt ein umfangreiches generisches Modell intern zu trainieren. Sensible Abfragen (unabhängig davon, ob sie private Kundendaten oder Ihre eigene IP enthalten) können von maßgeschneiderten internen Modellen profitieren. Selbst wenn ein internes Modell erstellt wird, stellen Sie sicher, dass Sie die Quelle verstehen, da viele im Code erstellte Modelle häufig ein aus dem Internet heruntergeladenes Startermodell verwenden.
- Bleiben Sie über die neuesten rechtlichen Entwicklungen in Ihrem Unternehmensbereich auf dem Laufenden. Dieser Bereich bewegt sich sehr schnell und es gibt keine klaren Antworten, und die Ergebnisse dieser Entwicklungen werden mehr Licht auf die Meinung der Regierung werfen.