[ad_1]
Die jüngste Entscheidung der Federal Trade Commission, eine Untersuchung gegen den Entwickler künstlicher Intelligenz OpenAI und seine großen Sprachmodelle einzuleiten, verdeutlicht viele der einzigartigen Aspekte der Technologie und wie sie in bestehende rechtliche und regulatorische Rahmenbedingungen passt.
Die Untersuchung der FTC geht in erster Linie auf eine Beschwerde gegen OpenAI zurück, die am 30. März 2023 vom Center for Artificial Intelligence and Digital Policy eingereicht wurde. Die in der Beschwerde hervorgehobenen Probleme sind weitreichend, aber mehrere wiederkehrende Themen berühren die grundlegenden Herausforderungen, die es nicht nur gibt einzigartig für OpenAI, aber zumindest teilweise auch intrinsisch für die zugrunde liegende Technologie von LLMs als Ganzes.
Zu diesen wiederkehrenden Themen gehören Voreingenommenheit, schädliche oder beleidigende Inhalte und mangelnde Transparenz in der Funktionsweise des LLM.
Die reflektierte Voreingenommenheit der KI
Das CAIDP hat seine Besorgnis über Voreingenommenheit im OpenAI-Sprachmodell GPT-4 geäußert. Diese Kritik spiegelt eine umfassendere, seit langem bestehende Besorgnis über Voreingenommenheit in der KI, insbesondere in LLMs, wider. Diese hochentwickelten Modelle werden anhand riesiger Datensätze trainiert, darunter Billionen von Datenpunkten, die stets von menschlichen Vorurteilen beeinflusst werden. Diese Verzerrung ist in den Daten verankert, aus denen die KI-Modelle lernen, was zu einer unausweichlichen Widerspiegelung dieser Verzerrungen in der KI-Ausgabe führt.
Die entmutigende Aufgabe, Verzerrungen aus diesen riesigen Datensätzen zu beseitigen, ist nahezu unmöglich. Jeder Datensatz, egal wie sorgfältig kuratiert, ist ein Spiegelbild unserer Gesellschaft und ihrer inhärenten Vorurteile. Darüber hinaus können die Vorstellungen darüber, was eine Verzerrung darstellt, sehr unterschiedlich sein, was zu Meinungsverschiedenheiten darüber führt, ob ein bestimmter Datensatz eine Verzerrung enthält.
Solange die menschliche Gesellschaft daher weiterhin mit Vorurteilen zu kämpfen hat, werden LLMs, die auf Daten und Informationen geschult sind, die größtenteils von Menschen erstellt oder stark beeinflusst werden, diese wahrscheinlich widerspiegeln.
Schädliche oder anstößige Inhalte erkennen
Ein weiteres wesentliches Problem, das in der CAIDP-Beschwerde aufgeworfen wird, ist die Generierung schädlicher oder anstößiger Inhalte durch GPT-4. Auf die Gefahr hin, zu stark zu vereinfachen, arbeiten LLMs auf einer Wahrscheinlichkeitsbasis und wählen die genaueste Gruppierung von Wörtern basierend auf der Eingabe und der Kontextualisierung aus. Dem Modell fehlt jedoch die Fähigkeit, konsistent zu erkennen, ob eine bestimmte Wortgruppe schädlich oder beleidigend ist.
Ein ähnliches Problem sind die häufig gemeldeten „Halluzinationen“, bei denen das LLM Informationen generiert, die in den Eingabedaten nicht vorhanden oder impliziert sind. Dies ist eine inhärente Folge des Versuchs des LLM, eine kohärente und kontextbezogene Antwort zu generieren, und kann gelegentlich zu ungenauen, irreführenden oder möglicherweise schädlichen Ergebnissen führen.
Allerdings sind „Genauigkeit“ und „schädlich“ keine Konzepte, für die LLMs konzipiert sind, und das unten angesprochene „Black-Box“-Problem stellt eine weitere Herausforderung bei der Bewältigung dieses Problems dar.
OpenAI hat bestimmte Schritte unternommen, um dieses Problem zu entschärfen, indem es sich weigert, auf Eingabeaufforderungen einzugehen, die darauf abzielen, schädliche oder beleidigende Reaktionen hervorzurufen. Diese Filterung erfolgt jedoch wahrscheinlich auf einer anderen Ebene des Technologie-Stacks als das LLM selbst, und es ist eine große Herausforderung, sicherzustellen, dass niemals potenziell schädliche oder anstößige Ausgaben generiert werden.
Das Hinzufügen umfangreicher Leitplanken könnte die inhärenten Vorteile der Technologie zunichte machen. Darüber hinaus wird die Verfügbarkeit von Open-Source-LLMs wahrscheinlich mehr Menschen von den großen, zentralisierten Anbietern abhalten, wenn Leitplanken dazu führen, dass diese Produkte deutlich weniger nützlich sind.
Darüber hinaus sind die Definitionen dessen, was schädliche oder beleidigende Inhalte darstellt, ähnlich wie bei der Voreingenommenheitsproblematik weitgehend subjektiv und variieren von Kultur zu Kultur, was diesem Problem eine weitere Ebene der Komplexität verleiht.
Transparenz und das Black-Box-Problem
Ein wesentliches Anliegen, das in der CAIDP-Beschwerde geäußert wird, ist der vermeintliche Mangel an Transparenz und Erklärbarkeit in GPT-4. Dies ist ein bekanntes Problem im Bereich der KI, das oft als „Black-Box“-Problem bezeichnet wird.
KI-Systeme, insbesondere solche, die auf Deep Learning wie GPT-4 basieren, sind komplex und kompliziert, oft in einem Ausmaß, dass ihr Innenleben selbst für ihre Entwickler im Dunkeln bleibt. Bei LLMs wie GPT-4 nimmt das Modell eine Textaufforderung als Eingabe auf und generiert eine entsprechende Textausgabe. Der Prozess, mit dem das Modell auf der Grundlage unzähliger Parameter und der während des Trainings erlernten Sprachnuancen die beste Reaktion ermittelt, ist jedoch nicht leicht zu erklären oder zu verstehen.
Dieser Mangel an Transparenz kann zu Unsicherheit und Misstrauen führen, da Benutzer möglicherweise nicht verstehen, warum das KI-System eine bestimmte Entscheidung oder Vorhersage getroffen hat.
Der jüngste Einsatz von GPT-4 durch OpenAI zur Analyse der Funktionsweise seiner früheren Versionen und zur Gewinnung von Erkenntnissen ist ein klarer Beweis für dieses Problem. Es zeigt, dass selbst die Entwickler dieser Modelle dieselben Modelle verwenden müssen, um die Komplexität ihrer eigenen Technologie zu entschlüsseln.
Diese inhärente Undurchsichtigkeit von KI-Systemen ist ein dringendes Problem in der KI-Ethik und -Regulierung, da sie Fragen zur Rechenschaftspflicht, zum Vertrauen und zur Kontrolle bei KI-gesteuerten Entscheidungen aufwirft. Es handelt sich um ein Problem, mit dem sich die KI-Community weiterhin auseinandersetzt, und es unterstreicht die Notwendigkeit fortlaufender Forschung und Diskussion über Transparenz und Erklärbarkeit.
Eine weit verbreitete Herausforderung
Während die CAIDP-Beschwerde speziell auf OpenAI abzielt, betreffen die ans Licht gebrachten Probleme nicht nur OpenAI. Andere LLMs wie Googles Bard könnten möglicherweise vor ähnlichen Herausforderungen stehen. CAIDP hat seine Beschwerde über OpenAI wahrscheinlich verfasst, weil es derzeit die KI-Landschaft dominiert.
Die in der Beschwerde angesprochenen Themen sind jedoch für die gesamte KI-Community von größter Relevanz. Die Probleme der Voreingenommenheit, des Potenzials für schädliche Inhalte und der mangelnden Transparenz sind Probleme, die sich aus dem Wesen der Entwicklung und Funktionsweise von LLMs ergeben.
Diese zum Nachdenken anregenden Themen haben weitreichende Auswirkungen auf die Zukunft der KI, und Regulierungsbehörden und die globale KI-Gemeinschaft werden sich mit diesen Bedenken auseinandersetzen müssen, da sich die KI-Technologie weiterentwickelt und verschiedene Aspekte unseres Lebens durchdringt.
Diese Probleme unterstreichen auch die Notwendigkeit kollektiver Verantwortung und eines Dialogs, um Lösungen zu finden, die das immense Potenzial der KI mit der Notwendigkeit ethischer und fairer Praktiken in Einklang bringen.
Dieser Artikel spiegelt nicht unbedingt die Meinung von Bloomberg Industry Group, Inc., dem Herausgeber von Bloomberg Law und Bloomberg Tax, oder seiner Eigentümer wider.
Informationen zum Autor
Austin Mills ist Partner im Corporate Technology-Bereich von Morris, Manning & Martin und Vorsitzender der Blockchain- und Kryptowährungsgruppe.
Schreiben Sie für uns: Autorenrichtlinien
[ad_2]