Entwickler und Politiker fordern gleichermaßen eine Form der KI-Kontrolle. Und gleichzeitig entwickelt sich die KI mit der schnellsten Geschwindigkeit in der Geschichte.

Die Macher von chatgpt: OpenAI-CEO Sam Altman und GPT-Chefentwickler Greg Brockman und Ilya Sutzkever haben auf der Website des Unternehmens einen Beitrag veröffentlicht, in dem sie ihre Vision von der Zukunft der KI beschreiben. Sie nannten die Kolumne „Managing Superintelligence“. Hierbei handelt es sich nicht um ein offizielles Dokument des Unternehmens, sondern um die private Meinung führender Experten in der Entwicklung von KI. Sie beginnen mit einer kühnen Vorhersage: „Angesichts des Bildes, das wir jetzt sehen, können wir davon ausgehen, dass KI-Systeme in den nächsten zehn Jahren das Fachwissen von Experten in den meisten Bereichen übertreffen und genauso produktiv sein werden wie die größten Unternehmen von heute.“

Eine solche Prognose basiert in erster Linie auf der Entwicklungsgeschwindigkeit eines großen linguistischen Modells der generativen KI – GPT, erstellt von OpenAI. Diese Preise sind wirklich beeindruckend. Die Fortschritte zwischen ChatGPT 3.5 (gestartet im November 2022) und ChatGPT 4.0 (April 2023) hinterließen nicht nur bei Fachleuten, sondern auch bei der Öffentlichkeit einen besonders starken Eindruck. Der Schock war so groß, dass Elon Musk, der schon lange vor den Gefahren der KI warnt, und eine Reihe von Experten einen Stopp der Entwicklung generativer KI forderten.

Das Gemälde wurde mit dem DALL-E-System von OpenAI erstellt.

Das Gemälde wurde mit dem DALL-E-System von OpenAI erstellt.

OpenAI

WERBUNG – FORTSETZUNG UNTEN

Musk forderte in seinem Brief, die Entwicklung großer Sprachmodelle wie GPT für sechs Monate zu stoppen. Nun haben die GPT-Entwickler diesem Aufruf zugestimmt. Sie schrieben, dass die Entwicklung großer Systeme kontrolliert werden sollte und manchmal verlangsamt werden könne. Wer entscheidet, ob es Zeit ist, langsamer zu werden? Eine internationale Agentur ist ein Analogon zur IAEA (der Atomenergiebehörde der Vereinten Nationen). Und eine solche Agentur sollte geschaffen werden.

Siehe auch  Seouls Bezirk Yangcheon veranstaltet englischen Sprachwettbewerb mithilfe der ChatGPT-KI-Technologie

Gary Markus (links) und Sam Altman bei einer Anhörung im US-Senat

Gary Markus (links) und Sam Altman bei einer Anhörung im US-Senat

WP

Sam Altman hat im Weißen Haus und im US-Senat gesprochen und Fragen besorgter Politiker beantwortet. Auch die Entwicklung von KI wurde beim G7-Gipfel diskutiert. Und sie beschlossen auch, dort eine KI-Kontrollbehörde zu gründen. Die Diskussion hat bereits begonnen. Und noch vor Jahresende sollen die ersten Vorschläge erscheinen. Es ist nicht ganz klar, wie sich all diese Steuerungssysteme auf die unglaublich schnelle Entwicklung einer Vielzahl von KI-Anwendungen auswirken werden.

Warum Angst haben? Es gibt ein paar Punkte, über die immer gesprochen wird, wenn es um „schlechte“ KI geht. Und es ist normalerweise nicht die Angst, dass KI alle möglichen Jobs übernehmen wird. Die Tatsache, dass KI höchstwahrscheinlich keine Arbeitsplätze wegnehmen, sondern den Arbeitsmarkt neu formatieren wird (und das wird morgen überhaupt nicht passieren), wird von vielen, wenn auch nicht allen, verstanden.

Einfügen einer Form in ein Bild

Einfügen einer Form in ein Bild

Einfügen einer Form in ein Bild. https://arxiv.org/abs/2304.14406

Was mich am meisten beunruhigt, sind die Fälschungen. Sowohl tief als auch nicht so tief. Beispielsweise wurde diese Woche ein System angekündigt, das das Bild einer Person perfekt in jede Szene einfügt. Dies ist kein Kopieren und Einfügen. Das System generiert sozusagen die Szene neu, allerdings mit einer Person darin. Es ist nahezu unmöglich, eine Fälschung zu erkennen. Das System wurde natürlich mit guten Absichten entwickelt. Es ermöglicht beispielsweise eine virtuelle Anprobe von Kleidung. Ja, das ist auch möglich. Aber es ist noch etwas anderes möglich. Und nicht immer harmlos. Sam Altman und seine Kollegen sagen, dass von KI erstellte Bilder und Texte eine Art „Wasserzeichen“ enthalten sollten, damit andere KI sie leicht finden können. Aber das ist offenbar nicht immer möglich.

Siehe auch  Boston Dynamics hat seinen Roboterhund mit ChatGPT in einen sprechenden Reiseleiter verwandelt

Studierende sind eine Risikogruppe für KI-Anwendungen

Studierende sind eine Risikogruppe für KI-Anwendungen

Unsplash.com

Beispielsweise gibt es heute KI-Systeme (sogenannte Detektoren), die maschinell generierte Texte erkennen müssen. Aber sie sind äußerst unzuverlässig. Mindestens 20 % der von Menschen geschriebenen Texte, alle heute existierenden Detektoren gelten als von einer Maschine geschaffen. Dies ist sehr gefährlich, da es dazu führt, dass Menschen des Plagiats beschuldigt werden. Studierende sind die am stärksten gefährdete Gruppe. Typischerweise führen maschinelle Textdetektoren Maschinentexte zu, die von Nicht-Muttersprachlern der englischen Sprache geschrieben wurden. Und es ist klar, dass beispielsweise beim Bestehen des TOEFL ein solcher Detektor nicht verwendet werden kann. Doch genau hier liegt die größte Schwachstelle: Es besteht eine hohe Wahrscheinlichkeit, dass ein skrupelloser Student den GPT um Hilfe für den TOEFL „bittet“. Aber wenn man irgendwo noch ein Wasserzeichen in ein Bild einbetten kann, dann ist nicht klar, wo man es in einen kurzen Text einbetten soll.

Es gibt noch einen weiteren Punkt, der mit der Verwendung von ChatGPT und anderen Chatbots bei der Suche zusammenhängt. Chatbots liefern raffinierte, scheinbar hilfreiche Antworten. Aber das ist auf den ersten Blick. Geprüft. Es stellte sich heraus, dass die „scheinbare Zuverlässigkeit“ der Antworten tatsächlich nicht gut, sondern schlecht ist. Denn es verschleiert ein eher düsteres Bild: Etwa die Hälfte der Aussagen wurde nicht durch Beweise untermauert, in einem Viertel der Zitate führten die Links völlig in die falsche Richtung. Goethe ein Zitat von Schiller zuzuschreiben oder ihm auch nur etwas Neues hinzuzufügen, ist immer noch das Harmloseste. Bei einer schnellen Suche vertieft sich eine Person normalerweise nicht allzu sehr in die Ermittlung der Linkzuverlässigkeit. Und Chatbots artikulieren ziemlich reibungslos. Wir nehmen, was sie sagen. Und das Ergebnis ist nicht großartig.

Siehe auch  Einsatz von Technologie zur Essensplanung: ChatGPT und BuzzFeed

Dennoch bleibt für die Entwickler von ChatGPT, für Elon Musk und für andere Experten die Frage: Gibt es wirklich keine andere Möglichkeit, die Menschheit vor KI zu schützen, außer einem globalen Kontrollsystem (im Wesentlichen staatliche und internationale Zensur)? Sie scheinen keinen anderen Weg zu kennen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein