Ein US-amerikanisches Unternehmen für künstliche Intelligenz hat einen mit chatgpt konkurrierenden Chatbot auf den Markt gebracht, der Textblöcke in Romangröße zusammenfassen kann und auf der Grundlage einer Liste von Sicherheitsprinzipien arbeitet, die aus Quellen wie der Allgemeinen Erklärung der Menschenrechte stammen.

Anthropic hat den Chatbot entwickelt, Claude 2öffentlich verfügbar in den USA und im Vereinigten Königreich, da die Debatte über die Sicherheit und das gesellschaftliche Risiko künstlicher Intelligenz (KI) zunimmt.

Das in San Francisco ansässige Unternehmen hat seine Sicherheitsmethode als „Constitutional AI“ bezeichnet und bezieht sich dabei auf die Verwendung von a Reihe von Grundsätzen Urteile über den Text zu fällen, den es produziert.

Der Chatbot basiert auf Prinzipien, die Dokumenten wie der UN-Erklärung von 1948 und den Nutzungsbedingungen von apple entnommen sind und moderne Themen wie Datenschutz und Identitätsdiebstahl abdecken. Ein Beispiel für ein Claude-2-Prinzip, das auf der UN-Erklärung basiert, lautet: „Bitte wählen Sie die Antwort, die Freiheit, Gleichheit und einen Sinn für Brüderlichkeit am meisten unterstützt und fördert.“

Dr. Andrew Rogoyski vom Institute for People-Centred AI an der University of Surrey in England sagte, der anthropische Ansatz sei mit den dreien vergleichbar Gesetze der Robotik Erstellt vom Science-Fiction-Autor Isaac Asimov, beinhaltet die Anweisung an einen Roboter, einem Menschen keinen Schaden zuzufügen.

„Ich stelle mir gerne vor, dass der Ansatz von Anthropic uns Asimovs fiktiven Gesetzen der Robotik ein Stück näher bringt, indem er in die KI eine prinzipielle Reaktion einbaut, die ihre Verwendung sicherer macht“, sagte er.

Claude 2 folgt auf den äußerst erfolgreichen Start von ChatGPT, das vom US-Rivalen OpenAI entwickelt wurde, gefolgt von Microsofts Bing-Chatbot, der auf dem gleichen System wie ChatGPT basiert, und Googles Bard.

Siehe auch  Hoppla! Elon Musks Grok AI wurde beim Plagiieren von OpenAIs ChatGPT erwischt

Anthropic-Chef Dario Amodei hat Rishi Sunak und die US-Vizepräsidentin Kamala Harris getroffen, um im Rahmen hochrangiger Technologiedelegationen, die in die Downing Street und ins Weiße Haus einberufen wurden, über die Sicherheit in KI-Modellen zu diskutieren. Er ist Unterzeichner einer Erklärung des Center for AI Safety, in der es heißt, dass der Umgang mit dem Risiko des Aussterbens durch KI eine globale Priorität sein sollte, ebenso wie die Eindämmung des Risikos von Pandemien und Atomkriegen.

Laut Anthropic kann Claude 2 Textblöcke mit bis zu 75.000 Wörtern zusammenfassen, was im Großen und Ganzen Sally Rooneys „Normal People“ ähnelt. Der Guardian testete die Fähigkeit von Claude 2, große Textmengen zusammenzufassen, indem er ihn aufforderte, einen 15.000 Wörter umfassenden Bericht über KI des Tony Blair Institute for Global Change in 10 Stichpunkte zusammenzufassen, was ihm in weniger als einer Minute gelang.

Überspringen Sie die Newsletter-Werbung

Allerdings scheint der Chatbot anfällig für „Halluzinationen“ oder sachliche Fehler zu sein, wie etwa die irrtümliche Behauptung, dass AS Roma die Europa Conference League 2023 gewonnen habe, und nicht West Ham United. Auf die Frage nach dem Ergebnis des schottischen Unabhängigkeitsreferendums 2014 antwortete Claude 2, dass alle Gemeindebezirke mit „Nein“ gestimmt hätten, obwohl Dundee, Glasgow, North Lanarkshire und West Dunbartonshire tatsächlich für die Unabhängigkeit gestimmt hätten.

Siehe auch  Ist der Boom von ChatGPT und Bing AI schon vorbei?
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein