Es ist den Benutzern vorzuwerfen, dass sie Warnungen nicht beachtet haben, aber OpenAI muss mehr tun, um zu zeigen, dass chatgpt Fakten nicht zuverlässig von Fiktionen unterscheiden kann.

„Manchmal kann es zu falschen Informationen kommen.“

Diese Warnung wird von OpenAI auf der Titelseite seines Chatbots für künstliche Intelligenz ChatGPT angebracht, einem von neun Aufzählungspunkten, in denen die Fähigkeiten und Einschränkungen des Systems detailliert beschrieben werden.

„Kann manchmal falsche Informationen generieren.“

Diese Warnung können Sie an fast jede Informationsquelle halten, von Wikipedia und google bis zur Titelseite der New York Times, und sie wird mehr oder weniger korrekt sein.

„Manchmal kann es zu falschen Informationen kommen.“

Denn wenn es darum geht, Menschen auf die Nutzung einer so leistungsstarken, gehypten und missverstandenen Technologie wie ChatGPT vorzubereiten, ist klar, WAS OpenAI nicht genug leistet.

Die missverstandene Natur von ChatGPT wurde an diesem Wochenende zum hundertsten Mal deutlich, als es gibt Neuigkeiten dass sich der US-Anwalt Steven A. Schwartz an einen Chatbot wandte, um unterstützende Fälle in einer Klage zu finden, die er gegen die kolumbianische Fluggesellschaft Avianca führte. Das Problem bestand natürlich darin, dass keiner der von ChatGPT vorgeschlagenen Fälle existierte.

Schwartz behauptet, er sei „sich der Möglichkeit nicht bewusst gewesen, dass der Inhalt …“ [ChatGPT] könnte falsch sein“, obwohl die Abschriften seines Gesprächs mit dem Bot zeigen, dass er misstrauisch genug war, um seine Forschung zu überprüfen. Leider tat er es erneut, indem er ChatGPT anforderte, und das System täuschte ihn erneut zu der Annahme, dass ihre gefälschte Krankengeschichte legitim sei:

Glauben Sie nicht an seine Lügen

In den letzten Monaten gab es viele Berichte darüber, dass Menschen durch die Lügen von ChatGPT betrogen wurden. Die meisten Fälle sind trivial und haben kaum oder gar keine negativen Auswirkungen. Normalerweise das System die Nachrichten erfinden oder wissenschaftlicher Artikel oder Buch , dann versucht jemand, diese Quelle zu finden und verschwendet entweder Zeit oder sieht wie ein Idiot aus (oder beides). Es ist jedoch leicht zu erkennen, dass Fehlinformationen über ChatGPT schwerwiegendere Folgen haben können.

Im Mai zum Beispiel ein A&M-Professor aus Texas Ich habe den Chatbot zur Überprüfung genutzt , ob die Aufsätze der Studierenden mit Hilfe von KI verfasst wurden. ChatGPT sagte, dass ja, alle studentischen Aufsätze von KI erstellt wurden, obwohl es nicht über eine robuste Fähigkeit dazu verfügt. Der Professor drohte damit, in der Klasse durchzufallen und die Diplome zu widerrufen, bis sein Fehler aufgedeckt würde. Dann, im April, enthüllte ein Juraprofessor, dass das System Falschmeldungen generierte, in denen ihm sexuelle Belästigung vorgeworfen wurde. Er erfuhr davon erst, als ihn ein recherchierender Kollege darauf aufmerksam machte. „Es war ziemlich beängstigend“, sagte er. Professor Der Washington Post . „Eine Aussage dieser Art ist unglaublich schädlich.“

Es ist unwahrscheinlich, dass solche Fälle das Potenzial von ChatGPT und anderen Chatbots zunichte machen. Es ist klar, dass diese Tools bei richtiger Verwendung und mit den richtigen Sicherheitsmaßnahmen äußerst nützlich sein können. Ich denke auch, dass dieses Potenzial auch Aufgaben wie die Suche nach Informationen umfasst. Verschieden interessante Forschung die zeigen, wie diese Systeme in Zukunft evidenzbasierter werden können und werden. Die Sache ist, dass es im Moment nicht ausreicht.

Menschen verwenden ChatGPT als Suchmaschine. OpenAI muss dies erkennen und sie rechtzeitig warnen.

Natürlich kann OpenAI auch helfen. Obwohl Chatbots als eine neue Art von Technologie dargestellt werden, ist es klar, dass Menschen Verwenden Sie sie als Suchmaschinen . (Und viele von ihnen laufen offenbar als Suchmaschinen, wie Googles Bing, sodass die Benutzer natürlich verwirrt sind.) Das ist nicht überraschend: Eine ganze Generation von Internetnutzern wurde darin geschult, Fragen in ein Feld einzugeben und Antworten zu erhalten. Doch während Quellen wie Google und DuckDuckGo Links bereitstellen, die einer sorgfältigen Prüfung bedürfen, verwirren Chatbots ihre Informationen in übergeneriertem Text und sprechen im fröhlichen Ton eines allwissenden digitalen Assistenten. Ein oder zwei Sätze als Haftungsausschluss reichen nicht aus, um diese Art der „Grundierung“ aufzuwiegen.

Ein interessantes Ergebnis ist, dass der Bing-Chatbot (der auf der gleichen Technologie wie ChatGPT läuft) bei dieser Art der Sachverhaltsermittlung etwas besser ist; Es durchsucht grundsätzlich das Web nach Antworten auf tatsächliche Fragen und stellt Benutzern Links als Quellen zur Verfügung. ChatGPT kann das Internet durchsuchen, aber nur, wenn Sie für die Plus-Version bezahlen und diese nutzen Beta-Plugins . Seine in sich geschlossene Natur macht ihn eher zu einem Irreführer.

Interventionen als Reaktion auf den Benutzer müssen nicht komplex sein, sollten es aber sein. Warum kann ChatGPT beispielsweise einfach nicht erkennen, wenn es darum geht, tatsächliche Angebote zu erstellen, und den Benutzer warnen, „meine Quellen zu überprüfen“? Warum kann er die Frage „Dieser Text wurde durch künstliche Intelligenz erstellt“ nicht beantworten? mit einem klaren „Tut mir leid, ich bin nicht in der Lage, dieses Urteil zu fällen“? (The Verge hat OpenAI um einen Kommentar gebeten und wartet immer noch auf eine Antwort.)

Siehe auch  So durchsuchen Sie Ihre ChatGPT-Gespräche

OpenAI hat sich in diesem Bereich definitiv verbessert. Seit der Einführung von ChatGPT ist ChatGPT viel offener geworden, was seine Grenzen angeht, und stellt den Antworten oft dieses KI-Sprichwort voran: „ Als KI-Sprachmodell… „. Als ich heute Morgen den Bot fragte: „Können Sie KI-generierten Text erkennen?“ Er warnte, dass es „unzuverlässig“ sei, aber als ich ihm dann einen Teil dieses Artikels vorlegte und ihm dieselbe Frage stellte, antwortete er einfach: „Ja, dieser Text wurde von KI generiert.“ Ich habe ihn dann gebeten, mir eine Liste empfohlener Bücher zum Thema „Messung und Geometrie“ zu geben (einige kenne ich). Ein wenig). „Sicherlich!“ sagte er, bevor er 10 Bücher anbot. Es war eine gute Liste, die am Ende viele Klassiker enthielt, aber zwei der Titel waren einfach komplett erfunden und wenn ich es nicht gewusst und nachgesehen hätte, wäre es mir nicht aufgefallen. Probieren Sie diese Tests selbst und Sie selbst aus schnell Fehler finden.

Deshalb werden diese KI-Modelle gefährlich sein.

Nicht, weil sie Terminatoren erschaffen werden, die alle Menschen töten werden, oder weil eine Art AGI (Künstliche Allgemeine Intelligenz) geschaffen wird.

Sondern weil die Leute glauben werden, dass der „Algorithmus“ intelligenter ist, als er wirklich ist, und tun werden, was er sagt, anstatt die Arbeit zu überprüfen. Ein „Algorithmus“ muss keine Absicht oder Motivation haben, um Menschen dazu zu bringen, etwas zu tun. Es könnte einfach eine blöde Liste von Schritten sein, bei der die Person mit den Schultern zuckt und sagt: „Na ja, ich schätze, so macht man das“, und dann beginnt sie, einen schönen Schokoladen-Arsen-Kuchen zu backen …

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein