In einer erschütternden Gerichtsverhandlung sagte ein Anwalt, der sich bei der Ausarbeitung eines Antrags voller erfundener Rechtsprechung auf KI verließ, er habe „nicht verstanden“, dass der Chatbot ihn in die Irre führen könnte.

Verfolgen Sie die neuesten Nachrichten und politischen Debatten zu nachhaltiger Landwirtschaft, Biomedizin und anderen „disruptiven“ Innovationen. Abonniere unseren Newsletter.

Herr. [Steven] Schwartz, der seit 30 Jahren in New York als Anwalt tätig ist, sagte in einer beim Richter eingereichten Erklärung [recently] dass er durch seine Kinder im College-Alter und aus Artikeln von chatgpt erfahren hatte, es aber nie beruflich genutzt hatte.

Er erzählte Richter Castel weiter [June 8] dass er geglaubt hatte, ChatGPT habe eine größere Reichweite als Standarddatenbanken.

„Ich habe von dieser neuen Website gehört, von der ich fälschlicherweise angenommen habe, dass es sich um eine Supersuchmaschine handelt“, sagte Herr Schwartz.

Programme wie ChatGPT und andere große Sprachmodelle erzeugen tatsächlich realistische Antworten, indem sie analysieren, welche Textfragmente anderen Sequenzen folgen sollten, basierend auf einem statistischen Modell, das Milliarden von Beispielen aus dem gesamten Internet aufgenommen hat.

Irina Raicu, die Regie führt Internet-Ethikprogramm an der Santa Clara University, sagte [recently] dass der Avianca-Fall deutlich gezeigt hat, was Kritiker solcher Modelle gesagt haben, „nämlich, dass die überwiegende Mehrheit der Leute, die mit ihnen spielen und sie benutzen, nicht wirklich versteht, was sie sind und wie sie funktionieren, und insbesondere, was sie sind.“ Einschränkungen sind.“

Dies ist ein Auszug. Den vollständigen Artikel lesen Sie hier

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein