Der Stadtrat von Porto Alegre, einer Stadt im Süden Brasiliens, hat von chatgpt ausgearbeitete Gesetze gebilligt.
Die Verordnung soll verhindern, dass die Stadt den Steuerzahlern den Ersatz von Wasserzählern in Rechnung stellt, die von Dieben gestohlen wurden. Eine Abstimmung von 36 Ratsmitgliedern stimmte einstimmig für den Vorschlag, der Ende November in Kraft trat.
Was die meisten jedoch nicht wussten, war, dass der Text für den Vorschlag von einem KI-Chatbot generiert worden war, bis Stadtrat Ramiro Rosário zugab, dass er ChatGPT zum Schreiben verwendet hatte.
„Wenn ich es vorher offengelegt hätte, wäre der Vorschlag sicherlich nicht einmal zur Abstimmung gekommen“, sagte er erzählt Die Associated Press.
Dies ist die erste von KI geschriebene Gesetzgebung, die von Gesetzgebern verabschiedet wurde, von der wir Geier wissen; Wenn Sie von anderen Robotergesetzen, Verträgen oder ähnlichen interessanten Dingen wissen, teilen Sie uns dies bitte mit. Um es klarzustellen: ChatGPT wurde nicht gebeten, die Idee zu entwickeln, sondern wurde als Werkzeug zum Verfassen des Kleingedruckten verwendet. Rosário sagte, er habe eine Eingabeaufforderung mit 49 Wörtern verwendet, um den unberechenbaren Chatbot von OpenAI anzuweisen, den vollständigen Entwurf des Vorschlags zu erstellen.
Zunächst missbilligte Stadtratspräsident Hamilton Sossmeier die Methoden seines Kollegen und meinte, Rosário habe einen „gefährlichen Präzedenzfall“ geschaffen. Später änderte er jedoch seine Meinung und sagte: „Ich habe angefangen, tiefer zu lesen und habe gesehen, dass dies unglücklicherweise oder zum Glück ein Trend sein wird.“
Sossmeier könnte Recht haben. In den USA sorgten der Senator des Staates Massachusetts, Barry Finegold, und der Abgeordnete Josh Cutler Anfang des Jahres für Schlagzeilen Rechnung mit dem Titel: „Ein mit Hilfe von ChatGPT ausgearbeitetes Gesetz zur Regulierung generativer künstlicher Intelligenzmodelle wie ChatGPT.“
Das Paar ist davon überzeugt, dass Ingenieure für maschinelles Lernen digitale Wasserzeichen in jeden von großen Sprachmodellen generierten Text einfügen sollten, um Plagiate zu erkennen (und es den Leuten vermutlich zu ermöglichen, zu erkennen, wenn etwas vom Computer erstellt wurde); Holen Sie die ausdrückliche Zustimmung von Personen ein, bevor Sie deren Daten zum Training neuronaler Netze sammeln oder verwenden. und führen regelmäßige Risikobewertungen ihrer Technologie durch.
Die Verwendung großer Sprachmodelle wie ChatGPT zum Verfassen juristischer Dokumente ist derzeit umstritten und riskant, insbesondere da die Systeme dazu neigen, Informationen zu fabrizieren und zu halluzinieren. Im Juni gerieten die Anwälte Steven Schwartz und Peter LoDuca, die Levidow, Levidow & Oberman, eine Anwaltskanzlei mit Sitz in New York, vertreten, in die Kritik, weil sie in einer Klage gefälschte Rechtsfälle zitierten, die von ChatGPT erfunden worden waren.
Sie verklagten die kolumbianische Fluggesellschaft Avianca im Namen eines Passagiers, der an Bord eines Fluges im Jahr 2019 verletzt worden war, und veranlassten ChatGPT, sich an ähnliche Fälle zu erinnern, um sie zu zitieren, was das Unternehmen auch tat, es sich aber auch einige einfach nur einbildete. Damals machten Schwartz und LoDuca ihren Fehler darauf zurückzuführen, dass sie die Grenzen des Chatbots nicht verstanden hatten, und behaupteten, sie wüssten nicht, dass er Informationen halluzinieren könne.
Richter Kevin Castel vom Southern District Court in New York erkannte, dass die Fälle gefälscht waren, als die Anwälte der Gegenseite die zitierten Gerichtsdokumente nicht finden konnten, und forderte Schwartz und LoDuca auf, ihre Quellen anzugeben. Castel verhängte gegen beide eine Geldstrafe von 5.000 US-Dollar und wies die Klage insgesamt ab.
„Die Lektion hier ist, dass man die Dinge, für die ein Anwalt verantwortlich ist, nicht an eine Maschine delegieren kann“, sagte Stephen Wu, Anteilseigner der Silicon Valley Law Group und Vorsitzender des Artificial Intelligence and Robotics National Institute der American Bar Association, zuvor Das Register.
Rosário glaubt jedoch, dass die Technologie effektiv eingesetzt werden kann. „Ich bin davon überzeugt, dass … die Menschheit eine neue technologische Revolution erleben wird. Alle Werkzeuge, die wir als Zivilisation entwickelt haben, können zum Bösen und Guten eingesetzt werden. Deshalb müssen wir zeigen, wie sie zum Guten eingesetzt werden können“, sagte er . ®
PS: Amazon hat diese Woche auf der re:Invent seinen Q-Chat-Bot angekündigt, einen digitalen Assistenten zum Bearbeiten von Code, zur Nutzung von AWS-Ressourcen und mehr. Es ist in der Vorschau verfügbar, und da es sich um ein LLM-System handelt, gingen wir davon aus, dass es einiges erfinden und dabei einiges falsch machen würde. Und wir hatten Recht: interne Dokumente durchgesickert Laut Platformer beschreibt das neuronale Netzwerk „schwere Halluzinationen und das Durchsickern vertraulicher Daten“.