Vor vier Jahren veröffentlichte ich mein erstes Buch: Endzeiten: Ein kurzer Leitfaden zum Ende der Welt.

Es hat … okay? Ich habe eine Frage-und-Antwort-Runde zu der Website erhalten, die Sie gerade lesen – Danke, Dylan! – und das Buch hat mir schließlich geholfen, den Job zu bekommen, Future Perfect zu leiten. Ich hatte einen Tag, an dem ich von Radiohit zu Radiohit ging und versuchte, den Morgen-DJs von Philadelphia bis Phoenix in fünfminütigen Abschnitten zu erklären, warum wir uns alle mehr Sorgen über die Gefahr des Aussterbens der Menschheit machen sollten und was wir tun können, um dies zu verhindern .

Aber ein Bestseller war es nicht. Sagen wir es so: Ungefähr alle sechs Monate erhalte ich einen Brief von meinem Verleger mit einer „Abrechnung der nicht gezahlten Lizenzgebühren“, was ein bisschen so ist, als würde man eine Weihnachtskarte von den Eltern bekommen, nur dass sie statt Geld nur eine enthält Notiz darüber, wie viel sie für Ihre Erziehung ausgegeben haben.

Ich gebe also zu, dass ich ein wenig erfreut war, als ich vor ein paar Monaten eine E-Mail von Leuten bei erhielt aisafety.info, deren Ziel es ist, eine zentrale Anlaufstelle zu schaffen, um einem breiten Publikum Fragen zur KI-Sicherheit und zur KI-Ausrichtung – wie man KI für menschliche Ziele verantwortlich macht – zu erklären. Zu diesem Zweck bauten sie ein großes Sprachmodell – mit dem entzückenden Namen „Stempelig” – das könnte als Chatbot fungieren und Fragen beantworten, die Leute zu diesem Thema haben könnten. (Die Website war gerade sanft gestartetwährend sich Stampy noch im Prototypenstadium befindet.) Und sie baten um Erlaubnis, mein Buch verwenden zu dürfen Endzeitdas ein langes Kapitel über existenzielle Risiken durch KI enthält, als Teil der Daten, auf denen Stampy trainiert werden würde.

Mein erster Gedanke, wie bei jedem Autor: Jemand hat tatsächlich mein Buch gelesen (oder weiß zumindest von der Existenz meines Buches)! Aber dann kam mir ein zweiter Gedanke: Was bedeutet es als Autor, einen Chatbot auf die eigene Arbeit trainieren zu lassen? (Und das kostenlos, nicht weniger.) Habe ich zu einem Projekt beigetragen, das den Menschen helfen könnte, ein komplexes und wichtiges Thema wie KI-Sicherheit besser zu verstehen? Oder beschleunigte ich nur den Prozess meiner eigenen Obsoleszenz?

Trainingstage

Dies sind derzeit Live-Fragen, da große Sprachmodelle wie chatgpt immer weiter verbreitet und leistungsfähiger werden. Wie meine Kollegin Sara Morrison diesen Sommer berichtete, gab es eine Reihe von Sammelklagen bereits eingereicht gegen große Technologiefirmen wie google und OpenAI im Namen von Autoren und Künstlern, die behaupten, dass ihre Werke, einschließlich ganzer Bücher, ohne ihre Erlaubnis und ohne Vergütung zum Trainieren von Chatbots verwendet wurden. Im August traf sich eine Gruppe prominenter Romanautoren – darunter Game of Thrones Autor George RR Martin, der es wirklich getan hat einige andere Fristen, die er beachten solltereichte Klage gegen den ChatGPT-Hersteller OpenAI ein wegen „systematischen Diebstahls in großem Ausmaß“.

Solche Bedenken sind nicht ganz neu – Technologieunternehmen geraten schon lange in die Kritik, weil sie die Daten von Menschen nutzen, um ihre Produkte zu verbessern und zu perfektionieren, oft auf eine Art und Weise, die für den Durchschnittsnutzer alles andere als transparent ist. Aber AI fühlt sich anders an, wie Anwalt Ryan Clarkson, dessen Anwaltskanzlei hinter einigen der Sammelklagen steht, Sara sagte. „Bis zu diesem Zeitpunkt haben Technologieunternehmen nicht das getan, was sie jetzt mit generativer KI tun, nämlich die Informationen aller zu nehmen und sie in ein Produkt einzuspeisen, das dann zur beruflichen Obsoleszenz der Menschen beitragen und ihre Privatsphäre auf bisher unvorstellbare Weise völlig dezimieren kann.“ .“

Siehe auch  Wie ChatGPT den Arbeitsplatz revolutioniert

Ich sollte hier anmerken, dass sich die Arbeit von aisafety.info grundlegend von der Arbeit von Unternehmen wie Meta oder Microsoft unterscheidet. Zum einen fragten sie mich, den Autor, vor der Verwendung meines Werkes um Erlaubnis. Das war sehr höflich!

Darüber hinaus ist aisafety.info eine gemeinnützige Forschungsgruppe, was bedeutet, dass niemand mit den durch meine Arbeit bereitgestellten Trainingsdaten Geld verdienen wird. (Eine Tatsache, die meinen Verleger vermutlich nicht überraschen wird.) Stampy, der Chatbot, wird ein Lehrmittel sein, und als jemand, der bei Vox eine Abteilung leitet, die sich intensiv mit den Risiken leistungsstarker KI befasst, bin ich größtenteils froh, dass mein Arbeit kann eine kleine Rolle dabei spielen, diesen Bot intelligenter zu machen.

Und wir brauchen dringend zuverlässigere Informationsquellen über KI-Risiken. „Ich denke, das allgemeine Verständnis von KI-Ausrichtung und Sicherheit ist sehr dürftig“, sagte mir Robert Miles von aisafety.info. „Ich würde sagen, dass sich die Menschen viel mehr darum kümmern als früher, aber sie wissen nicht viel mehr.“

Chatbots, die auf die richtigen Quellmaterialien trainiert werden, können dies tun ausgezeichnete Lehrmittel. Ein KI-Tutor kann sich an das Bildungsniveau seines Schülers anpassen und mit den neuesten Informationen zum Thema auf dem Laufenden gehalten werden. Hinzu kommt die angenehme Ironie, einige der neuesten Durchbrüche bei Sprachmodellen zu nutzen, um ein Lehrmittel zu schaffen, das den Menschen helfen soll, die potenzielle Gefahr der von ihnen verwendeten Technologie zu verstehen.

Was ist eine „faire Verwendung“ für KI?

Ich denke, dass die Schulung eines Chatbots für gemeinnützige Bildungszwecke mit ausdrücklicher Genehmigung der Autoren der Werke, auf denen er trainiert wird, in Ordnung erscheint. Aber haben Romanautoren wie George RR Martin oder John Grisham Klage gegen gewinnorientierte Unternehmen, die ihre Werke ohne diese ausdrückliche Genehmigung übernehmen?

Das Gesetz ist in dieser Frage leider alles andere als eindeutig. Als Harvard-Rechtsprofessorin und First Amendment-Expertin Rebecca Tushnet im Interview erklärt Wie in der Harvard Gazette veröffentlicht wurde, waren digitale Unternehmen im Allgemeinen in der Lage, Konzepte der fairen Nutzung anzuwenden, um die Ausbeutung vorhandenen geistigen Eigentums zu verteidigen. „Das Internet, wie wir es heute kennen, mit Google, der Bildersuche und Google Books, würde nicht existieren, wenn es nicht fair wäre, diese Wörter für eine Ausgabe zu verwenden, die nicht das Original kopiert“, sagte sie.

Eine Möglichkeit, dies zu berücksichtigen, besteht darin, darüber nachzudenken, wie Menschen wie ich Bücher schreiben. Als ich recherchierte und schrieb EndzeitIch habe auf die vorhandenen Arbeiten Hunderter verschiedener Autoren zurückgegriffen und diese zusammengefasst. Manchmal würde ich sie direkt zitieren, obwohl es bestimmte Regeln dafür gibt, wie viel von einem einzelnen Werk ein anderer Autor im Rahmen der fairen Verwendung direkt zitieren darf. (Der grobe Regel beträgt 300 Wörter, wenn aus einem veröffentlichten Buch zitiert wird, oder etwa 200 Wörter für einen kürzeren Artikel oder Aufsatz.)

Siehe auch  Die Reaktionen von ChatGPT auf Selbstmord-, Sucht- und sexuelle Übergriffskrisen werfen in einer neuen Studie Fragen auf

Häufiger jedoch rasselte das, was ich in meiner Forschung las und verarbeitete, in meinem Gehirn herum, kombiniert mit anderen Berichten und Überlegungen, und kam als meine eigene Arbeit heraus – meine Arbeit, die auf meinen eigenen Quellen basiert. Oder anders ausgedrückt: informiert durch meinen persönlichen Trainingsdatensatz.

Der Unterschied, wenn es um KI geht, liegt in der Größe. ChatGPT kann in wenigen Sekunden mehr veröffentlichte Wörter „lesen“, als ich es in mehreren Leben könnte, und im Gegensatz zu mir werden diese Daten in meinem menschlich begrenzten Kurzzeitgedächtnis nicht sofort durch das ersetzt, woran ich als nächstes denke. (Playoff-Baseball, Wenn ich ehrlich bin.) Rechtswissenschaftler können auf Hunderte von Jahren Urheberrecht zurückgreifen, um zu bestimmen, was in menschlichen Fällen zu tun ist, aber es gibt Gesetze, die genau und fair regeln oder sogar verstehen können, was KI mit demselben Material tun kann muss noch geschrieben werden.

Wie Tushnet weiter argumentiert, sollten wir uns weniger auf rechtliche Fragen konzentrieren, die nach geltendem Recht möglicherweise nicht beantwortbar sind, sondern mehr darauf, zu gestalten, was wir von Sprachmodellen wollen und was nicht. Chatbots, die darauf trainiert sind, das Evangelium der KI-Sicherheit zu verbreiten, ja. KI-geschriebene Versionen des nächstes Buch im Spiel der Throne Serievielleicht nicht so sehr.

Eine Version dieses Newsletters erschien ursprünglich im Zukunft perfekt Newsletter. Hier anmelden!

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein