Für Bücherwürmer: Lesen eine Überschrift chatgpt-book-ban/“ class=“external-link“ data-event-click=“{"element":"ExternalLink","outgoingURL":"https://www.popsci.com/technology/iowa-chatgpt-book-ban/"}“ href=“https://www.popsci.com/technology/iowa-chatgpt-book-ban/“ rel=“nofollow noopener“ target=“_blank“>wie „Der Schulbezirk nutzt ChatGPT, um beim Entfernen von Bibliotheksbüchern zu helfen“ kann einem das Blut in Wallung bringen. Als Geier Leg es Anfang dieser Woche entsteht der Eindruck, dass das Tool der künstlichen Intelligenz wieder einmal „[taking] seinen größten Feind aus: das Originalwerk.“ Und es ist. Unter Anleitung von ChatGPT entfernte der Mason City Community School District 19 Titel – darunter auch den von Margaret Atwood Die Geschichte der Magd und Toni Morrisons Geliebten– aus den Regalen der Bibliothek. Aber es gibt noch eine andere Wahrheit: Pädagogen, die sich an vage Gesetze zu „altersgerechten“ Büchern mit „Beschreibungen oder visuellen Darstellungen eines Sexualakts“ halten müssen, haben nur begrenzte Möglichkeiten.

Im Mai von Gouverneur Kim Reynolds gesetzlich unterzeichnet, Iowas SF 496 ist einer von denen „Elternrechte„Gesetzesentwürfe, die in letzter Zeit bei republikanischen Gesetzgebern beliebt geworden sind und darauf abzielen, die Diskussion über Sexualität und Geschlechtsidentität in Schulen einzuschränken. (Einige haben Iowas Gesetzentwurf mit Floridas „Don’t Say Gay“-Gesetz verglichen.) Seine Bestimmungen sind ein umfassender Versuch, jede Diskussion über Sex oder Sexualität auszurotten, und wie die stellvertretende Schulleiterin des Mason City School District, Bridgette Exman, in einer Erklärung gegenüber dem erklärte Mason City Globe Gazette„Es ist einfach nicht möglich, jedes Buch zu lesen und nach diesen neuen Anforderungen zu filtern.“

Unter der Oberfläche verbirgt sich ein einzigartiges Rätsel. Weitreichende Verbote sexueller Inhalte, die vage Formulierungen wie „altersgerecht“ verwenden, lassen bereits zu viel Interpretationsspielraum. Es spielt keine Rolle, ob das, was in dem Buch steht, das Äquivalent von Softcore-Slashfic oder einem erschütternden Bericht über Kindesmissbrauch ist. Nun gibt es in Iowa einen Fall, in dem KI – die Nuancen in der geschriebenen Sprache nicht immer vollständig versteht – aufgefordert wird, ein Gesetz zu interpretieren, dem es bereits an Nuancen mangelt.

Siehe auch  Was ChatGPT-Erfinder Sam Altman in Bezug auf KI wollte, wurde gerade wahr, als Google, Microsoft und Amazon sich anschlossen

Das Ergebnis ist dann, dass Bezirke wie Mason City ChatGPT fragen: „Ja [insert book here] eine Beschreibung oder Darstellung eines Geschlechtsakts enthalten?“ Wenn die Antwort „Ja“ lautete, wurde das Buch aus den Bezirksbibliotheken entfernt und eingelagert. Aber was wäre, wenn die Antwort weder Ja noch Nein war? Die Bibel zum Beispiel „enthält Passagen, die sich mit sexuellen Themen und Beziehungen befassen, aber sie vermeidet im Allgemeinen explizite Beschreibungen sexueller Handlungen“, so ChatGPT. Die Bibel steht nicht auf der Liste der 19 verbotenen Bücher, aber Sie sehen, wie schnell das verwirrend werden kann. (David geht mit Bathseba ins Bett ist nicht eine Beschreibung eines Geschlechtsaktes? Oh ok.)

Wenn ich diese Geschichte Exman erzähle, sagt sie, sie habe ähnliche Antworten bekommen, wobei ChatGPT sagen würde, dass ein bestimmtes Buch sexuelle Darstellungen habe, dann aber den Kontext angibt. Das Beispiel, das sie nennt, ist das von Patricia McCormick Verkauft, über ein junges Mädchen, das in die Prostitution verkauft wird. „ChatGPT hat mir eine Antwort gegeben, die ich als ‚Ja, aber‘ bezeichnen würde“, sagt Exman, aber „das Gesetz kennt kein ‚Ja, aber‘.“ Ergo: McCormicks Buch ist eines der 19 in ihrem Distrikt Liste.

Der Monitor ist ein wöchentliche Kolumne widmet sich allem, was in der WIRED-Kulturwelt passiert, von Filmen über Memes, Fernsehen bis Twitter.

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein