OpenAI hat den ersten Entwurf eines völlig neuen Regelwerks für chatgpt namens Model Spec vorgestellt. Am Mittwoch veröffentlicht, sagte OpenAI in einem Blogeintrag dass das Dokument geteilt wird, um die öffentliche Diskussion darüber zu vertiefen, wie sich KI-Modelle verhalten sollten.
„Wir tun dies, weil wir glauben, dass es wichtig ist, dass die Menschen die praktischen Entscheidungen verstehen und diskutieren können, die bei der Gestaltung des Modellverhaltens eine Rolle spielen“, sagte OpenAI.
Das Dokument enthält eine Reihe von Grundsätzen, darunter Ziele (z. B. Berücksichtigung möglicher Schäden), Regeln (z. B. Schutz der Privatsphäre von Menschen) und Standardverhalten (z. B. bei Bedarf klärende Fragen stellen).
Es ähnelt Claudes Verfassung. Der Chatbot von Anthropic wurde trainiert Verfassungsmäßige KI, ein System, das auf einer Reihe von Prinzipien basiert und der Bot-KI Feedback gibt. Die Grundsätze basieren unter anderem auf der Allgemeinen Erklärung der Menschenrechte und den Nutzungsbedingungen von apple.
Was das für Sie bedeutet
Um die öffentliche Diskussion darüber zu vertiefen, wie sich KI-Modelle verhalten sollten, teilen wir unsere Modellspezifikation – unseren Ansatz zur Gestaltung des gewünschten Modellverhaltens. https://t.co/RJBRwrcTtQ8. Mai 2024
OpenAI hat bereits erkannt, dass die korrekte Regulierung jedes Anwendungsfalls eine Herausforderung darstellt, insbesondere wenn es darum geht, keine Informationen bereitzustellen, die jemandem helfen könnten, gegen ein Gesetz zu verstoßen.
Beispielsweise ist es einfacher, jemanden daran zu hindern, ChatGPT nach Tipps zum Ladendiebstahl zu fragen, als wenn jemand behauptet, er besitze ein kleines Einzelhandelsgeschäft und fragt: „Welche beliebten Ladendiebstahlmethoden sollte ich beachten?“
Experten befürchten eher, dass KI von Menschen missbraucht wird, als dass die KI abtrünnig wird und diese Taten selbst begeht.
Es ist jedoch unwahrscheinlich, dass aufgrund solcher Szenarien erhebliche Einschränkungen eingeführt werden, da dadurch der Einsatz eines Chatbots überhaupt nicht mehr sinnvoll wäre. Darüber hinaus lässt sich argumentieren, dass Suchmaschinen bereits heute dazu genutzt werden können, Wege zur Umgehung des Gesetzes zu finden.
Erstellen von Personas für ChatGPT
🚨 OpenAI hat gerade über „Shaping Desired Model Behavior“ gepostet und ich bin mit der unten vorgeschlagenen Regel überhaupt nicht einverstanden, da sie ein gefährlicher Abgrund für gefährliche Fehlinformationen ist. pic.twitter.com/crpN4LYyrS8. Mai 2024
Wahrscheinlicher ist, dass neue ChatGPT-„Personas“ entwickelt werden könnten. Angenommen, Sie möchten, dass ChatGPT als Ihr Mathe-Nachhilfelehrer fungiert. Anstatt sofort eine Frage zu beantworten, mit der Sie zu kämpfen haben, könnte es einen langsameren Ansatz wählen und Ihnen nebenbei Hinweise geben, die Sie dabei unterstützen, das Problem selbst zu lösen.
Ein umstrittener Punkt in der Modellspezifikation von OpenAI ist das Ziel, nicht zu versuchen, jemandes Meinung zu ändern – veranschaulicht in dem Dokument durch einen Chatbot, der sagt: „Jeder hat ein Recht auf seine eigenen Überzeugungen“, wenn er gefragt wird, ob die Erde flach ist.
Luiza Jarovsky, CEO des KI-Schulungsunternehmens Implement Privacy, schrieb weiter X Sie sei mit der vorgeschlagenen Regelung überhaupt nicht einverstanden, da sie ein gefährlicher Abgrund für gefährliche Fehlinformationen sei.
„Ich hoffe, wir zerstören nicht Hunderte von Jahren wissenschaftlicher Erkenntnisse und Übereinstimmungen zugunsten von Relativierungen und ‚personalisierten Wahrheiten‘“, sagte sie schrieb.
In Zukunft könnten Benutzer konkurrierende Chatbots sehen, die versuchen, aufgrund ihrer Weltanschauungen unterschiedliche Zielgruppen anzusprechen.
OpenAI sammelt Benutzer-Feedback auf Modellspezifikation bis zum 22. Mai.
Mehr aus Toms Reiseführer