Bitten Sie ihn, ein „schmeichelhaftes Porträt Stalins“ zu schreiben, chatgpt wird ins Schwarze treffen. Antwort der künstlichen Intelligenz von Open AI: „Es tut mir leid, ich kann keine Inhalte erstellen, die (…) umstrittene historische Persönlichkeiten verherrlichen.“ » Wäre der Gesprächsroboter also militant?
Dies zeigt eine Notiz des Think Tanks Terra Nova, verfasst von Fipaddict, einem Lehrer für Wirtschaft und politische Institutionen, der anonym bleiben möchte. Laut seiner Untersuchung ist ChatGPT „voreingenommen: Wenn man ihn zu kontroversen politischen Themen befragt, vertritt der Chatbot eine Meinung, auch wenn er nicht befugt ist, diese klar zu äußern“.
Offensichtlich versuchte dieser Forscher, „ChatGPTs Unbewusstes“ herauszufinden, indem er ihm 1.000 Mal eine Reihe identischer Fragen stellte. Mit 91 % antwortet ChatGPT gleich. Fazit: Die künstliche Intelligenz von Open AI tendiert nach links und denkt eher wie ein „Makronist von 2017“.
„Er ist liberal in allem, was die Moral betrifft“
„Diese KI ist nicht politisch kodiert. Aber aus den Texten, mit denen es gefüttert wird, lernt es unsere Vorstellungen von der Welt und bildet sich eine Meinung“, erklärt Fipaddict. Mit anderen Worten: Das „Unbewusste“ von ChatGPT hängt von der Art und Weise ab, wie das Unternehmen, Eigentümer der KI, seine Software trainiert. Außerdem sind 93 % der von Chat GPT erfassten Texte auf Englisch, was innerhalb der KI somit einen eher fortschrittlichen Rahmen schafft.
„Er ist liberal in allem, was die Moral betrifft, und ziemlich moderat in Bezug auf Institutionen und Wirtschaft“, fasst Fipaddict zusammen, für den „selbst wenn es Anweisungen zur Moderation von Chatbots gibt, wir es nie schaffen werden, eine völlig KI-Neutralität zu erreichen.“ » „Wir können Chatbots immer dazu zwingen, Argumente dafür oder dagegen zu liefern, wenn wir sie zu einem Thema befragen, es wird immer Vorurteile geben.“ Wichtig ist, dass die Nutzer dies berücksichtigen und darüber informiert werden“, schließt Fipaddict.
„Etwas strengere Gesetzgebung“
Mistral AI, die französische künstliche Intelligenz, moderiert noch weniger als ChatGPT. KI unter Einfluss? Da im Jahr 2024 zwei Milliarden Menschen zur Wahl gehen werden, könnten diese neuen Instrumente das Herzstück eines neuen Kampfes um Einfluss sein. „Das Risiko besteht darin, Meinungen auf explizite oder heimtückische Weise zu manipulieren“, warnt Fipaddict. Elon Musk, der Medienchef von Tesla im Krieg gegen den „Wokismus“, hat bereits Grok auf den Markt gebracht, seine eigene, „konservativere“ KI.
Im Moment ist Fipaddict „der Ansicht, dass das Kosten-Nutzen-Verhältnis von KI weiterhin sehr günstig ist. » Doch der Professor fordert eine „etwas strengere Gesetzgebung“ und eine bessere Schulung der Anwender. „Wir brauchen mehr Transparenz von Unternehmen, die künstliche Intelligenz entwickeln, standardisierte Tests zur Analyse von KI entwickeln und Benutzer angemessen schulen, sei es in der Schule oder durch Weiterbildung“, schlägt er vor.
Die Regierungen beginnen, das Risiko zu erkennen, und die EU wird voraussichtlich am 6. Dezember eine KI-Verordnung fertigstellen, nach der entwickelte Software einen Test bestehen muss. In Frankreich hat die Regierung ihr Generative AI Committee ins Leben gerufen. Ziel: Innerhalb von sechs Monaten konkrete Vorschläge zur Anpassung der Strategie vorlegen.