[ad_1]
OpenAI, das Labor für künstliche Intelligenz hinter dem äußerst beliebten generativen KI-Chatbot chatgpt, wird nicht zulassen, dass seine Technologie für politische Kampagnen oder Lobbyarbeit eingesetzt wird, bis Forscher die möglichen Vektoren für Missbrauch und die damit verbundenen Auswirkungen besser in den Griff bekommen.
Das in San Francisco ansässige Unternehmen sagte in einem nicht unterzeichneten Blogbeitrag, der am Montag veröffentlicht wurde dass es „sicherstellen will, dass unsere Technologie nicht in einer Weise genutzt wird, die den demokratischen Prozess untergraben könnte“.
„Wir erwarten und streben danach, dass die Menschen unsere Tools sicher und verantwortungsbewusst nutzen, und bei Wahlen ist das nicht anders“, heißt es in dem Beitrag weiter. „Wir arbeiten daran, relevanten Missbrauch zu antizipieren und zu verhindern – wie zum Beispiel irreführende „Deepfakes“, skalierte Einflussnahmeoperationen oder Chatbots, die sich als Kandidaten ausgeben.“
Während die Wahlsaison 2024 im Gange ist, sagte OpenAI, dass es „genaue Abstimmungsinformationen verbessern, maßvolle Richtlinien durchsetzen und die Transparenz verbessern“ werde, untermauert durch eine „bereichsübergreifende Anstrengung, die sich der Wahlarbeit widmet und das Fachwissen aus unseren Sicherheitssystemen und Bedrohungsinformationen zusammenführt“. , Rechts-, Technik- und Richtlinienteams, um potenziellen Missbrauch schnell zu untersuchen und zu bekämpfen.“
Das Unternehmen sagte, dass es seit langem „an Tools arbeite, um die sachliche Genauigkeit zu verbessern, Voreingenommenheit zu verringern und bestimmte Anfragen abzulehnen“, und verwies auf „Leitplanken“ in seiner DALL·E-Bilderzeugungsplattform, die unter anderem Benutzeranfragen ablehnt für Bilder von „echten Menschen, einschließlich Kandidaten“.
Doch während sich ChatGPT weiterentwickelt, erfährt OpenAI immer mehr darüber, wie Menschen „unsere Technologie nutzen oder versuchen, sie zu missbrauchen“, heißt es in dem Blogbeitrag.
„Wir arbeiten immer noch daran zu verstehen, wie effektiv unsere Tools für die personalisierte Überzeugung sein könnten“, schrieb OpenAI. „Solange wir nicht mehr wissen, erlauben wir den Menschen nicht, Anwendungen für politische Kampagnen und Lobbyarbeit zu erstellen.“
In dem Beitrag wurde auch anerkannt, dass die Menschen „wissen und darauf vertrauen wollen, dass sie mit einer realen Person, einem Unternehmen oder einer Regierung interagieren.“ Aus diesem Grund erlauben wir Entwicklern nicht, Chatbots zu erstellen, die vorgeben, echte Menschen (z. B. Kandidaten) oder Institutionen (z. B. lokale Behörden) zu sein.“
Im Hinblick auf die bevorstehenden Wahlen im Jahr 2024 sagte OpenAI, dass es auch nichts zulassen werde, was „Menschen von der Teilnahme an demokratischen Prozessen abhalten könnte – zum Beispiel die falsche Darstellung von Wahlprozessen und Qualifikationen (z. B. wann, wo oder wer wahlberechtigt ist).“ oder die von der Stimmabgabe abhalten (z. B. ist die Behauptung einer Stimmabgabe bedeutungslos).“
Dem Beitrag zufolge können Benutzer Verstöße an OpenAI melden.
In letzter Zeit herrscht große Sorge vor den künftigen, unbekannten Folgen der künstlichen Intelligenz und ihren vielfältigen Einsatz- und Missbrauchsmöglichkeiten. OpenAI verspricht es in seinem Unternehmensleitbild dass es daran arbeiten wird, „sicherzustellen, dass künstliche allgemeine Intelligenz – KI-Systeme, die im Allgemeinen intelligenter sind als Menschen – der gesamten Menschheit zugute kommt.“
[ad_2]