[ad_1]



<p>Sam Altman, CEO von OpenAI, erscheint am 16. Mai 2023 vor dem Justizunterausschuss des Senats für Datenschutz, Technologie und Recht</p>
<p>“ src=“https://static.independent.co.uk/2023/05/16/15/sam%20altman%20congress%20ai%20hearing.png“ srcset=“https://static.independent.co.uk/2023/05/16/15/sam%20altman%20congress%20ai%20hearing.png?quality=75&width=320&auto=webp 320w,https://static.independent.co.uk/2023/05/16/15/sam%20altman%20congress%20ai%20hearing.png?quality=75&width=640&auto=webp 640w“/></amp-img><figcaption class=

Sam Altman, CEO von OpenAI, erscheint am 16. Mai 2023 vor dem Justizunterausschuss des Senats für Datenschutz, Technologie und Recht

(YouTube/Screengrab)

OpenAI-Chef Sam Altman erscheint am Dienstag vor dem Kongress, um über die Gefahren auszusagen, die von neuen Technologien der künstlichen Intelligenz ausgehen, darunter dem KI-Chatbot chatgpt seines Unternehmens.

Die Anhörung vor dem Justizunterausschuss des Senats für Datenschutz, Technologie und Recht, die um 10 Uhr Ortszeit (15 Uhr BST) begann, bietet den Mitgliedern die Möglichkeit, Herrn Altman und andere Technologieführer über die „dringende“ Notwendigkeit zu befragen, Regeln für KI zu schaffen.

Herr Altman tritt zusammen mit Gary Marcus, emeritierter Professor der New York University, und Christina Montgomery, Chief Privacy Officer bei IBM, auf.

Der Vorsitzende des Ausschusses, US-Senator Richard Blumenthal, sagte vor der Anhörung: „Künstliche Intelligenz braucht dringend Regeln und Schutzmaßnahmen, um ihre immensen Versprechen und Fallstricke zu bewältigen.“

Ranking-Mitglied Josh Hawley fügte hinzu: „Künstliche Intelligenz wird auf eine Weise transformativ sein, die wir uns nicht einmal vorstellen können, mit Auswirkungen auf die Wahlen, Arbeitsplätze und Sicherheit der Amerikaner.“

Siehe auch  Lehrer nutzen ChatGPT zunehmend – Schüler weniger

Die neuesten Nachrichten und Updates zur Anhörung finden Sie unten in unserer Berichterstattung. Den Livestream können Sie hier ansehen.

1684245756

Live-Anhörung zum Kongress von Sam Altman: Sehen Sie sich den Stream an

Hier ist der Live-Stream, wenn Sie mitschauen möchten:

YouTube Video

Anthony Cuthbertson16. Mai 2023 15:02

1684255212

KI könnte lokalen Nachrichten schaden

Senatorin Amy Klobuchar (D-MN) machte darauf aufmerksam, wie generative KI lokalen Nachrichten schaden könnte, indem sie Benutzer dazu ermutigte, ChatGPT zu verwenden, anstatt Nachrichten aus einer Zeitung zu lesen.

Frau Klobuchar fragte Sam Altman, den CEO von OpenAI, wie die Plattform die kleineren neuen Organisationen entschädigen wird, von denen ChatGPT Informationen abruft, um Antworten zu generieren.

„Verstehen Sie, dass dies in Bezug auf lokale Nachrichteninhalte exponentiell schlimmer sein könnte, wenn sie nicht entschädigt werden?“ Fragte Frau Klobuchar.

„Denn was sie brauchen, ist, dass ihre Inhalte entschädigt werden und dass sie nicht gestohlen werden“, fügte sie hinzu.

Herr Altman sagte, ChatGPT sei bereit, Dinge zu tun, um den lokalen Nachrichten zu helfen.

Er sagte: „Das würden wir auf jeden Fall gerne tun.“

Ariana Baio16. Mai 2023 17:40

1684254207

Zeugen ermutigen den Gesetzgeber, an die Zukunft zu denken

Sam Altman, Christina Montgomery und Gary Marcus waren sich alle einig, dass die künstliche Intelligenz noch lange nicht so weit fortgeschritten ist, wie sie sein könnte. Daher müssen Gesetzgeber Gesetze erlassen, die bei ihrer Entwicklung genutzt werden können.

Herr Altman und Herr Marcus sind sich einig, dass der beste Weg, damit anzufangen, darin besteht, eine Regulierungsbehörde oder eine unabhängige Kommission zu gründen, die sich mit der komplizierten Welt der KI befasst und eine Reihe von Vorschriften für Unternehmen erstellt, die diese Technologien entwickeln.

Frau Montgomery schlug vor, Regeln zu schaffen, die beim Risiko der KI ansetzen, anstatt die Technologie selbst zu regulieren, sei ein besserer Weg, dies zu erreichen.

Ariana Baio16. Mai 2023 17:23

1684253712

STIMMEN: KI gerät nicht in die falschen Hände – sie wird von ihnen entwickelt

STIMMEN: Die lautesten Stimmen im KI-Diskurs neigen dazu, ein erschreckendes Maß an fehlgeleiteter Gewissheit darüber an den Tag zu legen, wozu KI fähig ist und wie die Technologie kontrolliert werden kann.

Dabei handelt es sich um wesentliche, dringende Fragen, die den Input einer breiten Palette von Stimmen erfordern, insbesondere derjenigen, die am wahrscheinlichsten durch den Einsatz von KI gefährdet sind.

Bisher waren die ersten Opfer bösartiger Formen der KI, wie z. B. ungenaue Gesichtserkennungstools oder Deepfake-Pornogeneratoren, Mitglieder historisch marginalisierter Gruppen, darunter Frauen und farbige Menschen. Aber diese Gruppen sind unter den lautesten Stimmen in der KI-Debatte erbärmlich unterrepräsentiert.

Arthur Holland Michel Berichte:

Ariana Baio16. Mai 2023 17:15

1684253571

OpenAI möchte, dass weniger Leute es nutzen

Sam Altman, CEO von OpenAI, sagte während der Anhörung am Dienstag mehrfach, dass ChatGPT weniger Leute brauche, um es zu nutzen, weil es nicht genug GPT habe, damit jeder es nutzen könne.

Herr Altman machte gegenüber dem Justizunterausschuss des Senats sehr deutlich, dass es sich nicht um eine werbebasierte Plattform handelt und dass es OpenAI daher nicht nützt, mehr Benutzer zu haben.

Die Kommentare von Herrn Altman bezogen sich darauf, dass der Gesetzgeber Bedenken geäußert hatte, dass KI personenbezogene Daten nutzt, um die Aufmerksamkeit der Menschen zu erregen und sie so lange wie möglich zu halten.

Obwohl er erkannte, dass KI im Marketing eingesetzt wird, stellte er klar, dass dies nicht das Ziel von OpenAI sei.

ariana.baio16. Mai 2023 17:12

1684253116

Sam Altman spricht mit KI-generierten Bildern

Der CEO von Open AI sprach mit KI-generierten Bildern, wie dem von der Verhaftung von Donald Trump, als er angeklagt wurde.

Sam Altman sagte, eine einfache Möglichkeit, Fehlinformationen, die online über Bilder wie dieses verbreitet werden, zu beheben, bestehe darin, sie als „generiert“ zu kennzeichnen.

Ariana Baio16. Mai 2023 17:05

1684252212

KI-Führungskräfte und Experten sind sich einig, dass Abschnitt 230 für sie nicht gilt

Abschnitt 230 sieht Immunität für Online-Computerdienste vor, wenn schädliche Inhalte auf ihre Plattformen hochgeladen werden.

Ariana Baio16. Mai 2023 16:50

1684251990

Der CEO von OpenAI sagt, dass sie an einem Urheberrechtsmodell arbeiten

Sam Altman, der CEO von OpenAI, sagte, dass das Unternehmen daran arbeite, das Urheberrecht in seinen Systemen zu handhaben.

„Schöpfer verdienen die Kontrolle darüber, wie ihre Kreationen verwendet werden“, sagte Herr Altman am Dienstag.

KI-Tools wie Chat GPT wurden beschuldigt, die Arbeit von Künstlern gestohlen und sie dann als Originalinhalt umfunktioniert zu haben.

Herr Altman sagte, das Unternehmen arbeite an der Schaffung eines neuen Urheberrechtsmodells, um Künstlern Anerkennung, Entschädigung und Zustimmung zu gewähren.

Ariana Baio16. Mai 2023 16:46

1684251912

KI-Experte sagt, der Schlüssel zur Regulierung von KI sei Transparenz

Gary Marcus, ein KI-Experte, sagte, der Schlüssel zum Verständnis und zur Regulierung von KI-Systemen bestehe darin, von den Unternehmen mehr Transparenz bei der Schulung der Modelle zu verlangen.

„Was [AI] ist darin geschult, Vorurteile gegenüber dem System zu haben“, sagte Herr Marcus während der Anhörung des Justizunterausschusses des Senats am Dienstag.

Herr Marcus ermutigte Unternehmen mit KI-Tools, transparente Informationen bereitzustellen, die erklären würden, worauf ihr System trainiert ist, um den Menschen zu helfen, festzustellen, ob die bereitgestellten Informationen voreingenommen sind.

Ariana Baio16. Mai 2023 16:45

1684251082

Sam Altman sagt, er sei besorgt über Wahlfehlinformationen

Mehrere Mitglieder des Justizunterausschusses des Senats äußerten Bedenken hinsichtlich der Zukunft von Wahlfehlinformationen im Zusammenhang mit künstlicher Intelligenz und verwiesen auf ausländische Eingriffe in soziale Medien bei den Wahlen 2016.

Sam Altman sagte, er sei „sehr besorgt über die Auswirkungen [AI] kann sich aufgrund der Einschränkungen der Technologie auf Wahlen auswirken.

Mehrere Berichte haben gezeigt, wie Chat GPT auf Nachfrage von Benutzern falsche Informationen generieren und Fehlinformationen in Artikeln zitieren kann – etwas, das „Halluzinationen“ genannt wird.

Herr Altman sagte, dass Chat GPT entwickelt wurde, um Antworten auf schädliche Dinge zu verweigern, und überwacht wird, um sicherzustellen, dass falsche Informationen nicht ständig unter dem Deckmantel der Wahrheit weitergegeben werden.

Ariana Baio16. Mai 2023 16:31

[ad_2]

4.8/5 - (248 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein