SAN FRANCISCO, 20. November (Reuters) – Die Kluft, die dem Talent für künstliche Intelligenz, Sam Altman, seinen Job als CEO bei OpenAI gekostet hat, spiegelt eine grundsätzliche Meinungsverschiedenheit über Sicherheit im Großen und Ganzen zwischen zwei Lagern wider, die die weltverändernde Software entwickeln und über ihre gesellschaftlichen Auswirkungen nachdenken .

Auf der einen Seite stehen diejenigen wie Altman, die die rasante Entwicklung und insbesondere den öffentlichen Einsatz von KI als wesentlich für Stresstests und die Perfektionierung der Technologie ansehen. Auf der anderen Seite gibt es diejenigen, die sagen, dass der sicherste Weg nach vorn darin besteht, KI vollständig zu entwickeln und zunächst in einem Labor zu testen, um sicherzustellen, dass sie sozusagen für den menschlichen Verzehr sicher ist.

Altman, 38, wurde am Freitag von der Firma entlassen, die den beliebten chatgpt-Chatbot entwickelt hat. Für viele galt er als das menschliche Gesicht der generativen KI.

Einige warnen davor, dass die hyperintelligente Software unkontrollierbar werden und zu einer Katastrophe führen könnte – eine Sorge unter Technikarbeitern, die einer sozialen Bewegung namens „effektiver Altruismus“ folgen und glauben, dass KI-Fortschritte der Menschheit zugute kommen sollten. Zu denjenigen, die solche Befürchtungen teilen, gehört Ilya Sutskever von OpenAI, der Chefwissenschaftler und Vorstandsmitglied, das Altmans Absetzung genehmigt hat.

Eine ähnliche Meinungsverschiedenheit ist zwischen den Entwicklern selbstfahrender Autos – ebenfalls KI-gesteuert – entstanden, die sagen, sie müssten durch dichte städtische Straßen losgelassen werden, um die Fähigkeiten und Schwächen der Fahrzeuge vollständig zu verstehen; Während andere zur Zurückhaltung drängen, weil sie befürchten, dass die Technologie unbekannte Risiken birgt.

Diese Sorgen über generative KI erreichten ihren Höhepunkt mit dem überraschenden Sturz von Altman, der auch Mitbegründer von OpenAI war. Generative KI ist die Bezeichnung für Software, die als Reaktion auf einfache Eingabeaufforderungen zusammenhängende Inhalte wie Aufsätze, Computercode und fotoähnliche Bilder ausspucken kann. Die Popularität von ChatGPT von OpenAI im vergangenen Jahr hat die Debatte darüber beschleunigt, wie die Software am besten reguliert und entwickelt werden kann.

Siehe auch  Quontic Bank eröffnet Metaverse-Außenposten

„Die Frage ist, ob es sich nur um ein weiteres Produkt wie soziale Medien oder Kryptowährungen handelt oder ob es sich um eine Technologie handelt, die den Menschen übertreffen und unkontrollierbar werden kann“, sagte Connor Leahy, CEO von ConjectureAI und Verfechter der Sicherheit. „Gehört die Zukunft denn den Maschinen?“

Berichten zufolge hatte Sutskever das Gefühl, dass Altman die OpenAI-Software zu schnell in die Hände der Benutzer drückte, was möglicherweise die Sicherheit gefährdete.

„Wir haben keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird“, schrieben er und ein Stellvertreter in einem Blogbeitrag im Juli. „Viel intelligenter als wir werden Menschen nicht in der Lage sein, KI-Systeme zuverlässig zu überwachen.“

Besonders besorgniserregend war Berichten zufolge, dass OpenAI Anfang des Monats auf seiner Entwicklerveranstaltung eine Reihe neuer kommerziell erhältlicher Produkte ankündigte, darunter eine Version seiner ChatGPT-4-Software und sogenannte Agenten, die wie virtuelle Assistenten funktionieren.

Sutskever antwortete nicht auf eine Bitte um Stellungnahme.

Das Schicksal von OpenAI wird von vielen Technologen als entscheidend für die Entwicklung der KI angesehen. Am Wochenende scheiterten die Diskussionen über eine Wiedereinsetzung Altmans, was die Hoffnungen der Anhänger des ehemaligen CEO zunichte machte.

Die Veröffentlichung von ChatGPT im vergangenen November löste eine Flut von Investitionen in KI-Unternehmen aus, darunter 10 Milliarden US-Dollar von Microsoft (MSFT.O) in OpenAI und weitere Milliarden für andere Startups, darunter von Alphabet (GOOGL.O) und Amazon.com (AMZN.O).

Das kann helfen, die Explosion neuer KI-Produkte zu erklären, während Firmen wie Anthropic und ScaleAI darum wetteifern, den Anlegern Fortschritte zu zeigen. Unterdessen versuchen die Regulierungsbehörden, mit der Entwicklung der KI Schritt zu halten, einschließlich Richtlinien der Biden-Regierung und der Forderung einiger Länder nach einer „obligatorischen Selbstregulierung“, während die Europäische Union daran arbeitet, eine umfassende Aufsicht über die Software einzuführen.

Siehe auch  Fußballminister Darmanin: Liverpool-Fans bereiten der öffentlichen Ordnung Probleme

Während die meisten generative KI-Software wie ChatGPT nutzen, um ihre Arbeit zu ergänzen, beispielsweise kurze Zusammenfassungen langer Dokumente zu schreiben, sind Beobachter vorsichtig gegenüber Versionen, die möglicherweise als „künstliche allgemeine Intelligenz“ oder AGI bekannt sind und ohne diese immer kompliziertere Aufgaben ausführen könnten jede Aufforderung. Dies hat Bedenken geweckt, dass die Software allein Verteidigungssysteme übernehmen, politische Propaganda betreiben oder Waffen produzieren könnte.

OpenAI wurde vor acht Jahren als gemeinnützige Organisation gegründet, unter anderem um sicherzustellen, dass seine Produkte nicht auf Profit ausgerichtet sind, was dazu führen könnte, dass das Unternehmen in eine gefährliche AGI abrutscht für die Menschheit oder eine unangemessene Konzentration der Macht.“ Seitdem hat Altman jedoch dazu beigetragen, innerhalb des Unternehmens eine gewinnorientierte Einheit zu schaffen, die der Beschaffung von Geldern und anderen Zwecken dient.

Am späten Sonntag ernannte OpenAI Emmett Shear, den ehemaligen Chef der Streaming-Plattform Twitch, zum Interims-CEO. Er plädierte im September in den sozialen Medien für eine „Verlangsamung“ der KI-Entwicklung. „Wenn wir gerade ein Tempo von 10 haben, reduziert sich eine Pause auf 0. Ich denke, wir sollten stattdessen ein 1:2 anstreben“, schrieb er.

Die genauen Gründe für Altmans Sturz waren am Montag noch unklar. Man kann jedoch mit Sicherheit den Schluss ziehen, dass OpenAI in Zukunft vor großen Herausforderungen steht.

Berichterstattung von Greg Bensinger in San Francisco. Redaktion von Kenneth Li und Matthew Lewis

Unsere Standards: Die Thomson Reuters Trust-Grundsätze.

Erwerben Sie Lizenzrechteöffnet neuen Tab

Greg Bensinger kam 2022 als Technologiekorrespondent zu Reuters und konzentriert sich auf die weltweit größten Technologieunternehmen. Zuvor war er Mitglied der Redaktion der New York Times und Technologie-Reporter für die Washington Post und das Wall Street Journal. Er arbeitete auch für Bloomberg News und schrieb über die Automobil- und Telekommunikationsbranche. Er studierte englische Literatur an der University of Virginia und absolvierte einen Abschluss in Journalismus an der Columbia University. Greg lebt mit seiner Frau und seinen zwei Kindern in San Francisco.

Siehe auch  Einführung von ChatGPT am Arbeitsplatz
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein