[ad_1]
Sam Altman hat gequetscht Gerüchte das OpenAI arbeitet bereits an ChatGPT-5, nur einen Monat nach der die Veröffentlichung des GPT-4 durch das Unternehmen. Derzeit befinde sich kein GPT-5 im Training, sagte Altman währenddessen virtuell sprechen bei einer Veranstaltung am Massachusetts Institute of Technology.
Interviewer Lex Fridman, ein KI-Forscher am MIT, fragte Altman nach seiner Meinung zu dem kürzlich veröffentlichten und weit verbreiteten Offener Brief, der eine KI-Pause fordert. Als Antwort teilte der OpenAI-Gründer einige seiner Kritikpunkte mit. „Eine frühere Version des Briefes behauptete, OpenAI trainiere gerade GPT-5. Wir sind es nicht und werden es für einige Zeit nicht tun“, bemerkte Altman. „Also in diesem Sinne [the letter] war irgendwie albern.“
Aber, GPT-5 oder nicht, Altmans Aussage ist wahrscheinlich nicht besonders beruhigend für die Kritik von AI, wie erstmals in einem Bericht von betont wurde der Rand. Der Tech-Gründer folgte seiner Ankündigung „kein GPT-5“, indem er sofort klarstellte, dass Upgrades und Updates für GPT-4 in Arbeit sind. Es gibt Möglichkeiten, die Kapazität einer Technologie über die Veröffentlichung einer offiziellen Version mit höherer Nummer hinaus zu erhöhen.
„Wir machen andere Dinge zusätzlich zu GPT-4, von denen ich denke, dass sie alle möglichen Sicherheitsprobleme haben, die es zu beachten gilt und die in dem Schreiben völlig ausgelassen wurden“, sagte Altman – im Wesentlichen gab er zu, dass OpenAI diese Produktoptimierungen ausliefert möglicherweise nicht vollständig optimiert zum Wohle der Menschheit oder der Benutzersicherheit. Beispielsweise veröffentlichte das Unternehmen Ende März ein Plug-in für GPT-4, das es ermöglicht sein großes Sprachmodell im Internet surfen, was dazu führen könnte noch mehr Datenschutz Und Benutzermanipulation Anliegen.
Altman hat sich bemüht, die KI-Ängste zu zerstreuen. Er sagte, dass OpenAI über sechs Monate damit verbracht habe, GPT-4 vor seiner Veröffentlichung zu trainieren. Er merkte auch an, dass „sich die Zeit zu nehmen, die Sicherheit des Modells wirklich zu studieren … das ist wichtig.“
„Da die Fähigkeiten immer ernster werden, muss die Sicherheitsbarriere höher werden“, fügte Altman hinzu. „Ich denke, dass es wirklich wichtig ist, sich mit Vorsicht und einer zunehmenden Strenge in Sicherheitsfragen zu bewegen. Der Brief ist meiner Meinung nach nicht der optimale Weg, ihn anzusprechen.“
Dennoch sollten Sie wahrscheinlich nehmen Die Sicherheitspriorisierung des CEO von OpenAI wird mit einiger Skepsis geäußert. Auch im MIT-Interview vom Donnerstag ist das nicht alles umstrittener Unternehmer sagte klingelte wahr.
Auf die Frage, ob OpenAI auch in Zukunft transparent sein wird, sagte Altman: „Wir planen auf jeden Fall, dies auch weiterhin zu tun.“ Außer die Frage selbst ist ein irreführender Softball. OpenAI, das einst eine echte Open-Source-Non-Profit-Organisation war, hat sich zu einem zunehmend verschlossenen, gewinnorientierten Unternehmen entwickelt. Insbesondere GPT-4 ist eine Blackbox. Das Unternehmen hat keine Informationen zu den Trainingsdaten veröffentlicht, auf die sein jüngster Chatbot abgestimmt wurde. Es hat auch keine Informationen über die Architektur, den Aufbau oder andere wahre innere Abläufe von GPT-4 weitergegeben.
„Angesichts der Wettbewerbslandschaft und der Sicherheitsauswirkungen von großen Modellen wie GPT-4 enthält dieser Bericht keine weiteren Details über die Architektur (einschließlich Modellgröße), Hardware, Trainingsberechnung, Datensatzkonstruktion, Trainingsmethode oder ähnliches.“ OpenAI hat sich gemeldet der technische Bericht die das Unternehmen zusammen mit der GPT-4-Veröffentlichung veröffentlicht hat.
Altman war sich auch sicher, sich zu wehren. Die Dinge, die er sagt, nun, er ist sich vielleicht nicht sicher, dass sie richtig sind:
Ich denke, viele andere Unternehmen wollen nichts sagen, bis sie sicher sind, dass es richtig ist. Aber ich denke, dass diese Technologie uns alle so beeinflussen wird, dass wir glauben, dass wir alle in die Diskussion einbeziehen, diese Systeme in die Welt hinaustragen – obwohl sie in ihrem derzeitigen Zustand zutiefst unvollkommen sind – damit die Menschen sie erleben können, über sie nachdenken, die Vor- und Nachteile verstehen; Es ist den Kompromiss wert, auch wenn wir uns in der Öffentlichkeit oft blamieren und unsere Meinung mit neuen Daten häufig ändern müssen.
Sie könnten glauben, dass KI-Chatbots es sind der Anfang vom Ende der Menschheit. Oder Sie denken vielleicht, dass alle Dieses sogenannte „künstliche Intelligenz“-Zeug wird überbewertet. Unabhängig davon, wo Sie auf der Suche nach einem stehen sechsmonatiges KI-Moratorium ist Altmans Antwort auf den offenen Brief letztlich eher eine Nicht-Antwort.
[ad_2]