[ad_1]
OpenAI – das Unternehmen hinter dem Blockbuster-Bot für künstliche Intelligenz (KI) chatgpt – wird seit fast einer Woche von hektischen Veränderungen erfasst. Am 17. November entließ das Unternehmen seinen charismatischen Vorstandsvorsitzenden Sam Altman. Fünf Tage und viel Drama später gab OpenAI bekannt, dass Altman mit einer Überarbeitung des Vorstands des Unternehmens zurückkehren würde.
Das Debakel hat das Schlaglicht auf eine anhaltende Debatte darüber geworfen, wie der kommerzielle Wettbewerb die Entwicklung von KI-Systemen beeinflusst und wie schnell KI ethisch und sicher eingesetzt werden kann.
„Der Drang, die Vorherrschaft zu behalten, führt zu toxischem Wettbewerb. Es ist ein Wettlauf nach unten“, sagt Sarah Myers West, Geschäftsführerin des AI Now Institute, einer politischen Forschungsorganisation mit Sitz in New York City.
Altman, ein erfolgreicher Investor und Unternehmer, war Mitbegründer von OpenAI und seinem öffentlichen Auftritt. Er war seit 2019 Vorstandsvorsitzender und überwachte eine Investition von Microsoft in Höhe von rund 13 Milliarden US-Dollar. Nach Altmans anfängliche VerdrängungMicrosoft, das OpenAI-Technologie verwendet, um seine Suchmaschine Bing zu betreiben, bot Altman einen Job an Leitung eines neuen fortgeschrittenen KI-Forschungsteams. Altmans Zurück zu OpenAI kam nach Hunderte Mitarbeiter des Unternehmens unterzeichneten einen Brief drohte, Altman zu Microsoft zu folgen, sofern er nicht wieder eingestellt würde.
Der OpenAI-Vorstand, der Altman letzte Woche verdrängte, nannte keine detaillierten Gründe für die Entscheidung. zuerst sagen dass er entlassen wurde, weil er „in seiner Kommunikation mit dem Vorstand nicht durchweg offen war“ und später hinzufügen dass die Entscheidung nichts mit „Fehlverhalten oder irgendetwas im Zusammenhang mit unserer Finanz-, Geschäfts-, Sicherheits- oder Schutz-/Datenschutzpraxis“ zu tun habe.
Einige spekulieren jedoch, dass der Brand seinen Ursprung in einem haben könnte berichtete über Schisma bei OpenAI zwischen denen, die sich auf kommerzielles Wachstum konzentrieren, und denen, die sich mit der Belastung einer schnellen Entwicklung und ihren möglichen Auswirkungen auf die Mission des Unternehmens, „sicherzustellen, dass künstliche allgemeine Intelligenz der gesamten Menschheit zugute kommt“, nicht wohl fühlen.
Kultur verändern
OpenAI mit Sitz in San Francisco, Kalifornien, wurde 2015 als gemeinnützige Organisation gegründet. Im Jahr 2019 wurde auf ein ungewöhnliches Modell mit begrenztem Gewinn umgestellt, bei dem der Vorstand ausdrücklich nicht gegenüber Aktionären oder Investoren, einschließlich Microsoft, rechenschaftspflichtig ist. Im Hintergrund von Altmans Entlassung „steht ganz klar ein Konflikt zwischen gemeinnützigen und gewinnorientierten Organisationen; ein Konflikt zwischen Kultur und Zielen“, sagt Jathan Sadowski, Sozialwissenschaftler für Technologie an der Monash University in Melbourne, Australien.
Ilya Sutskever, Chefwissenschaftler von OpenAI und Mitglied des Vorstands, der Altman verdrängte, verlagerte diesen Juli seinen Fokus auf ‚Superausrichtung‘ein vierjähriges Projekt, das sicherstellen soll, dass zukünftige Superintelligenzen zum Wohle der Menschheit arbeiten.
Es ist unklar, ob sich Altman und Sutskever über die Geschwindigkeit der Entwicklung uneinig sind: Nachdem der Vorstand Altman und Sutskever entlassen hatte drückte sein Bedauern über die Auswirkungen seines Handelns aus und gehörte zu den Mitarbeitern, die den Brief unterzeichneten, in dem sie drohten, zu gehen, sofern Altman nicht zurückkehrte.
Mit der Rückkehr von Altman hat OpenAI seinen Vorstand neu gemischt: Sutskever und Helen Toner, Forscherin für KI-Governance und Sicherheit am Center for Security and Emerging Technology der Georgetown University in Washington DC, sind nicht mehr im Vorstand. Zu den neuen Vorstandsmitgliedern gehört Bret Taylor, der im Vorstand der E-Commerce-Plattform Shopify sitzt und früher das Softwareunternehmen Salesforce leitete.
Es sei wahrscheinlich, dass sich OpenAI weiter von seinen gemeinnützigen Ursprüngen entfernen und sich zu einem klassischen gewinnorientierten Technologieunternehmen aus dem Silicon Valley umstrukturieren werde, sagt Sadowski.
Der Wettbewerb verschärft sich
OpenAI veröffentlichte ChatGPT vor fast einem Jahr und katapultierte das Unternehmen zu weltweitem Ruhm. Der Bot basierte auf dem GPT-3.5 Large Language Model (LLM) des Unternehmens, das die statistischen Korrelationen zwischen Wörtern in Milliarden von Trainingssätzen nutzt, um flüssige Antworten auf Eingabeaufforderungen zu generieren. Die Bandbreite der Fähigkeiten, die sich aus dieser Technik ergeben haben (einschließlich dessen, was manche als logisches Denken betrachten), hat Wissenschaftler und die breite Öffentlichkeit gleichermaßen verblüfft und beunruhigt.
OpenAI ist nicht das Einzige, das große Sprachmodelle verfolgt, aber die Veröffentlichung von ChatGPT hat wahrscheinlich andere zum Einsatz gebracht: google brachte seinen Chatbot Bard im März 2023 auf den Markt, im selben Monat, in dem eine aktualisierte Version von ChatGPT, basierend auf GPT-4, veröffentlicht wurde. West befürchtet, dass Produkte auf den Markt kommen, bevor irgendjemand ihr Verhalten, ihre Verwendung und ihren Missbrauch vollständig verstanden hat, und dass dies „schädlich für die Gesellschaft“ sein könnte.
Die Wettbewerbslandschaft für Konversations-KI verschärft sich. Google hat angedeutet, dass weitere KI-Produkte in Vorbereitung sind. Amazon hat sein eigenes KI-Angebot, Titan. Zu den kleineren Unternehmen, die mit ChatGPT konkurrieren wollen, gehören das deutsche Unternehmen Aleph Alpha und das in den USA ansässige Unternehmen Anthropic, das 2021 von ehemaligen OpenAI-Mitarbeitern gegründet wurde und das veröffentlicht hat Chatbot Claude 2.1 am 21. November. Stability AI und Cohere sind weitere oft genannte Konkurrenten.
West weist darauf hin, dass diese Start-ups stark auf die riesigen und teuren Rechenressourcen angewiesen sind, die von nur drei Unternehmen – Google, Microsoft und Amazon – bereitgestellt werden, was möglicherweise zu einem Wettlauf um die Vorherrschaft zwischen diesen kontrollierenden Giganten führt.
Sicherheits-Bedenken
Der Informatiker Geoffrey Hinton von der University of Toronto in Kanada, ein Pionier des Deep Learning, ist zutiefst besorgt über die Geschwindigkeit der KI-Entwicklung. „Wenn man einem Wettbewerb vorgibt, dass ein Auto so schnell wie möglich fahren soll, muss man als Erstes die Bremsen entfernen“, sagt er. (Hinton lehnte eine Stellungnahme ab Natur zu den Ereignissen bei OpenAI seit dem 17. November.)
OpenAI wurde mit dem konkreten Ziel gegründet, eine künstliche allgemeine Intelligenz (AGI) zu entwickeln – ein Deep-Learning-System, das nicht nur darauf trainiert ist, in einer bestimmten Sache gut zu sein, sondern so allgemein intelligent zu sein wie ein Mensch. Es bleibt unklar, ob AGI überhaupt möglich ist. „Die Jury ist in dieser Hinsicht sehr uneinig“, sagt West. Aber einige fangen an, darauf zu wetten. Hinton sagt, er habe früher angenommen, dass AGI innerhalb von 30, 50 oder vielleicht 100 Jahren stattfinden würde. „Im Moment denke ich, dass wir es wahrscheinlich in fünf bis 20 Jahren schaffen werden“, sagt er.
Die unmittelbaren Gefahren der KI hängen damit zusammen, dass sie von menschlichen Bösewichten als Werkzeug eingesetzt wird – Menschen, die sie beispielsweise nutzen, um Fehlinformationen zu erstellen, Betrügereien zu begehen oder möglicherweise neue Waffen für den Bioterrorismus zu erfinden1. Und weil heutige KI-Systeme auf der Suche nach Mustern in vorhandenen Daten funktionieren, neigen sie auch dazu, historische Vorurteile und soziale Ungerechtigkeiten zu verstärken, sagt West.
Langfristig befürchten Hinton und andere, dass ein KI-System selbst zu einem schlechten Akteur wird und genügend Handlungsfähigkeit entwickelt, um das Weltgeschehen in eine negative Richtung zu lenken. Dies könnte selbst dann der Fall sein, wenn eine AGI – im Einklang mit der „Superalignment“-Mission von OpenAI – entwickelt würde, um das Wohl der Menschheit zu fördern, sagt Hinton. Es könnte zum Beispiel entscheiden, dass das Gewicht des menschlichen Leidens so groß ist, dass es für die Menschheit besser wäre zu sterben, als noch mehr Elend zu erleiden. Solche Aussagen klingen wie Science-Fiction, aber Hinton argumentiert, dass die existenzielle Bedrohung durch eine KI, die nicht ausgeschaltet werden kann und auf einen destruktiven Weg abdriftet, sehr real ist.
Der vom Vereinigten Königreich im November veranstaltete KI-Sicherheitsgipfel sollte solchen Bedenken entgegenwirken. Bisher haben sich etwa zwei Dutzend Nationen darauf geeinigt, bei dem Problem zusammenzuarbeiten. Was genau sie tun werden, bleibt jedoch unklar.
West betont, dass es wichtig ist, sich auf bereits bestehende Bedrohungen durch KI zu konzentrieren und nicht auf weitreichende Bedenken – und sicherzustellen, dass bestehende Gesetze auf Technologieunternehmen angewendet werden, die KI entwickeln. Sie sagt, die Ereignisse bei OpenAI machen deutlich, dass nur wenige Unternehmen, die über das Geld und die Rechenressourcen verfügen, um KI zu unterstützen, über große Macht verfügen – etwas, das ihrer Meinung nach einer genaueren Prüfung durch die Kartellbehörden bedarf. „Lange Zeit haben die Regulierungsbehörden diesen Markt sehr zurückhaltend behandelt“, sagt West. „Wir müssen damit beginnen, die Gesetze durchzusetzen, die wir jetzt haben.“
[ad_2]