Laut einem britischen KI-Pionier könnten Open-Source-Modelle für große Sprachen (LLMs) künstliche Intelligenz gefährlicher machen. Geoffrey Hinton, der wegen seiner bahnbrechenden Arbeit zu neuronalen Netzen als „Pate der KI“ bezeichnet wird, glaubt, dass die Technologie eher ausgenutzt werden kann, wenn ihr Code online frei verfügbar ist.

In Den Letzten Monaten Wurden Von Ki-Laboren Auf Der Ganzen Welt Große Sprachmodelle Entwickelt (Foto Von Tada Images/Shutterstock).

Große Sprachmodelle wie GPT-4 von OpenAI oder PaLM von google bilden die Grundlage für generative KI-Systeme wie chatgpt, die sich in den letzten Monaten einer raschen Akzeptanz bei Unternehmen und Verbrauchern erfreut haben. Die Fähigkeit dieser Tools, in Sekundenschnelle automatisch detaillierte Bilder und Texte zu generieren, könnte für viele Branchen einen Wandel bewirken, aber aufgrund der geschlossenen Natur der KI-Modelle – und der damit verbundenen hohen Entwicklungskosten – kann der Zugriff darauf teuer sein.

Viele argumentieren, dass Open-Source-LLMs eine kostengünstigere Alternative darstellen können, insbesondere für kleine Unternehmen, die die Leistungsfähigkeit der KI nutzen und Tools wie ChatGPT nutzen möchten.

Das Problem mit Open-Source-LLMs

Aber Hinton, der sagt, er habe letzten Monat seinen Job bei Google aufgegeben, um seine Bedenken hinsichtlich der KI-Entwicklung frei äußern zu können, glaubt, dass die wachsende Open-Source-LLM-Bewegung problematisch sein könnte.

Nach seinem Vortrag am Cambridge University Centre for the Study of Existential Risk am Donnerstagabend sagte Hinton: „Die Gefahr von Open Source besteht darin, dass es mehr Verrückten ermöglicht, verrückte Dinge damit zu machen.“ [AI].

Er sagte, er glaube, dass LLMs, die auf die Labore von Unternehmen wie OpenAI beschränkt bleiben, sich letztendlich als vorteilhaft erweisen könnten. „Wenn diese Dinge gefährlich werden, könnte es für ein paar große Unternehmen – vorzugsweise in mehreren verschiedenen Ländern – besser sein, diese Dinge zu entwickeln und gleichzeitig Wege zu finden, sie unter Kontrolle zu halten.

Siehe auch  Wenn Sie diese KI verwenden, vergessen Sie die Suche bei Google und erhalten kostenlosen Spaß wie ChatGPT – Perplexity AI lässt Sie die Google-Suche und ChatGPT ttec vergessen

„Sobald man alles als Open Source anbietet, werden die Leute anfangen, alle möglichen verrückten Dinge damit zu machen. Es wäre eine sehr schnelle Möglichkeit, herauszufinden, wie [AI] kann schiefgehen.”

Hinton nutzte seinen Vortrag, um seine Überzeugung zu bekräftigen, dass der Punkt, an dem die Fähigkeiten einer sogenannten superintelligenten KI die menschliche Intelligenz übertreffen werden, nicht mehr weit entfernt ist, und sagte, dass GPT-4 seiner Ansicht nach bereits Anzeichen von Intelligenz zeige. „Diese Dinge werden intelligenter werden als wir, und das könnte schon bald passieren“, sagte er. „Früher habe ich geglaubt, dass es noch 50 bis 100 Jahre dauern würde, aber jetzt glaube ich, dass es eher fünf bis 20 sind. Und wenn es in fünf Jahren passiert, können wir es nicht einfach den Philosophen überlassen, zu entscheiden, was wir tun.“ Dafür brauchen wir Menschen mit Praxiserfahrung.“

Inhalte unserer Partner
Shutterstock 1062915392 50 1 25 2Wie Sie in der Hybrid Cloud das Beste aus beiden Welten herausholen” title=”Wie Sie in der Hybrid Cloud das Beste aus beiden Welten herausholen” loading=”lazy” srcset=”https://techmonitor.ai/wp-content/uploads/sites/4/2023/05/shutterstock_1062915392_50-1_25-2-464×348.jpg 464w, https://techmonitor.ai/wp-content/uploads/sites/4/2023/05/shutterstock_1062915392_50-1_25-2-314×235.jpg 314w” sizes=”(max-width: 464px) 100vw, 464px”/>
Der Schlüssel Zu Einer Guten Cybersicherheit In Unternehmen Ist Eine Umfassende Verteidigung
Cybersicherheit Im Jahr 2023 Ist Ein System Der Zwei Geschwindigkeiten

Er fügte hinzu: „Ich wünschte, ich hätte eine einfache Antwort [for how to handle AI]. Ich gehe davon aus, dass die Unternehmen, die es entwickeln, gezwungen werden sollten, viel Arbeit in die Überprüfung der Sicherheit zu stecken [AI models] wie sie sie entwickeln. Wir müssen Erfahrungen mit diesen Dingern sammeln, wie sie versuchen zu entkommen und wie sie kontrolliert werden können.“

Am Freitag gab DeepMind, das KI-Labor von Hintons ehemaligem Arbeitgeber Google, bekannt, dass es ein Frühwarnsystem entwickelt habe, um potenzielle Risiken durch KI zu erkennen.

Siehe auch  Dubai führt einen „digitalen Stadt-Concierge“ im ChatGPT-Stil ein, der Dienste und Informationen anbietet

Wie Unternehmen von Open-Source-LLMs profitieren können

Open-Source-LLMs sind online relativ zahlreich verfügbar, insbesondere seit der Quellcode von Metas LLM, LLaMa, im März online durchgesickert ist.

Auch Softwareanbieter versuchen, vom wachsenden Wunsch der Unternehmen nach installierbaren, zielgerichteten und personalisierbaren LLMs zu profitieren, die auf Unternehmensdaten trainiert werden können. Im April veröffentlichte Databricks ein LLM namens Dolly 2.0, das als erstes Open-Source-LLM mit Anweisungsbefolgung für die kommerzielle Nutzung propagiert wurde. Laut Databricks verfügt es über eine ChatGPT-ähnliche Funktionalität und kann intern ausgeführt werden.

Befürworter von Open-Source-Modellen sagen, dass sie das Potenzial haben, den Zugang zu KI-Systemen wie ChatGPT zu demokratisieren. Sprechen mit Tech-Monitor Anfang dieses Monats sagte der Softwareentwickler Keerthana Gopalakrishnan, der mit Open-Source-Modellen arbeitet: „Ich denke, es ist wichtig, die Eintrittsbarriere für Experimente zu senken.“ Sie fügte hinzu: „Es gibt viele Menschen, die sich für diese Technologie interessieren und wirklich innovativ sein wollen.“

4.6/5 - (91 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein