Facebook- und Instagram-Elternteil Meta Platforms Inc. möchte mit OpenAI LP im Bereich der generativen künstlichen Intelligenz mit einem alternativen, aber Open-Source-Modell konkurrieren, das wahrscheinlich so leistungsstark wie GPT-4 ist.
Das neue Modell von Meta wird „um ein Vielfaches leistungsfähiger“ sein als das generative KI-Modell Llama 2, das Anfang des Jahres veröffentlicht wurde, so die von Meta zitierten Quellen Wallstreet Journal Heute. Ein von Meta-Chef Mark Zuckerberg (im Bild) gebildetes Team baut das System auf, das anderen Unternehmen zur Verfügung gestellt werden soll, die KI-Dienste rund um die Texterstellung, Bilderstellung und Analyse erstellen möchten. Die genaue Art dieser Funktionen kann sich jedoch ändern.
Letztendlich möchte Meta die Entwicklung der nächsten Generation generativer KI-Modelle beschleunigen, die in der Lage sind, menschlichere Ausdrücke zu erzeugen. Zuckerberg ist entschlossen, Meta als eine wichtige Kraft in der KI-Branche zu etablieren, da die Rolle seines Unternehmens in seiner Entwicklung von den Errungenschaften von OpenAI mit chatgpt sowie von google LLC mit seinem Bard-Chatbot und sogar einigen namhaften KI-Startups wie z Cohere Inc. und Anthropic.
Vor allem OpenAI hat in diesem Jahr große Fortschritte gemacht: ChatGPT eroberte das Internet im Sturm und das Unternehmen folgte mit geldverdienenden Diensten wie ChatGPT Plus und seinem kürzlich eingeführten ChatGPT for Business-Tool. Darüber hinaus hat das von der Microsoft Corp. unterstützte Startup andere Unternehmen dazu ermutigt, auf seinem GPT 4-Modell aufzubauen, das die Grundlage für ChatGPT bildet. Unterdessen hat Google kürzlich Bard vorgestellt und plant nun ein leistungsfähigeres großes Sprachmodell namens Gemini.
Diese Monetarisierungsbemühungen sind Teil der Bemühungen von OpenAI, die enormen Geldbeträge wieder hereinzuholen, die das Unternehmen für das Training und den Betrieb seiner fortschrittlichen Modelle ausgegeben hat. Auch Meta gibt Berichten zufolge enorme Summen aus, um weitere leistungsstarke H100-Grafikprozessoren von Nvidia Corp. aufzukaufen, die wegen ihrer Fähigkeit, generative KI zu trainieren, sehr gefragt sind. Obwohl Meta zuvor Microsofts Azure und die Cloud-Plattform von IBM Corp. zum Hosten und Verteilen von Llama 2 genutzt hat, plant das Unternehmen, das neue Modell innerhalb seines eigenen Rechenzentrumsnetzwerks zu trainieren, so die Quellen des Journals.
Die KI-Entwicklung ist unglaublich teuer, aber Meta ist entschlossen, sein neues Modell unter einer Open-Source-Lizenz verfügbar zu machen, was bedeutet, dass es anderen Unternehmen kostenlos zur Nutzung und Entwicklung einer Reihe generativer KI-Tools und -Dienste zur Verfügung steht.
Meta verfolgt mit seinen KI-Initiativen seit langem einen Open-Source-Ansatz und gilt als einer der größten Mitwirkenden der Branche. Allein in diesem Jahr wurden zahlreiche KI-Modelle und Trainingsdatensätze für die KI-Community veröffentlicht.
Dazu gehört das große Sprachmodell Code Llama, das für Programmieraufgaben optimiert ist; ein SeamlessM4T-Modell für universelle On-Demand-Übersetzungen für Hunderte von Sprachen; AudioCraft, ein generatives KI-Modell zum Erstellen von Musik und Sound; und Voicebox, ein generatives KI-Modell für Sprache. Außerdem wurden in diesem Jahr I-JEPA vorgestellt, ein Computer-Vision-Modell, das mehr wie Menschen lernt, und FACET, ein Benchmark-Datensatz, der Forscher dabei unterstützen soll, Computer-Vision-Modelle auf Verzerrungen zu prüfen.
Constellation Research Inc. Vizepräsident und Hauptanalyst Andy Thurai sagte gegenüber SiliconANGLE, dass nach der riesigen Finanzierungsrunde von AI21 Labs Inc. im letzten Monat die Zukunft der generativen KI in Open Source liegen könnte, da die von Unternehmen wie OpenAI angebotenen Dienste teuer sind. Er betonte, dass „Unternehmen früher oder später Wege finden werden, diese Open-Source-Modelle selbst zu trainieren oder sogar ihre eigenen zu viel geringeren Kosten zu erstellen.“
Open-Source-KI-Modelle lassen sich außerdem einfacher anpassen, was Meta einen weiteren deutlichen Vorteil gegenüber seinen Konkurrenten verschafft. Allerdings gibt es auch Nachteile des offenen Ansatzes, beispielsweise das Risiko der Verwendung möglicherweise urheberrechtlich geschützter Informationen. Es gibt auch Bedenken, dass besser zugängliche Open-Source-KI-Tools von böswilligen Akteuren leichter zur Verbreitung von Desinformationen und Fake News genutzt werden können.
Anfang des Jahres legte Zuckerberg in einem internen Treffen mit Mitarbeitern des Unternehmens seine großen Ambitionen für generative KI dar und sprach über das Potenzial, das sie bei der Erstellung von 3D-Visualisierungen für das Metaversum bietet. Meta plant außerdem die Einführung neuer generativer KI-Funktionen in Instagram, die es Benutzern ermöglichen, Bilder mit Eingabeaufforderungen zu bearbeiten, sowie „KI-Agenten“ für Messenger und WhatsApp, die für Bildung und Unterhaltung konzipiert sind.
Es bleibt jedoch abzuwarten, ob das neue KI-Modell von Meta jemals mit OpenAI mithalten kann oder nicht, da ihre Leistungsfähigkeit von der Datenmenge abhängt, auf der sie trainiert werden. Metas Llama 2 wurde Berichten zufolge anhand von 70 Milliarden Parametern von Trainingsdaten trainiert. OpenAI hat nicht öffentlich gesagt, auf wie vielen Parametern GPT-4 basiert, aber andere haben geschätzt, dass es bis zu 20-mal größer als Llama sein könnte, basierend auf etwa 1,5 Billionen Parametern.
Bild: Anthony Quintano/Flickr
Ihre Unterstützung ist uns wichtig und hilft uns, den Inhalt KOSTENLOS zu halten.
Ein Klick unten unterstützt unsere Mission, kostenlose, umfassende und relevante Inhalte bereitzustellen.
Treten Sie unserer Community auf YouTube bei
Treten Sie der Community bei, die mehr als 15.000 #CubeAlumni-Experten umfasst, darunter Andy Jassy, CEO von Amazon.com, Michael Dell, Gründer und CEO von Dell Technologies, Pat Gelsinger, CEO von Intel, und viele weitere Koryphäen und Experten.
DANKE