Letzte Aktualisierung:

20. Februar 2024 07:28 EST | 2 Minuten gelesen

chatgpt.jpg“ class=“attachment-post-thumbnail size-post-thumbnail wp-post-image“ alt=“Neues KI-Modell Groq fordert Elon Musks Grok und ChatGPT heraus“ decoding=“async“ srcset=“https://cimg.co/wp-content/uploads/2024/02/20122409/1708431849-new-ai-model-groq-challenges-elon-musks-grok-and-chatgpt.jpg 1200w, https://cimg.co/wp-content/uploads/2024/02/20122409/1708431849-new-ai-model-groq-challenges-elon-musks-grok-and-chatgpt-300×172.jpg 300w, https://cimg.co/wp-content/uploads/2024/02/20122409/1708431849-new-ai-model-groq-challenges-elon-musks-grok-and-chatgpt-1024×585.jpg 1024w, https://cimg.co/wp-content/uploads/2024/02/20122409/1708431849-new-ai-model-groq-challenges-elon-musks-grok-and-chatgpt-768×439.jpg 768w, https://cimg.co/wp-content/uploads/2024/02/20122409/1708431849-new-ai-model-groq-challenges-elon-musks-grok-and-chatgpt-150×86.jpg 150w“ sizes=“(max-width: 1200px) 100vw, 1200px“/>

Ein neues KI-Modell hat mit seiner blitzschnellen Reaktionsgeschwindigkeit und innovativen Technologie, die möglicherweise Elon Musks Grok und ChatGPT herausfordern könnte, in den sozialen Medien große Aufmerksamkeit erregt.

Groq, das neueste KI-Tool, das in der Branche für Aufsehen sorgt, hat schnell Aufmerksamkeit erregt, nachdem seine öffentlichen Benchmark-Tests auf der beliebten Social-Media-Plattform X viral gingen.

Viele Benutzer haben Videos der bemerkenswerten Leistung von Groq geteilt und demonstrieren damit seine Rechenleistung, die den bekannten KI-Chatbot ChatGPT übertrifft.

Groq entwickelt selbst einen maßgeschneiderten ASIC-Chip

Was Groq auszeichnet, ist die Entwicklung eines kundenspezifischen anwendungsspezifischen integrierten Schaltkreises (ASIC) durch sein Team, der speziell für große Sprachmodelle (LLMs) entwickelt wurde.

Dieser leistungsstarke Chip ermöglicht es Groq, beeindruckende 500 Token pro Sekunde zu generieren, während die öffentlich verfügbare Version von ChatGPT, bekannt als ChatGPT-3.5, mit lediglich 40 Token pro Sekunde hinterherhinkt.

Groq Inc, das Unternehmen hinter diesem KI-Wunder, behauptet, mit der Entwicklung der ersten Sprachverarbeitungseinheit (LPU) einen bahnbrechenden Meilenstein erreicht zu haben, die als Motor für das Modell von Groq dient.

Im Gegensatz zu herkömmlichen KI-Modellen, die stark auf Grafikprozessoren (GPUs) angewiesen sind, die sowohl knapp als auch teuer sind, bietet die LPU von Groq eine alternative Lösung mit unübertroffener Geschwindigkeit und Effizienz.

Interessanterweise ist Groq Inc. kein Neuling in der Branche, da es 2016 gegründet wurde und sich die Marke für den Namen „Groq“ sicherte.

Siehe auch  Die Zukunft von ChatGPT. Die nächste Grenze von… umarmen | von Mustafa Güney | November 2023

Als Elon Musk jedoch letzten November sein eigenes KI-Modell mit dem Namen Grok (mit einem „k“) vorstellte, gingen die ursprünglichen Schöpfer von Groq auf ihrem Blog auf Musks Namenswahl ein.

Auf spielerische, aber selbstbewusste Weise hoben sie die Gemeinsamkeiten hervor und forderten Musk auf, sich für einen anderen Namen zu entscheiden, da er mit ihrer bereits etablierten Marke Groq in Verbindung gebracht wird.

Trotz der jüngsten Aufregung in den sozialen Medien haben sich weder Musk noch die Grok-Seite zu X zu den Namensüberschneidungen zwischen den beiden Tools geäußert.

KI-Entwickler erstellen benutzerdefinierte Chips

Groqs erfolgreicher Einsatz seines benutzerdefinierten LPU-Modells, um andere beliebte GPU-basierte Modelle zu übertreffen, hat für Aufsehen gesorgt.

Einige spekulieren sogar, dass die LPUs von Groq möglicherweise eine erhebliche Verbesserung gegenüber GPUs bieten und die leistungsstarke Hardware gefragter Chips wie Nvidias A100 und H100 in Frage stellen könnten.

„Groq hat eine neuartige Verarbeitungseinheit namens Tensor Streaming Processor (TSP) entwickelt, die sie als Linear Processor Unit (LPU) kategorisieren“, schrieb X-Benutzer Jay Scambler.

„Im Gegensatz zu herkömmlichen GPUs, bei denen es sich um parallele Prozessoren mit Hunderten von Kernen handelt, die für die Grafikwiedergabe konzipiert sind, sind LPUs so konzipiert, dass sie deterministische Leistung für KI-Berechnungen liefern.“

Scambler fügte hinzu, dass dies bedeute, dass „die Leistung präzise vorhergesagt und optimiert werden kann, was bei Echtzeit-KI-Anwendungen von entscheidender Bedeutung ist.“

Der Trend steht im Einklang mit der aktuellen Branchenbewegung, bei der große KI-Entwickler aktiv die Entwicklung eigener Chips erforschen, um die Abhängigkeit nur von Nvidias Modellen zu verringern.

Siehe auch  ChatGPT in Ihre Bildungs-App integrieren: Eine Anleitung

Zum einen soll es OpenAI sein, ein prominenter Akteur im KI-Bereich auf der Suche nach einer beträchtlichen Finanzierung von Regierungen und Investoren weltweit, einen eigenen Chip zu entwickeln.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein