Amazon baut ein „allgemeineres und leistungsfähigeres“ großes Sprachmodell (LLM) auf, um Alexa anzutreiben, sagte Andy Jassy, ​​CEO von Amazon, während der Unternehmenskonferenz Gewinnmitteilung für das erste Quartal gestern. Ein LLM, wie ChatGPT, ist ein Deep-Learning-Algorithmus, der Texte und andere Inhalte basierend auf Wissen aus riesigen Textdatenmengen erkennen, zusammenfassen und generieren kann.

Jassy sagte, dass Amazon zwar über ein LLM verfügt, das Alexa antreibt, der Technologieriese jedoch an einem arbeitet, das leistungsfähiger ist als das aktuelle. Der Amazon-Manager glaubt, dass die Hinzufügung eines verbesserten LLM Amazon dabei helfen wird, sein Ziel zu erreichen, den „besten persönlichen Assistenten der Welt“ zu bauen, räumte jedoch ein, dass dies in vielen Bereichen schwierig sein wird.

Jassy sagte weiter, er glaube, dass Amazon mit Alexa einen guten Ausgangspunkt habe, da das Unternehmen über „ein paar hundert Millionen Endpunkte“ verfüge, die in den Bereichen Unterhaltung, Shopping und Smart Homes genutzt würden. Er wies auch darauf hin, dass es eine starke Beteiligung Dritter an Ökosystempartnern gebe.

Siehe auch  New York City schickt skurrilen Atomkriegs-PSA

„Uns lag ein großes Sprachmodell zugrunde, aber wir bauen eines, das viel größer, allgemeiner und leistungsfähiger ist“, sagte Jassy. „Und ich denke, das wird unsere Vision, der beste persönliche Assistent der Welt zu werden, wirklich schnell beschleunigen. Ich denke, dass dahinter ein bedeutendes Geschäftsmodell steckt.“

Während des Anrufs betonte Jassy, ​​dass Amazon seit Jahren in KI und LLMs investiert und dass es zwar die Möglichkeit hat, stark in den Aufbau von LLMs zu investieren, kleine Unternehmen jedoch nicht, weshalb das Unternehmen Anfang dieses Monats Bedrock ins Leben gerufen hat. Bedrock bietet eine Möglichkeit, generative KI-gestützte Apps mithilfe vorab trainierter Modelle von Start-ups zu erstellen AI21 Labs, Anthropische und Stabilitäts-KI. Bedrock ist in einer „begrenzten Vorschau“ verfügbar und bietet auch Zugriff auf Titan FMs (Foundation Models), eine von AWS intern trainierte Modellfamilie.

Seit seiner Einführung im letzten Jahr hat ChatGPT das Internet dominiert und wird immer beliebter. Bei all dem Hype um ChatGPT ist es keine Überraschung, dass große Technologieunternehmen versuchen, LLM-basierte Verbesserungen in ihre eigenen Angebote zu integrieren, um mit dem schnelllebigen KI-Bereich Schritt zu halten. Zum Beispiel, Die Information berichtete gestern, dass Apple LLM-basierte Verbesserungen für Siri entwickelt. Es ist nichts wert, dass Google wahrscheinlich etwas Ähnliches für Assistant tut.

Amazon war nicht das einzige Unternehmen, das in seinem vierteljährlichen Investorengespräch die KI thematisierte, auch Alphabet, Microsoft und Meta betonten ihre Investitionen in große Sprachmodelle. Sundar Pichai, CEO von Alphabet, sagte, dass Google weiterhin KI integrieren werde, um die Suche voranzutreiben, während Microsoft-CEO Satya Nadella sagte, das Unternehmen werde weiterhin in KI investieren, und wies darauf hin, dass Microsoft nach der Aktualisierung der Suchmaschine bereits einen Anstieg der Nutzung von Bing festgestellt habe eine ChatGPT-Integration. Darüber hinaus sagte Mark Zuckerberg, CEO von Meta, dass das Unternehmen in KI investieren und neue KI-bezogene Updates für alle seine Apps einführen werde.

Siehe auch  The Acolyte Trailer Beschreibung – Jedi, Sith

Amazon meldete für das erste Quartal Gewinne, die die Erwartungen übertrafen und die Aktien zunächst in die Höhe trieben, änderte jedoch später den Kurs, nachdem Führungskräfte Bedenken hinsichtlich einer anhaltenden Schwäche des Cloud-Wachstums geäußert hatten. Der Quartalsumsatz stieg um 9,4 % auf 127,4 Milliarden US-Dollar, während das Betriebsergebnis 4,8 Milliarden US-Dollar betrug.

4.7/5 - (215 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein