[ad_1]

Amazon wirft seinen Hut in den Ring der generativen KI. Aber anstatt KI-Modelle komplett selbst zu erstellen, rekrutiert es Dritte, um Modelle auf AWS zu hosten.

AWS hat heute Amazon Bedrock vorgestellt, das eine Möglichkeit bietet, generative KI-gestützte Apps über vortrainierte Modelle von Startups zu erstellen AI21-Labors, Anthropische und Stabilitäts-KI. Bedrock ist in einer „eingeschränkten Vorschau“ verfügbar und bietet auch Zugriff auf Titan FMs (Foundation Models), eine Familie von Modellen, die von AWS intern trainiert wurden.

„Maschinelles Lernen auf die reale Welt anzuwenden – echte Geschäftsprobleme in großem Maßstab zu lösen – ist das, was wir am besten können“, sagte Vasi Philomin, VP für generative KI bei AWS, gegenüber TechCrunch in einem Telefoninterview. „Wir glauben, dass jede Anwendung da draußen mit generativer KI neu gestaltet werden kann.“

Das Debüt von Bedrock wurde in den letzten Monaten durch die kürzlich eingegangenen Partnerschaften von AWS mit generativen KI-Startups in gewisser Weise telegrafiert, zusätzlich zu den wachsenden Investitionen in die Technologie, die zum Erstellen generativer KI-Apps erforderlich ist.

Im vergangenen November wählte Stability AI AWS als seinen bevorzugten Cloud-Anbieter aus, und im März arbeiteten Hugging Face und AWS zusammen, um die Textgenerierungsmodelle von AWS auf die AWS-Plattform zu bringen. Vor kurzem hat AWS einen generativen KI-Beschleuniger für Startups eingeführt und angekündigt, mit Nvidia zusammenzuarbeiten, um eine Infrastruktur der „nächsten Generation“ für das Training von KI-Modellen aufzubauen.

Grundgestein und benutzerdefinierte Modelle

Bedrock ist Amazons bisher stärkstes Spiel auf dem Markt für generative KI, der bis 2030 einen Wert von fast 110 Milliarden US-Dollar haben könnte. nach Schätzungen von Grand View Research.

Mit Bedrock können sich AWS-Kunden dafür entscheiden, KI-Modelle von einer Vielzahl unterschiedlicher Anbieter, einschließlich AWS, über eine API anzuzapfen. Die Details sind etwas düster – Amazon hat zum Beispiel keine formellen Preise angekündigt. Sondern das Unternehmen tat betonen, dass sich Bedrock an große Kunden richtet, die KI-Apps im „Unternehmensmaßstab“ erstellen, und sich damit von einigen der Hosting-Dienste für KI-Modelle wie Replicate (und den etablierten Konkurrenten Google Cloud und Azure) unterscheiden.

Man geht davon aus, dass Anbieter von generativen KI-Modellen durch die Reichweite von AWS oder die potenzielle Umsatzbeteiligung dazu angeregt wurden, Bedrock beizutreten. Amazon hat jedoch keine Bedingungen der Modelllizenz- oder Hosting-Vereinbarungen offengelegt.

Siehe auch  Honor Among Thieves Trailer neckt einen Überfall

Zu den auf Bedrock gehosteten Drittanbietermodellen gehört die Jurassic-2-Familie von AI21 Labs, die mehrsprachig ist und Texte in Spanisch, Französisch, Deutsch, Portugiesisch, Italienisch und Niederländisch generieren kann. Claude, Anthropics Modell auf Bedrock, kann eine Reihe von Konversations- und Textverarbeitungsaufgaben ausführen. In der Zwischenzeit kann die Suite von Text-zu-Bild-Modellen von Stability AI, die von Bedrock gehostet werden, einschließlich Stable Diffusion, Bilder, Kunst, Logos und Grafikdesigns generieren.

Aws Grundgestein

Bildnachweis: Amazonas

Was die maßgeschneiderten Angebote von Amazon betrifft, so umfasst die Titan FM-Familie derzeit zwei Modelle, wobei in Zukunft vermutlich weitere hinzukommen werden: ein Textgenerierungsmodell und ein Einbettungsmodell. Das texterzeugende Modell, das GPT-4 von OpenAI ähnelt (aber nicht unbedingt leistungsmäßig gleichwertig ist), kann Aufgaben wie das Schreiben von Blogbeiträgen und E-Mails, das Zusammenfassen von Dokumenten und das Extrahieren von Informationen aus Datenbanken ausführen. Das Einbettungsmodell übersetzt Texteingaben wie Wörter und Phrasen in numerische Darstellungen, sogenannte Einbettungen, die die semantische Bedeutung des Textes enthalten. Philomin behauptet, es sei einem der Modelle ähnlich, die die Suche auf Amazon.com antreiben.

AWS-Kunden können jedes Bedrock-Modell anpassen, indem sie den Service auf einige gekennzeichnete Beispiele in Amazon S3, dem Cloud-Speicherplan von Amazon, verweisen – nur 20 sind genug. Laut Amazon werden keine Kundendaten verwendet, um die zugrunde liegenden Modelle zu trainieren.

„Bei AWS … haben wir eine Schlüsselrolle dabei gespielt, maschinelles Lernen zu demokratisieren und es für jeden zugänglich zu machen, der es nutzen möchte“, sagte Philomin. „Amazon Bedrock ist der einfachste Weg, generative KI-Anwendungen mit Basismodellen zu erstellen und zu skalieren.“

Angesichts der ungeklärten Rechtsfragen rund um die generative KI fragt man sich natürlich, wie viele Kunden genau beißen werden.

Microsoft hat Erfolg mit seiner generativen KI-Modellsuite Azure OpenAI Service, die OpenAI-Modelle mit zusätzlichen Funktionen bündelt, die auf Unternehmenskunden ausgerichtet sind. Bis März nutzten über 1.000 Kunden den Azure OpenAI Service, sagte Microsoft in a Blogeintrag.

Es sind jedoch mehrere Klagen wegen generativer KI-Technologie von Unternehmen wie OpenAI und Stability AI anhängig, die von Klägern eingereicht wurden, die behaupten, dass urheberrechtlich geschützte Daten, hauptsächlich Kunst, ohne Erlaubnis verwendet wurden, um die generativen Modelle zu trainieren. (Generative KI-Modelle „lernen“, Kunst, Code und mehr zu erstellen, indem sie anhand von Beispielbildern und -texten „trainieren“, die normalerweise wahllos aus dem Internet geschabt werden.) Eine andere Fall Ein australischer Bürgermeister hat OpenAI wegen Ungenauigkeiten mit einer Klage wegen Verleumdung gedroht spritzte durch sein generatives Modell ChatGPT.

Siehe auch  "Zhuangzi" Staffel 4 Folge 5

Philomin hat ehrlich gesagt nicht viel Selbstvertrauen geweckt und sich geweigert zu sagen, auf welchen Daten genau die Titan FM-Familie von Amazon trainiert wurde. Stattdessen betonte er, dass die Titan-Modelle entwickelt wurden, um „schädliche“ Inhalte in den Daten zu erkennen und zu entfernen, die AWS-Kunden zur Anpassung bereitstellen, „unangemessene“ Inhalte, die von Benutzern eingegeben werden, abzulehnen und Ausgaben zu filtern, die Hassreden, Obszönitäten und Gewalt enthalten.

Natürlich können auch die besten Filtersysteme umgangen werden, wie ChatGPT zeigt. Sogenannte Prompt-Injection-Angriffe gegen ChatGPT und ähnliche Modelle wurden verwendet, um Malware zu schreiben, Exploits in Open-Source-Code zu identifizieren und abscheulich sexistische, rassistische und falsch informierende Inhalte zu generieren. (Generative KI-Modelle neigen dazu, Verzerrungen in den Trainingsdaten zu verstärken oder – wenn ihnen die relevanten Trainingsdaten ausgehen – einfach Dinge zu erfinden.)

Aber Philomin wischte diese Bedenken beiseite.

„Wir engagieren uns für den verantwortungsvollen Umgang mit diesen Technologien“, sagte er. „Wir beobachten die Regulierungslandschaft da draußen … wir haben viele Anwälte, die uns dabei helfen, zu prüfen, welche Daten wir verwenden dürfen und welche nicht.“

Abgesehen von Philomins Versuchen der Gewissheit möchten Marken vielleicht nicht auf der Hut sein, wenn alles schief gehen könnte. (Im Falle einer Klage ist nicht ganz klar, ob AWS-Kunden, AWS selbst oder der Urheber des säumigen Modells haftbar gemacht werden würden.) Einzelne Kunden könnten dies jedoch tun – insbesondere, wenn für das Privileg keine Gebühr erhoben wird.

CodeWhisperer, Trainium und Inferentia2 starten in GA

Zu diesem Thema und zeitgleich mit seinem großen generativen KI-Push heute hat Amazon CodeWhisperer, seinen KI-gestützten Codegenerierungsdienst, für Entwickler ohne Nutzungsbeschränkungen kostenlos zur Verfügung gestellt.

Der Schritt deutet darauf hin, dass CodeWhisperer nicht die von Amazon erhoffte Akzeptanz erlebt hat. Sein Hauptkonkurrent, Copilot von GitHub, hatte im Januar über eine Million Benutzer, von denen Tausende Unternehmenskunden sind. CodeWhisperer hat sicherlich Nachholbedarf – was auf Unternehmensseite mit der gleichzeitigen Einführung von CodeWhisperer Professional Tier angestrebt wird. CodeWhisperer Professional Tier fügt Single Sign-On mit AWS Identity and Access Management-Integration sowie höhere Limits für das Scannen nach Sicherheitslücken hinzu.

CodeWhisperer startete Ende Juni als Teil des AWS-IDE-Toolkit und AWS Toolkit IDE-Erweiterungen als eine Art Antwort auf den oben erwähnten Copilot. CodeWhisperer wurde auf Milliarden von Zeilen öffentlich verfügbaren Open-Source-Codes und der eigenen Codebasis von Amazon sowie auf Dokumentation und Code in öffentlichen Foren trainiert und kann ganze Funktionen in Sprachen wie Java, JavaScript und Python automatisch vervollständigen, basierend auf nur einem Kommentar oder ein paar Tastenanschlägen.

Amazon Codewhisperer

Bildnachweis: Amazonas

CodeWhisperer unterstützt jetzt mehrere zusätzliche Programmiersprachen – insbesondere Go, Rust, PHP, Ruby, Kotlin, C, C++, Shell-Skripting, SQL und Scala – und hebt wie zuvor die Lizenz hervor und filtert optional die mit Funktionen verknüpften Funktionen, die eine Ähnlichkeit aufweisen zu bestehenden Snippets, die in seinen Trainingsdaten gefunden werden.

Siehe auch  Dieses experimentelle Laptop-Design hat eine klappbare Handballenauflage

Die Hervorhebung ist ein Versuch, die rechtlichen Herausforderungen abzuwehren, denen GitHub mit Copilot gegenübersteht. Ob es gelingt, wird die Zeit zeigen.

„Entwickler können mit diesen Tools viel produktiver werden“, sagte Philomin. „Für Entwickler ist es schwierig, über alles auf dem Laufenden zu bleiben … Tools wie dieses helfen ihnen, sich darüber keine Gedanken zu machen.“

In weniger umstrittenem Gebiet gab Amazon heute bekannt, dass dies der Fall ist Einführung von Elastic Cloud Compute (EC2) Inf2-Instances mit allgemeiner Verfügbarkeit, angetrieben von den AWS Inferentia2-Chips des Unternehmens, die letztes Jahr auf der re:Invent-Konferenz von Amazon vorgestellt wurden. Inf2-Instances wurden entwickelt, um die KI-Laufzeiten zu beschleunigen und einen angeblich besseren Durchsatz und eine geringere Latenz für eine verbesserte Gesamtpreisleistung der Inferenz zu liefern.

Darüber hinaus werden Amazon EC2 Trn1n-Instances betrieben von AWS Trainium, Amazons speziell entwickelter Chip für KI-Training, ist ab heute ebenfalls allgemein für Kunden verfügbar, kündigte Amazon an. Sie bieten eine Netzwerkbandbreite von bis zu 1600 Gbit/s und sollen eine bis zu 20 % höhere Leistung gegenüber Trn1 für große, netzwerkintensive Modelle liefern, so Amazon.

Sowohl Inf2 als auch Trn1n konkurrieren mit konkurrierenden Angeboten von Google und Microsoft, wie Googles TPU-Chips für das KI-Training.

„AWS bietet die effektivste Cloud-Infrastruktur für generative KI“, sagte Philomin zuversichtlich. „Eines der Bedürfnisse der Kunden sind die richtigen Kosten für den Umgang mit diesen Modellen … Dies ist einer der Gründe, warum viele Kunden diese Modelle nicht in Produktion genommen haben.“

Ihre Kampfworte – das Wachstum der generativen KI angeblich brachte Azur in die Knie. Wird Amazon das gleiche Schicksal erleiden? Das ist festzustellen.

[ad_2]

4.9/5 - (168 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein