Microsoft möchte es Unternehmen einfacher machen, ihre proprietären Daten zusammen mit Benutzeranfragen in GPT-4 oder chatgpt von OpenAI in Azure einzuspeisen und die Ergebnisse anzuzeigen.
Diese über den Azure OpenAI Service verfügbare Funktionalität macht das Training oder die Feinabstimmung Ihrer eigenen generativen KI-Modelle überflüssig. genannt Andy Beatman, Senior Product Marketing Manager für Azure AI, stellte diese Woche fest, dass dies eine „sehr gefragte Kundenfunktion“ sei.
Wir können nur davon ausgehen, dass er die von den Kunden stark nachgefragte Lösung meint – und nicht die Führungskräfte von Microsoft, die diesen KI-Hype weiter verbreiten.
Uns wurde gesagt, dass das System im Grunde so funktioniert: Ein Benutzer sendet eine Anfrage an Azure, die Cloud von Microsoft ermittelt, welche internen Unternehmensdaten zum Abschließen dieser Anfrage erforderlich sind, die Frage und die abgerufenen Daten werden in einer neuen Anfrage kombiniert, die weitergeleitet wird Für das OpenAI-Modell Ihrer Wahl sagt das Modell eine Antwort voraus und dieses Ergebnis wird an den Benutzer zurückgesendet.
Das ist angeblich nützlich.
„Azure OpenAI bestimmt anhand Ihrer Daten zusammen mit Azure Cognitive Search, welche Daten aus der angegebenen Datenquelle abgerufen werden sollen, basierend auf der Benutzereingabe und dem bereitgestellten Konversationsverlauf“, sagt Microsoft erklärt. „Diese Daten werden dann erweitert und als Eingabeaufforderung erneut an das OpenAI-Modell übermittelt, wobei die abgerufenen Informationen an die ursprüngliche Eingabeaufforderung angehängt werden.“
Den Fokus auf proprietäre Daten richten
Microsoft hat mehr als 10 Milliarden US-Dollar in OpenAI gesteckt und integriert die KI-Modelle und -Tools des Emporkömmlings rasch in Produkte und Dienste in seinem breiten Portfolio.
Es besteht kein Zweifel daran, dass es einen Bedarf an Möglichkeiten gibt, maßgeschneiderte Modelle zu entwickeln – Modelle, die über das Basistraining hinausgehen und auf einzelne Anwendungen und Organisationen zugeschnitten sind. Auf diese Weise kann bei einer eingehenden Anfrage eine spezifische Antwort generiert werden, statt einer generischen.
Das Ansatz darüber wird schon seit einigen Jahren gesprochen. In den letzten Monaten, als sich das Tempo generativer KI-Innovationen beschleunigte, begannen Anbieter, dem Ruf nachzukommen. Nvidia führte Ende letzten Jahres NeMo ein – ein Framework innerhalb seiner größeren AI Enterprise-Plattform, das Unternehmen dabei hilft, ihre LLMs mit proprietären Daten zu erweitern.
„Wenn wir mit Unternehmen zusammenarbeiten, sind viele von ihnen daran interessiert, mit ihren eigenen Daten Modelle für ihre eigenen Zwecke zu erstellen“, sagte Manuvir Das, Nvidias Vizepräsident für Enterprise Computing. erzählt Journalisten im Vorfeld der GTC 2023-Show des GPU-Riesen im März.
Zwei Monate später Nvidia zusammengetan Schließen Sie sich ServiceNow an, um Unternehmen, die die Cloud-Plattform von ServiceNow und die KI-Tools von Nvidia nutzen, die Möglichkeit zu geben, KI-Modelle anhand ihrer eigenen Informationen zu trainieren.
Redmond ist an der Reihe
Jetzt kommt Microsoft. „Mit den fortschrittlichen Konversations-KI-Funktionen von ChatGPT und GPT-4 können Sie die Kommunikation optimieren, den Kundenservice verbessern und die Produktivität im gesamten Unternehmen steigern“, schrieb Beatman. „Diese Modelle nutzen nicht nur ihr vorab trainiertes Wissen, sondern greifen auch auf spezifische Datenquellen zu und stellen so sicher, dass die Antworten auf den neuesten verfügbaren Informationen basieren.“
Durch diese neuesten Funktionen im Azure OpenAI Service können Unternehmen Prozesse wie Dokumentenaufnahme, Indizierung, Softwareentwicklung und HR-Verfahren vereinfachen, um Self-Service-Datenanfragen, Kundendienstaufgaben, Umsatzgenerierung und Interaktionen mit Kunden und anderen Unternehmen irgendwie zu verbessern.
Der Dienst kann von jeder Quelle und jedem Ort aus eine Verbindung zu den Unternehmensdaten eines Kunden herstellen – unabhängig davon, ob diese lokal, in der Cloud oder am Netzwerkrand gespeichert sind – und umfasst Tools zum Verarbeiten und Organisieren der Daten, um Erkenntnisse zu gewinnen, die in KI-Modellen verwendet werden können. Es kann auch über eine API und ein Software Development Kit (SDK) von Microsoft in die vorhandenen Systeme eines Unternehmens integriert werden.
Darüber hinaus ist eine Beispiel-App enthalten, um die Implementierung des Dienstes zu beschleunigen.
Der Azure OpenAI-Dienst für Ihre Daten ermöglicht Verbindungen zu Microsoft-Quellen wie dem Azure Cognitive Search-Index für die Integration mit OpenAI-Modellen, dem Azure Blog-Speichercontainer und lokalen Dateien im Azzure AI-Portal, wobei die Daten im Azure Cognitive Search-Index erfasst werden erzählt.
Organisationen benötigen eine genehmigte Azure OpenAI Service-Anwendung und entweder GPT-3.5-Turbo- oder GPT-4-Modelle. Sie können Azure AI Studio verwenden, um die Datenquelle mit dem Dienst zu verbinden.
„Sobald Ihre Datenquelle verbunden ist, können Sie über Azure AI Studio Fragen stellen und sich mit den OpenAI-Modellen unterhalten“, schrieb Beatman. „Dadurch können Sie wertvolle Erkenntnisse gewinnen und fundierte Geschäftsentscheidungen treffen.“
Ein paar Dinge, die Sie beachten sollten
Es gibt einige Vorbehalte. Benutzer sollten keine langen Fragen stellen, sondern diese in mehrere Fragen aufteilen. Die Höchstgrenze für die Anzahl der Token pro Modellantwort beträgt 1.500 – einschließlich der Frage des Benutzers, etwaiger Systemmeldungen, abgerufener Suchdokumente (sogenannte „Chunks“) sowie interner Eingabeaufforderungen und der Antwort.
Sie sollten auch die Antworten auf ihre Daten beschränken, was „das Modell dazu ermutigt, nur mit Ihren Daten zu antworten, und standardmäßig ausgewählt ist“, schrieb Microsoft.
Der Dienst könnte auch ein zentrales Problem auslösen: Unternehmensdaten gelangen durch die Verwendung mit KI-Modellen an die Öffentlichkeit.
ChatGPT, das im Mai im Azure OpenAI Service eingeführt wurde, zeichnet standardmäßig alle Gespräche auf, einschließlich Anfragen und KI-Antworten. Denken Sie daran, dass Betrüger es lieben, Anmeldeinformationen für ChatGPT-Konten abzusaugen und so Zugriff auf alle Chatverläufe zu erhalten, wenn sie vertrauliche interne Informationen einspeisen.
Dmitry Shestakov, Leiter der Bedrohungsaufklärung beim Infosec-Team Group-IB, gewarnt dass „viele Unternehmen ChatGPT in ihren Betriebsablauf integrieren. Mitarbeiter geben vertrauliche Korrespondenzen ein oder nutzen den Bot, um proprietären Code zu optimieren.“ ®