Microsoft möchte es Unternehmen einfacher machen, ihre proprietären Daten zusammen mit Benutzeranfragen in GPT-4 oder chatgpt von OpenAI in Azure einzuspeisen und die Ergebnisse anzuzeigen.
Diese über den Azure OpenAI Service verfügbare Funktionalität macht das Training oder die Feinabstimmung Ihrer eigenen generativen KI-Modelle überflüssig. genannt Andy Beatman, Senior Product Marketing Manager für Azure AI, stellte diese Woche fest, dass dies eine „sehr gefragte Kundenfunktion“ sei.
Wir gehen davon aus, dass dies von den Kunden dringend gewünscht wird und nicht von Microsoft-Führungskräften, die diesen KI-Hype weiter betreiben.
Uns wurde gesagt, dass das System für teilnehmende Organisationen im Wesentlichen so funktioniert: Ein Benutzer sendet eine Anfrage an Azure, die Cloud von Microsoft ermittelt, welche internen Unternehmensdaten zum Vervollständigen dieser Anfrage erforderlich sind, und die Frage und die abgerufenen Daten werden zu einer kombiniert Bei einer neuen Abfrage, die an das OpenAI-Modell Ihrer Wahl übergeben wird, sagt das Modell eine Antwort voraus und das Ergebnis wird an den Benutzer zurückgesendet. Das ist angeblich nützlich.
„Azure OpenAI bestimmt anhand Ihrer Daten zusammen mit Azure Cognitive Search, welche Daten aus der angegebenen Datenquelle abgerufen werden sollen, basierend auf der Benutzereingabe und dem bereitgestellten Konversationsverlauf“, sagt Microsoft erklärt. „Diese Daten werden dann erweitert und als Eingabeaufforderung erneut an das OpenAI-Modell übermittelt, wobei die abgerufenen Informationen an die ursprüngliche Eingabeaufforderung angehängt werden.“
Den Fokus auf proprietäre Daten richten
Microsoft hat mehr als 10 Milliarden US-Dollar in OpenAI gesteckt und integriert die KI-Modelle und -Tools des Emporkömmlings rasch in Produkte und Dienste in seinem breiten Portfolio. GPT-4 und ChatGPT von OpenAI werden wie andere große Sprachmodelle (LLMs) auf dem Markt auf riesigen Mengen öffentlich verfügbarer Informationen trainiert.
Es besteht kein Zweifel daran, dass es einen Bedarf an Möglichkeiten gibt, maßgeschneiderte Modelle zu entwickeln, die über das Basistraining hinausgehen und auf einzelne Anwendungen und Organisationen zugeschnitten sind. Wenn also eine Anfrage eingeht, kann statt einer generischen Antwort eine spezifische Antwort generiert werden.
Das Ansatz Seit einigen Jahren wird darüber gesprochen, und in den letzten Monaten, als sich das Tempo generativer KI-Innovationen beschleunigte, begannen Anbieter, dem Ruf nachzukommen. Nvidia führte Ende letzten Jahres NeMo ein, ein Framework innerhalb der größeren AI Enterprise-Plattform des Unternehmens, das Unternehmen dabei hilft, ihre LLMs mit proprietären Daten zu erweitern.
„Wenn wir mit Unternehmen zusammenarbeiten, sind viele von ihnen daran interessiert, mit ihren eigenen Daten Modelle für ihre eigenen Zwecke zu erstellen“, sagte Manuvir Das, Nvidias Vizepräsident für Enterprise Computing. erzählt Journalisten im Vorfeld der GTC 2023-Show des GPU-Riesen im März.
Zwei Monate später Nvidia zusammengetan Schließen Sie sich ServiceNow an, um Unternehmen, die die Cloud-Plattform von ServiceNow und die KI-Tools von Nvidia nutzen, die Möglichkeit zu geben, KI-Modelle anhand ihrer eigenen Informationen zu trainieren.
Redmond ist an der Reihe
Jetzt kommt Microsoft. „Mit den fortschrittlichen Konversations-KI-Funktionen von ChatGPT und GPT-4 können Sie die Kommunikation optimieren, den Kundenservice verbessern und die Produktivität im gesamten Unternehmen steigern“, schrieb Beatman. „Diese Modelle nutzen nicht nur ihr vorab trainiertes Wissen, sondern greifen auch auf spezifische Datenquellen zu und stellen so sicher, dass die Antworten auf den neuesten verfügbaren Informationen basieren.“
Durch diese neuesten Funktionen im Azure OpenAI Service können Unternehmen Prozesse wie Dokumentenaufnahme, Indizierung, Softwareentwicklung und HR-Verfahren vereinfachen, um Self-Service-Datenanfragen, Kundendienstaufgaben, Umsatzgenerierung und Interaktionen mit Kunden und anderen Unternehmen irgendwie zu verbessern.
Der Dienst kann von jeder Quelle und jedem Ort aus eine Verbindung zu den Unternehmensdaten eines Unternehmens herstellen, unabhängig davon, ob diese lokal, in der Cloud oder am Edge gespeichert sind, und umfasst Tools zum Verarbeiten und Organisieren der Daten, um Erkenntnisse zu gewinnen, die in KI-Modellen verwendet werden können. Es kann auch über eine API und ein Software Development Kit (SDK) von Microsoft in die vorhandenen Systeme eines Unternehmens integriert werden.
Darüber hinaus ist eine Beispiel-App enthalten, um die Implementierung des Dienstes zu beschleunigen.
Azure OpenAI Service für Ihre Daten ermöglicht Verbindungen zu Microsoft-Quellen wie dem Azure Cognitive Search-Index für die Integration mit OpenAI-Modellen, dem Azure Blog-Speichercontainer und lokalen Dateien im Azzure AI-Portal, wobei die Daten in den Azure Cognitive Search-Index aufgenommen werden. wieder erzählt.
Die Daten können in verschiedenen Dateiformaten vorliegen, darunter Nur-Text, Markdown, HTML, PDF, PowerPoint und Word.
Organisationen benötigen eine genehmigte Azure OpenAI Service-Anwendung und entweder GPT-3.5-Turbo- oder GPT-4-Modelle. Sie können Azure AI Studio verwenden, um die Datenquelle mit dem Dienst zu verbinden.
„Sobald Ihre Datenquelle verbunden ist, können Sie über Azure AI Studio Fragen stellen und sich mit den OpenAI-Modellen unterhalten“, schrieb Beatman. „Dadurch können Sie wertvolle Erkenntnisse gewinnen und fundierte Geschäftsentscheidungen treffen.“
Ein paar Dinge, die Sie beachten sollten
Es gibt einige Vorbehalte. Unternehmen sollten keine langen Fragen stellen, sondern diese in mehrere Fragen aufteilen. Die Höchstgrenze für die Anzahl der Token pro Modellantwort beträgt 1.500, wobei die Token-Grenzen Aspekte wie die Frage des Benutzers, etwaige Systemmeldungen, abgerufene Suchdokumente – sogenannte „Chunks“ – sowie interne Eingabeaufforderungen und die Antwort umfassen.
Sie sollten auch die Antworten auf ihre Daten beschränken, was „das Modell dazu ermutigt, nur mit Ihren Daten zu antworten, und standardmäßig ausgewählt ist“, schrieb Microsoft.
Der neue Dienst könnte darüber hinaus auch ein großes Problem auslösen: Unternehmensdaten gelangen durch die Verwendung mit KI-Modellen in die Öffentlichkeit.
ChatGPT, das im Mai im Azure OpenAI Service eingeführt wurde, zeichnet standardmäßig alle Gespräche auf, einschließlich Anfragen und KI-Antworten. Denken Sie daran, dass bei der Eingabe interner vertraulicher Informationen; Kriminelle lieben es, Zugangsdaten zu ChatGPT-Konten abzusaugen und so Zugriff auf sämtliche Chatverläufe zu erhalten.
Dmitry Shestakov, Leiter der Bedrohungsaufklärung beim Infosec-Team Group-IB, gewarnt neulich, dass „viele Unternehmen ChatGPT in ihren Betriebsablauf integrieren. Mitarbeiter geben vertrauliche Korrespondenzen ein oder nutzen den Bot, um proprietären Code zu optimieren.“ ®