„Zwei einfache Buchstaben genügen, um den großen technologischen Wandel dieses Jahres genau darzustellen: das A und das I.“
Vom 23. bis 25. Mai 2023 widmet sich Microsofts jährliche Entwicklerkonferenz Build dem Entwicklungsthema der KI-Branche für das nächste Jahr. Nach der Zusammenarbeit mit OpenAI wurde Microsofts „KI-Reengineering“ des gesamten Unternehmens zum Vorreiter der gesamten Branche: Das Unternehmen führte New Bing ein, eine mit GPT-4 verbundene Suchmaschine, und Copilot, eine KI-Assistentenplattform für Office- und Kollaborationssoftware Teams und andere Geschäftsanwendungen.
Auf der diesjährigen Build-Konferenz warf Microsoft erneut eine Schockbombe und startete einen AI-Familien-Bucket, der Softwareanwendungen und Cloud-Dienste abdeckt – darunter Copilot und mehr als 50 neue Plug-Ins definitiv die Protagonisten der Konferenz.
Als Brücke zwischen natürlicher Sprache und Programmiersprache gilt Copilot als wichtige Komponente im KI-Zeitalter, um Benutzer bei der Nutzung von KI-Funktionen zu unterstützen. Auf der diesjährigen Konferenz erweiterte Copilot seinen Schwerpunkt von Microsoft 365 und Github auf Windows und Datenbanken.
Als Träger von Modellfähigkeiten bilden Plug-ins ein auf KI-Modellen basierendes Anwendungsökosystem. Die Eröffnung von Build in diesem Jahr wird von der umfassenden gemeinsamen Nutzung der Plug-in-Ökologie von Bing und chatgpt begleitet.
Darüber hinaus wird Microsoft im Rahmen der Build-Konferenz im Jahr 2022 weniger Code/keinen Code gründlicher implementieren – eine Reihe von Azure-Service-Ökosystemen für die KI-Anwendungsentwicklung werden eingerichtet.
Copilot transformiert Windows vollständig, Benutzer können App ohne Code aufrufen
Vor zwei Monaten schockierte der Zugriff des KI-Assistenten Copilot auf Office 365 die gesamte Branche, und nun hat Microsoft einen weiteren Fire-Embedment-Copilot in Windows hinzugefügt und macht Windows damit zum weltweit ersten PC-System, das KI-Dienste integriert.
Einfach ausgedrückt: „Fragen stellen“ kann alles lösen – Benutzer können Befehle in die Copilot-Oberfläche eingeben und Windows Copilot kann automatisch alle Anwendungen im System aufrufen, was den Prozess und die Zeit für das Suchen, Aktivieren und anwendungsübergreifende Komprimieren erheblich vereinfacht.
Windows hat nach wie vor die Dominanz des PC-Systems inne. Selbst im Januar 2022 gibt es immer noch 1,4 Milliarden monatlich aktive Geräte mit windows 10 und 11, was mehr als 70 % des globalen Betriebssystemmarktes ausmacht.
Daher bedeutet die Verbindung von Copilot mit Windows, um die ursprüngliche Klickinteraktion zu ersetzen, d. h. das Aufrufen der Anwendung per Code, dass die Benutzerinteraktionsmethode und die Softwarerekonstruktion offiziell begonnen haben.
Kevin Scott, Chief Technology Officer und Vizepräsident von Microsoft AI, sagte, dass es kaum vorstellbar sei, dass Software nicht mit dem Internet verbunden werden könne. Copilot werde in Zukunft genauso wichtig sein wie das Internet.
„Microsoft stellt Entwicklern alle Tools zur Verfügung, die sie zum Erstellen von Copilot benötigen“, sagte er. „In den nächsten Jahren wird Copilot zum Standard für die gesamte Softwareproduktion werden.“
Derzeit lässt sich Windows Copilot in Bing Chat und andere Plugins von Erst- und Drittanbietern integrieren.Im Juni dieses Jahres wird die Windows Copilot-Vorschau in windows 11 gestartet.
Erstellen Sie Bing auf ChatGPT neu, über 50 Plugins wurden verbunden
Seit der Veröffentlichung von ChatGPT fand die größte KI-Reform erstmals im Bereich der Suche statt – im Februar dieses Jahres kündigte Microsoft die Einführung der Browser Bing und Edge an, einer neuen Suchmaschine, die auf ChatGPT basiert.
Jetzt plant Microsoft, die ökologischen Barrieren zwischen Bing und ChatGPT vollständig zu durchbrechen, um eine offenere Plug-in-Ökologie aufzubauen.
Einerseits kündigte Microsoft an, dass New Bing denselben offenen Plug-In-Standard wie ChatGPT übernehmen wird, um die Interoperabilität von Plug-Ins in ChatGPT und der Breite der Microsoft Copilot-Produkte zu realisieren.
Während des Gesprächs mit ChatGPT können Benutzer Fragen in Echtzeit stellen. ChatGPT liefert zeitkritische Antworten und markiert den Quelllink der Antwort. Benutzer können über den Link die Bing-Webseite besuchen.
Ein weiteres Beispiel: Nach dem Teilen der Plug-in-Ökologie von ChatGPT kann der entsprechende Plug-in-Dienst automatisch aufgerufen werden, wenn Benutzer Informationen in Bing abfragen. Nach der Aktivierung des Plug-ins des Immobiliendienstleisters Zillow können Benutzer beispielsweise automatisch Zillow für weitere Beratung anrufen, nachdem sie in Bing nach Häusern in Chicago gesucht haben.
Bing erweitert die unterstützten Cheat-Sequenzen kontinuierlich. Derzeit stellt Microsoft seinen Kunden mehr als 50 Plug-Ins zur Verfügung, darunter die bisherige Online-Bestellplattform OpenTable, die Computing Knowledge Engine Wolfram Alpha und so weiter. Microsoft hat außerdem allen mitgeteilt, dass die Zahl der von Bing unterstützten Plug-Ins in Zukunft auf Tausende anwachsen wird.
Andererseits wird Bing als Standardsuchmaschine in ChatGPT eingebettet.
ChatGPT ist derzeit die am schnellsten wachsende KI-Anwendung. Dies bedeutet, dass eine große Anzahl von Benutzern über ChatGPT auf das Internet zugreifen kann, wodurch das Aktualitätsproblem der ursprünglichen Datenbank von ChatGPT gelöst wird. Ab dem 23. Mai können ChatGPT Plus-Abonnenten ChatGPT nach dem Networking direkt nutzen, und normale Benutzer können denselben Dienst nutzen, indem sie das Bing-Plug-in aktivieren.
Im AI App Store gestartet
Mit dem Aufkommen der KI-Ära hat sich auch die Rolle des Microsoft Store verändert: Er ist nicht nur ein Ort zum Herunterladen von Apps oder Spielen, sondern ein wichtiger Anbieter von KI-nativen Anwendungsdiensten, der Kunden dabei hilft, ihre Arbeitseffizienz zu verbessern. Erledige Aufgaben und entdecke neue Inhalte.
Zu diesem Zweck hat der Microsoft Store zwei Funktionen eingeführt: KI-generierte Schlüsselwörter und KI-generierte Bewertungszusammenfassungen. Gleichzeitig hat der Microsoft Store einen eigenen Bereich für KI-Anwendungen eingerichtet, um Kunden eine Reihe von KI-Diensten anzubieten. Kunden können beispielsweise Apps wie Descript, Krisp und Podcastle zum Generieren und Bearbeiten von Videos und Musik sowie Kickresume zum Erstellen von Lebensläufen verwenden.
Copilot Stack ist online, jeder kann Copilot erstellen
„Sie müssen bedenken, dass das Modell nicht Ihr Produkt ist, es sei denn, Sie sind selbst ein Infrastrukturunternehmen – genauso wie das Modell selbst nur die Grundlage für die Unterstützung des Produkts ist und nichts an sich.“
Bei dem Treffen betrachtete Microsoft-CTO Kevin Scott das Modell als den Boden subversiver Anwendungen. Anders als der Ausgangspunkt der traditionellen Softwareentwicklung kann die auf KI-Funktionen basierende Entwicklungsplattform die Schwelle für kreative Umsetzung erheblich senken.
Zu diesem Zweck hat Microsoft die KI-Entwicklungsplattform Copilot Stack ins Leben gerufen, um Entwickler bei der Entwicklung personalisierter Copiloten zu unterstützen. Copilot Stack vereinfacht den Copilot-Entwicklungsprozess in drei Schritte:
1. Wählen Sie die Modellbasis aus, z. B. den Aufruf von GPT-4 über den Azure OpenAI-Dienst.
2. Kombination von KI-Fähigkeiten. In diesem Link müssen Entwickler eine „Meta-Eingabeaufforderung“ bereitstellen, die eine grundlegende Beschreibung der Funktionen und Betriebsmethoden von Copilot darstellt.
3. Zugriff auf Daten und andere Dienste, die das Plug-in bereitstellen kann.
Die offene KI-Plattform kann Copilot und Plug-Ins skalierbar machen. Entwickler können das Copilot-Ökosystem über den Copilot Stack erweitern. In der Zwischenzeit können Entwickler neue Plugins über das Microsoft Teams Toolkit für Visual Studio Code und Visual Studio erstellen.
Um die Entwicklungseffizienz zu verbessern, hat Microsoft außerdem Dev Home eingeführt, eine Entwicklungstoolplattform in Windows 11, um den Arbeitsablauf von Entwicklern zu vereinfachen.
Darüber hinaus entwickelt Microsoft Copilot oder entsprechende Funktionen, die bei der Entwicklung von Plug-Ins helfen können. Beispielsweise können Visual Studio Code, GitHub Copilot und GitHub Codespaces den Prozess für Entwickler zum Erstellen, Debuggen und Bereitstellen neuer Plug-Ins vereinfachen. In Zukunft wird Azure AI auch die Funktion zum Betreiben und Testen von Plug-Ins einführen private Unternehmensdaten.
Azure AI Studio deckt den „vollständigen Produktionsprozess“ von KI-Modellen und -Anwendungen ab
Auf der diesjährigen Build-Konferenz rief Microsoft: „Auf Azure haben wir alles, was wir für die Entwicklung von Copilot brauchen“ – Azure AI Studio wird offiziell gestartet.
Azure AI Studio entspricht einem Produktivitätstool im KI-Zeitalter und hilft Benutzern bei der Erstellung von KI-Modellen und -Anwendungen. Azure AI Studio verfügt über integrierte Modelle wie GPT-4 / 3.5, ChatGPT und DALL·E 2, die auf Basis von OpenAI entwickelt wurden und mit denen Entwickler KI-Modelle erstellen, trainieren, bewerten und bereitstellen sowie KI-Anwendungen in Kombination mit privaten entwickeln können Daten.
Microsoft weist darauf hin, dass Azure AI Studio sich an das Wertversprechen der Einhaltung der Organisationsrichtlinien und Zugriffsrechte des Benutzers hält und keinen Einfluss auf die Sicherheit, Datenrichtlinien oder Dateisequenzen der anderen Partei hat. Kunden können verschiedene Datenbereitstellungsmethoden und Zugriffsmethoden (unternehmensinterne/externe Daten) wählen, und Azure AI Studio unterstützt auch verschiedene Datenformate.
Laut Microsoft nutzen derzeit mehr als 4.500 Unternehmen Azure OpenAI-Dienste, darunter Coursera, Grammarly, Volvo und IKEA.
Microsoft Fabric stellt Datenanalysetools für das KI-Zeitalter vor
Wie wird die Software der Zukunft aussehen? Microsoft nutzte zunächst den Bereich der Datenanalyse, um eine Stichprobe zu erstellen.
Microsofts neues Microsoft Fabric, eine End-to-End-Datenanalyseplattform, integriert Microsofts Power BI, Data Factory und die Synapse-Software der nächsten Generation.
Hinsichtlich der Funktionalität deckt Microsoft Fabric Funktionen wie Data Engineering, Datenintegration, Data Warehouse, Data Science, Echtzeitanalyse, Anwendungsbeobachtbarkeit und Geschäftsanalyse ab. Alle Funktionen werden automatisch mit der integrierten Multi-Cloud-Bereitstellungsdatenbank OneLake von Fabric verbunden und die Datenbank wird automatisch für die Datennutzung indiziert. Durch funktionale Integration bietet Microsoft Fabric maßgeschneiderte Dienste für Kunden mit unterschiedlichem technischen Hintergrund.
Andererseits senkt Microsoft Fabric auch die Schwelle für den Einsatz von Datenanalysen erheblich. Mit Copilot können Benutzer Datenflüsse erstellen, Code generieren und Funktionen vervollständigen, Modelle für maschinelles Lernen erstellen oder Ergebnisse ohne Code durch Dialog und einfache Vorgänge visualisieren. Benutzer können sogar die Modelle im Azure OpenAI-Dienst aufrufen, um Plug-in-Anwendungen auf Basis privater Daten zu entwickeln.
In einem Bereich wie der Datenanalyse sind starke Professionalität und verstreute Dienste häufige Probleme – allein in den Vereinigten Staaten gibt es Hunderte von Anwendungen auf dem Datenanalysemarkt, und Benutzer, die Datenanalysen durchführen möchten, müssen viele Anwendungsmodule erwerben. Aber mit Copilot ist Microsoft Fabric gleichbedeutend mit der Vereinheitlichung vieler Datenanalyse-Softwarefunktionen.
Satya Nadella, CEO von Microsoft, sagte auch, dass er die Veröffentlichung von Microsoft Fabric als „die wichtigste Veröffentlichung von Microsoft seit der Veröffentlichung von Microsoft SQL Server (Microsofts SQL-Datenbankprodukt) vor sieben Jahren“ bezeichnete.
KI-„Familieneimer“ gegen Open Source
Ein offensichtlicher Trend besteht darin, dass sich der Schwerpunkt der diesjährigen Microsoft Build-Konferenz schrittweise von der Bereitstellung KI-toolbasierter Dienste im letzten Jahr auf die Phase der KI-Tools + KI-Anwendungsökologie verlagert hat.
Die bloße Bereitstellung von Rechenleistung für OpenAI reicht für Microsoft und OpenAI nicht aus, um eine tiefgreifende Zusammenarbeit zu erreichen. Um diese KI-Revolution zu starten, sind die ursprüngliche Unternehmenssoftware, die Unternehmensdienstfunktionen und die Ökologie von Microsoft der Schlüssel.
In einem Gespräch mit Microsoft-CTO Kevin Scott sprach OpenAI-Mitbegründer Greg Brockman über die Gründe für die erfolgreiche Zusammenarbeit von OpenAI mit Microsoft: „Wir haben eine End-to-End-Plattform zum Erstellen von KI-Anwendungen.“
Das sogenannte „End-to-End“ erfordert nicht nur, dass Unternehmen über eine vollständige Anwendungs- und unterstützende Tool-Ökologie verfügen, sondern auch eine starke Infrastruktur wie die Cloud – dies lässt Brockman auch zu dem Schluss kommen, dass der interessanteste Copilot nicht etabliert werden wird in der Open-Source-Community.
Darüber hinaus ist „Open Ecosystem (offene Ökologie)“ ein Schlagwort, das bei dem Treffen immer wieder erwähnt wird. Microsofts KI-„Familien-Bucket“ ist darauf offensichtlich gut vorbereitet – die Plug-in-Ökologie über Bing und ChatGPT richtet sich an einzelne Benutzer, während die Low-Code-Entwicklungsökologie auf Basis von Azure-Diensten und Copilot auf Unternehmensbenutzer ausgerichtet ist.
In nur wenigen Monaten hat sich die durch das KI-Modell ausgelöste revolutionäre Welle schnell von einem einzigen Technologiepunkt auf das globale Software-Ökosystem ausgeweitet. Copilot (Copilot) beschleunigt, globale Benutzer müssen still sitzen.
《36 Krypton„Zum Nachdruck autorisiert
【Erweiterte Lektüre】