Eine der Hauptfunktionen des Mixed-Reality-Geräts apple XR ist der Fitness+-Dienst, der den virtuellen Raum nutzt, um Menschen überall in das „Fitnessstudio“ einzutauchen, und natürlich sind virtuelle Trainer unverzichtbar.
Galt in der Vergangenheit nur der „virtuelle Trainer“ für die Demonstration von Standardhandlungen, so plant Apple, dass „er“ auch mehr „Weisheit“ geben könnte. Um das Gesundheitsuniversum der Apple Watch zu erweitern, beabsichtigt Apple, künstliche Intelligenz in die Gesundheitsfunktion einzuführen, KI-Gesundheitstrainer einzuführen, um die von der Apple Watch aufgezeichneten Daten zu nutzen und dann mithilfe von Algorithmen den Trainingsplan des Benutzers zu formulieren, Essgewohnheiten und Schlaf zu verbessern Qualität, um den Gesundheitszustand zu erhalten oder zu verbessern.
Dies sollten die neuesten Nachrichten über KI und Apple sein, aber Apples KI-Gesundheitscoach unterscheidet sich offensichtlich von populärer generativer KI wie chatgpt, Bing und Bard. „AI Health Coach“ ist eher eine Funktion als ein Trend wie ChatGPT, der einen neuen Track auslöst. Apple hat den Aufschwung der generativen KI im Silicon Valley nie behindert.
Siri ist keine KI, Apples KI steckt im Detail
Apple hat Siri erstmals vor 12 Jahren vorgestellt und es mit dem iphone 4s ausgeliefert. Später wurde Siri auf alle Apple-Smart-Geräte wie Mac, iPad, HomePod, Apple Watch und sogar AirPods ausgeweitet. Siri wurde als Elite geboren und definiert sich als „intelligenter Sprachassistent“, der Benutzerfragen beantworten, Geräte steuern und Aufgaben mit Spracherkennung und Verarbeitung natürlicher Sprache ausführen kann und außerdem den Trend zu Standard-Sprachassistenten auf Smartphones anführt.
Auch Siri ist in der Öffentlichkeit bekannt und gilt als Prototyp der künstlichen Intelligenz. Es handelt sich lediglich um einen 12-jährigen Entwicklungsprozess. Apple führt selten große Upgrades durch, und die meisten werden rund um eine bestimmte Funktion abgeschlossen. Es behält immer noch die „Unschuld“ vor 2011 bei. Wenn es auf Probleme stößt, antwortet es auch offenherzig: „Ich weiß es nicht genau.“ Nun ja. Das habe ich im Internet gefunden. s Antwort“. Heute, wo im Jahr 2023 generative KI über den ganzen Himmel fliegt, steht Siris „Unschuld“ im krassen Gegensatz zum beredten ChatGPT. Es scheint, dass Apple keine künstliche Intelligenz entwickeln, sondern nur Mobiltelefone und Computer verkaufen will, aber ist es wahr?
Siri sollte nicht AI heißen, Siri ist nur ein Sprachassistent für die Antwortdatenbank. Wenn der Benutzer es aufweckt und Befehle sendet, gibt das Modell der Terminalverarbeitung Vorrang und prüft schnell, ob es einfach ist (z. B. Anpassen der Lautstärke, Einstellen des Weckers usw.), und vervollständigt es schnell mit bekannten Informationen. Andernfalls wird eine größere Datenbank in der Cloud abgefragt und dem Benutzer dann eine Antwort gegeben, oder es gibt keine Abfrage, die nur eine Websuche verwirft (in den meisten Fällen).
ChatGPT verfügt nicht über einen Prozess, bei dem zuerst ein Terminal und dann eine Cloud verwendet wird. Der Frage zufolge greift es direkt auf das Cloud-Rechenzentrum von Microsoft Azure zu. Mithilfe enormer Rechenleistung und Modellberechnungen wird eine Antwort „generiert“, unabhängig davon, ob sie verstanden wird oder nicht nicht. Unter diesem Gesichtspunkt gehen Siri und ChatGPT in zwei Richtungen: Apple bevorzugt die Terminalbereitstellungstechnologie und priorisiert die Rechenleistung des Terminals, um das Problem zu lösen, während ChatGPT vollständig auf das Netzwerk und die enorme Rechenleistung des Rechenzentrums angewiesen ist.
Das Gleiche gilt für Apple AI. Sie versteckt sich in vielen Funktionen von Apple-Produkten. Sie bleibt unbemerkt, verbessert aber das Benutzererlebnis erheblich. Oder der Apple Pencil beim Schreiben auf dem iPad, das ist mit dem echten Stift-und-Papier-Erlebnis zu vergleichen . Dabei werden Strichverfolgung und Handflächenerkennung verwendet, um sicherzustellen, dass bei sofortiger Reaktion auf den Strich keine versehentliche Berührung durch die Berührung des Bildschirms mit der Handfläche erfolgt. FaceID berücksichtigt sowohl Sicherheit als auch Effizienz und kann sich an Veränderungen im Gesicht des Benutzers anpassen, ohne die Erkennungseffizienz aufgrund von Brille und Bart zu beeinträchtigen. Selbst iOS unterstützt auch das Entsperren von Masken, und nur die Hälfte des Gesichts kann verwendet werden, um die gleiche Sicherheit zu erreichen Niveau wie zuvor.
▲ A15- und A14-Bionic-Chip-Dissektionsdiagramm, die neuronale Rechenmaschine ist in der unteren linken Ecke konzentriert.
Von diesen Funktionen bis hin zu Apples Multi-Device-Plattform-Kooperations- und Verbindungsfunktionen ist Apples Neural Engine (Neural Engine) an allen Aspekten beteiligt, was auch die Art und Weise ist, wie Apples KI dargestellt wird. Im Gegensatz zur generativen KI konzentriert sich die KI von Apple darauf, wie das Endbenutzererlebnis verbessert werden kann.
Ist es möglich, dass Siri ChatGPT-ähnlich wird?
Nicht lange nach der Einführung von ChatGPT tauchen endlos webbasierte Shell-Apps auf, die auf die offizielle API zugreifen, aber sie können tatsächlich in das System eingebettet sein oder haben noch keine Interaktion mit Terminalanwendungen implementiert. Computerinteraktion oder Terminaldienste sind noch nicht ausgereift.
In der MIT-Rede von OpenAI-CEO Sam Altman hieß es: „Die Ära der großen Modelle ist zu Ende und wir müssen neue Denkweisen und Methoden anwenden, um neue Fortschritte bei AIGC zu erzielen.“ Dies zeigt zwar den Entwicklungstrend der AIGC-Branche auf, impliziert aber auch, dass „Sie bereits hinter der Zeit zurückliegen“, wenn es um den Markteintritt neuer Technologieunternehmen geht. Dies ist tatsächlich eine Chance für Apple, das die erste Welle von AIGC verpasst hat. Es besteht keine Notwendigkeit, Ressourcen zu verwenden, um das Sprachmodell selbst zu trainieren. Es sollte darüber nachdenken, wie generative KI in seine eigene Ökologie eingebettet werden kann. Anstatt das Rad zu wiederholen, Es ist besser, über die Herstellung des gesamten Autos nachzudenken.
Kann die „verfallene“ Siri das große Sprachmodell auf Siri übertragen, es in Smart Siri umwandeln und zu einer intelligenten Haushälterin (ähnlich Javis) werden, die alle ökologischen Geräte von Apple unter der Apple-ID steuert und so eine neue Form der Mensch-Computer-Interaktion ermöglicht? . Siri wieder zum Leben zu erwecken ist möglicherweise nicht so einfach wie die Integration eines großen Sprachmodells in Siris ursprünglichen Algorithmus.
Siri in eine ChatGPT-ähnliche Methode umzuwandeln, ist völlig anders. Es ist fast notwendig, die Siri-Datenbank umzugestalten, was einer Kürzung und Neuschulung gleichkommt. Möglicherweise ist eine Umstrukturierung des Teams und eine Menge Ressourcen erforderlich, um sie erneut anzudocken Hardwaresystem. AIGC verbraucht bei jeder Generierung viel Cloud-Rechenleistung. Derzeit verbraucht OpenAI ChatGPT fast die Rechenleistungsressourcen der Microsoft Azure-Cloud und ist sogar etwas knapp.
Der Umfang des Cloud-Zentrums von Apple ist klein und weitaus geringer als der von Microsoft, Oracle und anderen großen Unternehmen, die sich auf die Bereitstellung von Cloud-Diensten spezialisiert haben. Apple ist größtenteils selbstzufrieden und unterstützt seine eigene iCloud, seinen App Store usw. Wenn AIGC in iPhone, iPad und Mac eingeführt wird, wird die von Apple benötigte Rechenleistung astronomisch sein.
Selbst wenn Apple über ausreichende Rechenleistung verfügt, belaufen sich die Kosten für GPT-4 pro tausend Aufforderungswörter schätzungsweise auf bis zu 12 Cent. Darüber hinaus gibt es allein bei Apples iPhone-Nutzern mehr als eine Milliarde, und die Betriebskosten sind extrem hoch. Unabhängig davon Aufgrund objektiver Bedingungen oder subjektiver Wünsche von Apple ist es schwierig, ChatGPT-ähnliche Technologie direkt in Siri einzuführen und direkt im Ökosystem bereitzustellen. Apple muss noch den richtigen Zeitpunkt und Einstiegspunkt finden. Möglicherweise sind die Kosten für generative KI stark gesunken, oder es beginnt mit kleinen Funktionen und nutzt AIGC, um die Benutzererfahrung zu verbessern.
Gemessen an der konsequenten KI-Einstellung von Apple ist es wahrscheinlicher, dass Apple sich für Letzteres entscheidet.
Bei KI legt Apple mehr Wert auf „Effizienz“ und „Datenschutz“
Neben dem Timing gibt es zwei Unternehmen mit unterschiedlichen Strategien und Taktiken, die Apple auf kühle Distanz zur generativen KI halten. Im Jahr 2020 wurden John Giannandrea, Senior Vice President für die Strategie für maschinelles Lernen und künstliche Intelligenz von Apple, und Bob Borchers, Vizepräsident für Produktmarketing, vom AI-Geschäft von Arstechnica Apple interviewt, und beide brachten die beiden Hauptpunkte der AI-Strategie von Apple klar zum Ausdruck.
Das eine ist Effizienz und das andere ist Privatsphäre.
Effizienz bezieht sich auf die vom Terminal ausgeführten maschinellen Lernalgorithmen und -modelle mit schnellerer Reaktion und besserer Leistung. Privatsphäre ist, wie der Name schon sagt, der Schutz der Privatsphäre. John Giannandrea erwähnte in dem fast 4.000 Wörter umfassenden Interview wiederholt zwei Schlüsselstrategien, was zeigt, dass Apple ein fast paranoides und striktes Streben nach KI-Technologie verfolgt. Rückblickend wird Apples Beharren auf der Herstellung eigener, selbst entwickelter Chips der Apple Neural Engine der A-Serie und M-Serie Vorrang vor CPU und GPU einräumen und ist zum Kern jeder Generation von Chip-Upgrades geworden.
Interessanterweise wird Apple bei der Veröffentlichung jeder Generation von Apple-Chips der A-Serie und M-Serie eine Reihe verwandter Spezifikationen und Architekturinformationen wie CPU, GPU, einheitlicher Speicher usw. bekannt geben, jedoch nur für Neural Engine Allgemeine Daten, eher wie eine Blackbox, als ob die neuronale Engine das größte Geheimnis aller Chips wäre. Die beiden Führungskräfte glauben außerdem, dass der Chip seit Apples iPhone
Apple reduziert die Größe vieler Algorithmen für maschinelles Lernen für den Einsatz auf Terminals so weit wie möglich und betont sogar, dass das Algorithmusmodell wirklich klein ist. Bereitstellungsterminals können den Algorithmus schnell aufrufen, und es kommt zu keiner Verzögerung bei der Antwort. Darüber hinaus müssen keine Benutzerdaten hochgeladen werden, wodurch „Datenschutz“-Probleme vermieden werden. B. die Verfolgung von Apple Pencil-Strichen, Bilderkennung und anderen KI-bezogenen Funktionen. Das Training des Algorithmusmodells ist gut genug, und das Terminal kann die Verarbeitung ohne Hochladen in die Cloud abschließen, um die Berechnung zu unterstützen.
Ähnlich wie ChatGPT ist die generative KI vollständig auf das Internet angewiesen. Auch wenn der Dienst schon seit mehreren Monaten auf dem Markt ist, ist der Dienst immer noch nicht stabil genug und es kommt immer wieder zu Fehlern. Für Apple, ein Unternehmen, das auf Benutzererfahrung setzt, Eine solch instabile Situation darf nicht passieren. Datenschutz ist in den letzten Jahren auch für Apple eine wichtige Strategie. Trotz der Kritik und der Kürzung der damit verbundenen Vorteile hat Apple in iOS 14.5 dennoch App Tracking Transparency (ATT) eingeführt, um auf der Seite der Nutzer zu stehen.
Die KI-Modellalgorithmen von Apple müssen nicht mit dem Internet verbunden sein und einige müssen einige Daten für das Training sammeln (Siri). Apple gibt im Voraus an, dass vertrauliche Informationen (Apple-ID usw.) während des Erfassungsprozesses entfernt werden. Die generative KI unterscheidet sich von der vorsichtigen Haltung von Apple: Sie erfasst nahezu alle Netzwerkinhalte, um Algorithmusparameter zu trainieren, und generiert darauf basierend Antworten.
Nach der Markteinführung des Produkts wurden auch Microsoft Copilot, midjourney und Stability AI von vielen Websites und Institutionen wegen Rechtsverstößen verklagt und behauptet, dass diese KI-Unternehmen illegal urheberrechtlich geschützte Inhalte zur Erstellung verwendet und gegen Urheberrechtsgesetze und -vorschriften verstoßen hätten.
▲ „Mona Lisa“, produziert von Midjourney.
Obwohl der Urheberrechtsstreit noch nicht geklärt ist, muss der umstrittene Schulungsprozess gegen Apples Prinzip des Schutzes der Privatsphäre verstoßen. AIGC ist derzeit nicht in der Lage, Terminals einzusetzen, und es ist schwierig, einen perfekten Service beim Surfen im Internet zu gewährleisten. Darüber hinaus gibt es Datenschutzprobleme. Die Mainstream-Technologie von AIGC steht fast im Widerspruch zu Apples KI-Bemühungen, was auch erklärt, warum Apple es versäumt hat, rechtzeitig Produkte oder Stellungnahmen zu generativer KI herauszugeben.
Die KI, die wir kennen, ist vielleicht nur Siri, aber seit Apples Neural Engine ein unabhängiges Modul der A-Serie-Chips wurde, konzentrierte sie sich auf die Lokalisierung von KI. Der Zweck ist auch sehr einfach: Es möchte keine KI verwenden, um sich zu ändern der Welt, sondern um die Benutzererfahrung zu verbessern. Apple ist kein reines KI-Unternehmen. Die Cloud dient nur dem eigenen Softwaregeschäft. Die selbst entwickelten Chips dienen auch der Hardware. Apples Technologieausbau dient nur der Bereitstellung von Produkten. Schließlich handelt es sich um ein produktgetriebenes Unternehmen. In gewisser Hinsicht Bei XR-Geräten hat Apple sein KI-Team für die visuelle Erkennung erweitert und jagt nicht nach Hotspots im Silicon Valley.
Apple ist sich seiner eigenen Vorteile bewusst und lässt sich mit einer stabilen Entwicklungsstrategie nicht von anderen an der Nase herumführen. Apple beobachtet immer lange neue Technologietrends und schaltet sich dann aus einer einzigartigen Perspektive ein. Bei der generativen KI könnte sich Apple auch in eine Richtung entwickeln, an die noch niemand gedacht hat, und der Öffentlichkeit die Augen öffnen.
(Dieser Artikel wird gesponsert von Lieber Fan Zum Nachdruck berechtigt; Quelle des ersten Bildes:Apfel)