Es wird berichtet, dass apple beabsichtigt, künstliche Intelligenz in Gesundheitsfunktionen einzuführen, um das Gesundheitsuniversum der Apple Watch zu erweitern.

Starten Sie einen KI-Gesundheitscoach, der mit Hilfe der von der Apple Watch aufgezeichneten Daten mit Hilfe von Algorithmen den Trainingsplan des Benutzers erstellt, Essgewohnheiten und Schlafqualität verbessert, um den Gesundheitszustand aufrechtzuerhalten oder zu verbessern.

Dies sollte die neueste Nachricht sein, dass AI und Apple kürzlich zusammengekommen sind, aber Apples AI-Gesundheitscoach unterscheidet sich erheblich von der derzeit beliebten generativen KI wie chatgpt, Bing und Bard.

Eine der Hauptfunktionen des angeblich auf den Markt kommenden Mixed-Reality-Geräts Apple XR dreht sich um den Fitness+-Dienst.

Es nutzt den virtuellen Raum, um Sie überall in das „Fitnessstudio“ einzutauchen, und natürlich ist ein virtueller Trainer unverzichtbar.

Bisher dachten wir nur, dass dieser „virtuelle Trainer“ nur Standard-Aktionsdemonstrationen durchführen könnte, aber nach Apples Plan könnte „er“ auch mit mehr „Weisheit“ ausgestattet sein.

Verglichen mit den jüngsten heißen Nachrichten von ChatGPT ist „AI Health Coach“ jedoch eher eine Funktion als ein Trend ähnlich wie ChatGPT, der einen neuen Track auslöst.

Apple hat sich nicht in den Aufschwung des Silicon Valley eingemischt, um den Aufbau generativer KI voranzutreiben. Stattdessen scheint es ein Gefängnis zu sein und nimmt nicht am Wettbewerb teil, was ganz anders erscheint.

Siri ist keine KI, Apples KI steckt im Detail

Vor zwölf Jahren stellte Apple Siri erstmals der Öffentlichkeit vor und brachte es mit dem iphone 4s auf den Markt.

Später wurde Siri auf alle Apple-Smart-Geräte wie Mac, iPad, HomePod, Apple Watch und sogar AirPods ausgeweitet.

Siri ist mit hohem Licht geboren und wird als „intelligenter Sprachassistent“ definiert. Es kann Benutzerfragen beantworten, Geräte steuern und Aufgaben durch Spracherkennung und Verarbeitung natürlicher Sprache ausführen.

Es hat auch den Trend zu Standard-Sprachassistenten auf Smartphones angeführt, wie zum Beispiel Samsungs Bixby, Xiaomis Xiao Ai, OPPOs Xiaoou und so weiter.

In ähnlicher Weise ist Siri auch Fox bekannt, der glaubt, dass es sich um einen Prototyp künstlicher Intelligenz handelt.

Während des 12-jährigen Entwicklungsprozesses hat Apple jedoch selten tiefgreifende Upgrades vorgenommen, meist im Hinblick auf funktionale Punkte.

Heute bewahrt es immer noch die Unschuld von 2011. Wenn es auf schwierige Probleme stößt, antwortet es auch offen: „Ich weiß es nicht genau. Das ist die Antwort, die ich im Internet gefunden habe.“

Heute, wo im Jahr 2023 die generative KI über den ganzen Himmel fliegt, steht Siris „Unschuld“ in krassem Gegensatz zum beredten ChatGPT.

Es scheint, dass Apple keine künstliche Intelligenz entwickeln will, sondern nur Mobiltelefone und Computer verkaufen will, aber ist das wirklich so?

Tatsächlich sollte Siri nicht als künstliche Intelligenz bezeichnet werden, Siri ist lediglich ein Sprachassistent vom Typ Antwortdatenbank.

Wenn der Benutzer es aufweckt und eine Reihe von Befehlen ausgibt, wird sein Datenmodell zuerst in der Ontologie verarbeitet und schnell überprüft, ob es sich um eine einfache lokale Anfrage handelt (z. B. die Lautstärke anpassen, einen Wecker stellen usw.). Verwenden bekannter Informationen, um es schnell abzuschließen.

Andernfalls gehen Sie in die Cloud, um eine größere Datenbank abzufragen und Ihnen eine Antwort zu geben, oder wenn Sie sie nicht finden, werfen Sie einfach eine Websuche ab (sehr wahrscheinlich).

ChatGPT verfügt jedoch nicht über einen Local-to-Cloud-Prozess. Der Frage zufolge greift es direkt auf das Azure Cloud Computing Center von Microsoft zu, nutzt enorme Rechenleistung und entsprechende Modelle zur Berechnung und „generiert“ eine Antwort unabhängig davon, ob dies der Fall ist verstanden oder nicht.

Siehe auch  5 ChatGPT-Eingabeaufforderungen für den Fall, dass Sie aufgeben möchten

Unter diesem Gesichtspunkt zeigen Siri und ChatGPT zwei Tendenzen: Apple tendiert dazu, die Technologie lokal einzusetzen und priorisiert die lokale Rechenleistung für Lösungen in Anspruch zu nehmen. ChatGPT ist vollständig vom Netzwerk und der enormen Rechenleistung des Rechenzentrums abhängig.

Das Gleiche gilt für die KI von Apple, die zwar in vielen Funktionen von Apple-Produkten versteckt ist, zwar niemandem auffällt, aber das Nutzererlebnis enorm verbessert.

Wenn Sie beispielsweise den Auslöser drücken, nimmt das iPhone mehrere Fotos hintereinander auf und wählt dann mithilfe der Bilderkennung das Foto mit dem besten Effekt als endgültiges Bild gemäß dem entsprechenden Modellalgorithmus aus.

Wenn der Apple Pencil auf dem iPad schreibt, kann er das echte Stift-Papier-Erlebnis erreichen. Dabei werden Strichverfolgung und Handflächenerkennung verwendet. Während die unmittelbare Reaktion der Striche gewährleistet ist, wird es nicht versehentlich berührt, weil die Handfläche den Bildschirm berührt.

Und FaceID berücksichtigt sowohl Sicherheit als auch Effizienz, es kann sich an Veränderungen im Gesicht des Benutzers anpassen und beeinträchtigt die Erkennungseffizienz aufgrund von Brillen und Bärten nicht.

Selbst im aktuellen iOS wird das Entsperren von Masken unterstützt und es wird nur ein halbes Gesicht verwendet, um die gleiche Sicherheitsstufe wie zuvor zu erreichen.

Von diesen Funktionen bis hin zu Apples Multi-Device-, Plattform-Kollaboration, Interconnection und anderen Features ist Apples Neural Engine (Neural Engine) an allen Aspekten beteiligt, was auch die Art und Weise ist, wie Apple AI dargestellt wird.

Im Gegensatz zur generativen KI konzentriert sich Apple AI darauf, die Erfahrung der Endbenutzer zu verbessern.

Ist es möglich, dass Siri ChatGPT-ähnlich wird?

Kurz nach der Einführung von ChatGPT tauchten in einem endlosen Strom auch Webversionen von Shell-Apps auf, die auf die offizielle API zugreifen, aber sie können tatsächlich in das System eingebettet werden oder wurden noch nicht in Terminalanwendungen und Interaktionen implementiert.

Aus diesem Grund wurde bisher angenommen, dass generative KI wie ChatGPT und New Bing immer noch in der alten Dialogbox-Interaktion stecken.

Eine echte Mensch-Computer-Interaktion oder Terminaldienste gibt es noch nicht.

Sam Altman, CEO von OpenAI, sagte in einer Rede am Massachusetts Institute of Technology: „Die Ära der Großmodelle ist zu Ende. Wir müssen neue Ideen und Methoden nutzen, um neue Fortschritte bei AIGC zu erzielen.“

Dies verdeutlicht zwar den Entwicklungstrend der AIGC-Branche, impliziert aber auch, dass neue Technologieunternehmen auf den Markt kommen: „Sie sind bereits hinter der Zeit zurück.“

Dies ist tatsächlich eine Chance für Apple, das die erste AIGC-Welle verpasst hat. Es besteht keine Notwendigkeit, Ressourcen zu verwenden, um sein eigenes Sprachmodell zu trainieren, aber es sollte überlegen, wie es generative KI in seine eigene Ökologie einbetten kann.

Anstatt das Rad neu zu erfinden, sollten Sie über den Bau eines Autos nachdenken.

Was Siri betrifft, das seit langem in einem schlechten Zustand ist, kann Siri ein großes Sprachmodell aufgepfropft werden, das ihn in einen intelligenten Siri verwandelt und ihn zu einem intelligenten Haushälter macht (ähnlich wie Javis), der alle ökologischen Apple-Geräte unter einem steuern kann Apple ID und bringt damit eine neue Form der Mensch-Computer-Interaktion.

Es ist nur so, dass es möglicherweise nicht so einfach ist, Siri wieder zum Leben zu erwecken, indem ein großes Sprachmodell in den ursprünglichen Algorithmus von Siri integriert wird.

Verwandeln Sie Siri in ChatGPT-ähnlich. Da die beiden Verarbeitungsmethoden völlig unterschiedlich sind, ist es fast notwendig, die gesamte Siri-Datenbank umzugestalten, was einem Zurückdrängen und Neuaufbau gleichkommt, was möglicherweise eine Neuorganisation des Teams und einen hohen Ressourcenaufwand für die Wiederherstellung der Verbindung erfordert mit dem Hardware-Docking-System.

Siehe auch  So verdienen Sie Geld im ChatGPT Store: Eine Schritt-für-Schritt-Anleitung

google 機器學習中心 圖片來自:Google” width=”700″ height=”396″ layout=”responsive”/>

Darüber hinaus haben wir bereits berichtet, dass AIGC jedes Mal, wenn eine Abfrage generiert wird, viel Cloud-Computing-Leistung verbraucht.

Derzeit hat ChatGPT von OpenAI die Rechenressourcen des Azure Cloud Computing Centers von Microsoft fast aufgebraucht, und es ist sogar etwas knapp.

Die Größe des Cloud-Computing-Zentrums von Apple ist klein und seine globale Größe ist weitaus geringer als die traditioneller Großunternehmen wie Microsoft und Oracle, die Cloud-Dienste für die Außenwelt bereitstellen. Die Cloud-Dienste von Apple dienen größtenteils der Selbstzufriedenheit und bieten Unterstützung für ihre iCloud, den App Store und andere Unternehmen.

Wenn AIGC in iPhone, iPad und Mac eingeführt wird, wird die von Apple benötigte Rechenleistung astronomisch sein.

Selbst wenn Apple über die Unterstützung von Rechenleistung verfügt, belaufen sich die Kosten für GPT-4 pro tausend Eingabeaufforderungen nach bisherigen Berechnungen auf bis zu 12 Cent. Darüber hinaus hat Apple weltweit mehr als eine Milliarde iPhone-Nutzer und die Betriebskosten ist extrem hoch.

Unabhängig von objektiven Bedingungen oder subjektiven Wünschen von Apple ist es für Apple schwierig, ChatGPT-ähnliche Technologie direkt in Siri einzuführen und sie direkt im Ökosystem bereitzustellen.

Apple muss noch einen geeigneten Zeitpunkt und Einstiegspunkt finden. Dieser Zeitpunkt kann die Kostenreduzierung generativer KI sein oder mit einer kleinen Funktion beginnen und AIGC verwenden, um das Benutzererlebnis zu verbessern.

Gemessen an Apples konsequenter Haltung gegenüber KI dürfte Letzteres wohl eher der endgültige Ansatz von Apple sein.

Bei KI legt Apple Wert auf „Effizienz“ und „Datenschutz“

Neben dem Timing gibt es auch Unterschiede in den Strategien und Taktiken der beiden Unternehmen, die Apple und die generative KI ruhig halten.

Im Jahr 2020 wurden John Giannandrea, Senior Vice President für maschinelles Lernen und Strategie für künstliche Intelligenz bei Apple, und Bob Borchers, Vizepräsident für Produktmarketing, von Arstechnica zum KI-bezogenen Geschäft von Apple interviewt. Beide brachten zwei Kernpunkte der KI-Strategie von Apple klar zum Ausdruck .

Das eine ist Effizienz und das andere ist Privatsphäre.

Effizienz bezieht sich auf die schnellere Reaktion und bessere Leistung von lokal ausgeführten maschinellen Lernalgorithmen und -modellen.

Privatsphäre ist, wie der Name schon sagt, der Schutz der Privatsphäre.

In diesem fast 4.000 Wörter umfassenden Interview wurden diese beiden Schlüsselstrategien von John Giannandrea wiederholt erwähnt, was zeigt, dass Apple ein fast paranoides und striktes Streben nach KI-Technologie verfolgt.

Rückblickend haben Apples zwei Beharrlichkeiten Apple auch dazu veranlasst, im Kerngeschäft den A-Series und M-Series Apple Neural Engines Vorrang vor CPUs und GPUs einzuräumen. Es ist zum Kern jeder Chipgeneration geworden, sich auf die Modernisierung zu konzentrieren.

Interessanterweise wird Apple bei der Veröffentlichung jeder Generation von Apple-Chips der A-Serie und M-Serie eine Reihe verwandter Spezifikationen und Architekturinformationen wie CPU, GPU und Unified Memory bekannt geben.

Aber nur wenn es um Neural Engine geht, gibt es nur allgemeine Informationen, eher wie eine Blackbox, als ob die Neural Engine das größte Geheimnis aller Chips wäre.

Darüber hinaus sind die beiden Führungskräfte auch davon überzeugt, dass die im Chip enthaltene neuronale Engine seit dem iPhone

Zu diesem Zweck hat Apple die Größe vieler Machine-Learning-Algorithmen so weit wie möglich reduziert, damit sie lokal eingesetzt werden können. Er betonte sogar, dass es die wahre Kunst sei, das Algorithmusmodell kleiner zu machen.

Lokal bereitgestellt können Sie den Modellalgorithmus schnell lokal aufrufen und ohne Verzögerung reagieren. Darüber hinaus müssen keine Benutzerdaten hochgeladen werden, wodurch das Problem der „Privatsphäre“ vermieden wird.

Siehe auch  ChatGPT kann jetzt im Internet suchen und mit Bildern antworten

Zu den Funktionen, an denen KI beteiligt ist, wie z. B. das Verfolgen von Apple-Pencil-Strichen, Bilderkennung usw., muss das Algorithmusmodell nicht in die Cloud hochgeladen werden, um Berechnungen zu unterstützen, da es gut genug trainiert ist, und die Verarbeitung kann abgeschlossen werden örtlich.

Ähnlich wie die generative KI von ChatGPT ist sie vollständig vom Internet abhängig. Auch nach mehrmonatiger Einführung ist der Dienst noch nicht stabil genug und es kann immer wieder zu Fehlern kommen.

Für ein Unternehmen wie Apple, das auf Benutzererfahrung setzt, ist eine solch instabile Situation nicht zulässig.

Datenschutz war in den letzten Jahren eine Strategie von Apple. Trotz der Kritik und der Kürzung der damit verbundenen Vorteile hat Apple dennoch das Apple App Tracking Transparency Framework (App Anti-Tracking, App Tracking Transparency, kurz ATT) auf iOS 14.5 eingeführt. auf der Seite des Benutzers.

Einige der KI-Modellalgorithmen von Apple müssen nicht mit dem Internet verbunden sein, während andere einige Daten für das Training sammeln müssen (z. B. Siri). Aus diesem Grund wird Apple im Voraus erklären und vertrauliche Informationen (z. B. Apple ID, etc.) während des Inkassovorgangs.

Die derzeit beliebte generative KI unterscheidet sich etwas von der vorsichtigen Haltung von Apple: Sie greifen fast auf viele Internetinhalte zurück, um Algorithmusparameter zu trainieren, und generieren diese auf dieser Grundlage.

Und als sie verwandte Produkte wie Microsoft Copilot, midjourney und Stability AI auf den Markt brachten, erhielten sie auch Klagen wegen Urheberrechtsverletzung von vielen Websites und Institutionen, in denen behauptet wurde, dass diese Unternehmen illegal urheberrechtlich geschützte Inhalte gescrapt und erstellt hätten, was gegen das Urheberrecht verstoße.

Obwohl die Debatte über das Urheberrecht noch nicht zum Tragen gekommen ist, steht ein derart kontroverser Schulungsprozess tatsächlich im Widerspruch zu Apples Hauptanliegen des Datenschutzes.

AIGC kann derzeit nicht lokal eingesetzt werden und es ist schwierig, einen perfekten Dienst zu gewährleisten, wenn eine Verbindung zum Internet besteht. Darüber hinaus gibt es Datenschutzprobleme.

Die Mainstream-Technologie von AIGC steht fast im Widerspruch zu Apples Streben nach KI, was auch das Versäumnis von Apple erklärt, rechtzeitig entsprechende Produkte oder Stellungnahmen zur generativen KI herauszugeben.

Für KI kennen wir vielleicht Siri, aber für Apple selbst hat sich Apple tatsächlich auf die Lokalisierung von KI konzentriert, seit die Neural Engine zu einem unabhängigen Modul der A-Serie-Chips wurde. Der Zweck ist ebenfalls rein und hat keine Absicht mithilfe von KI. Um die Welt zu verändern, muss die Benutzererfahrung verbessert werden.

Apple ist kein reines KI-Unternehmen. Das Cloud-Rechenzentrum dient nur dem eigenen Softwaregeschäft. Der Kern dient auch der Hardware. Der Ausbau der Technologiebranche von Apple dient Produktdienstleistungen. Schließlich handelt es sich um ein produktorientiertes Unternehmen.

Seine Strategie, Strategie, Technologielayout usw. stehen im Mittelpunkt der Kernproduktdienstleistung. Wie beim nächsten XR-Gerät erweitert Apple das KI-Team im Bereich der visuellen Erkennung und verfolgt nicht die Hotspots im Silicon Valley.

Apple ist sich seiner eigenen Stärken und Schwächen sehr bewusst und lässt sich nicht blind von anderen leiten, sondern verfolgt eine sehr stabile Entwicklungsstrategie.

Darüber hinaus beobachtet Apple neue Technologien und neue Trends stets über einen langen Zeitraum und schaltet sich aus einer ganz eigenen Perspektive ein. In Bezug auf generative KI könnte sich Apple auch in eine Richtung entwickeln, mit der wir nicht gerechnet haben, und es wird uns die Augen öffnen.

Dieser Artikel wird reproduziert:ifanr

4.6/5 - (44 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein