apple, Microsoft, Alphabet (google), Meta und Amazon gelten als die „Big Five“ im Technologiekreis.
Im KI-Trend, der von OpenAI und Microsoft herbeigeführt wurde, haben Google, Meta und Amazon allesamt KI-Technologie auf der Basis der neuesten Entwicklungen entwickelt, aber Apple hat sich nicht bewegt und sich aus der Sache herausgehalten.
Laut Bloomberg-Reporter Mark Gurman ist Apples Gelassenheit jedoch nur ein Schein, und bei Apple wurde bereits ein KI-Forschungsteam gebildet, das bereit ist, sich an diesem Strudel zu beteiligen.
„Apple GPT“ erste Exposition
Eine mit der Angelegenheit vertraute Person verriet gegenüber Bloomberg, dass Apple intern einen Chatbot-Dienst entwickelt habe, der chatgpt und Bard ähnelt, und dass einige interne Ingenieure ihn „Apple GPT“ nennen.
Es wird berichtet, dass „Apple GPT“ auf der Grundlage der von Apple selbst entwickelten Ajax-Architektur entwickelt wurde.
Ajax ist ein System-Framework, das letztes Jahr von Apple erstellt wurde, um maschinelles Lernen zu vereinheitlichen (die unterste Ebene ist Google Jax). Derzeit haben Apples Suche, Siri, Karten und andere Dienste einige auf Ajax basierende Verbesserungen im Zusammenhang mit künstlicher Intelligenz vorgenommen.
Der nächste Schritt von Apple besteht darin, mit Ajax ein großes Sprachmodell zu entwickeln.
Im Mai dieses Jahres äußerte Cook in einer Telefonkonferenz seine Ansichten zur generativen KI. Cook sagte, er werde sich nicht zu Apples Produkt-Roadmap äußern, er erkenne jedoch das Potenzial der generativen KI an.
Cook glaubt, dass es bei der KI noch viele zu lösende Probleme gibt, und Apple wird weiterhin in verwandte Technologien investieren und versuchen, so umfassend wie möglich zu sein.
Oberflächlich betrachtet scheint es, dass Apple es nicht eilig hat, aber laut Bloomberg entwickelte bereits Ende letzten Jahres ein kleines Team innerhalb von Apple Chatbot-Dienste, und das Team ist im Laufe der Zeit gewachsen.
Insidern zufolge wurde „Apple GPT“ einst wegen KI-Sicherheitsrisiken bei Apple ausgesetzt, ließ das Projekt aber später weiterlaufen.
Um auf „Apple GPT“ zugreifen zu können, müssen Mitarbeiter ein spezielles Genehmigungsverfahren durchlaufen, zudem warnte Apple bei der Nutzung ernsthaft:Das Programm kann nicht zur Entwicklung benutzerorientierter Funktionen verwendet werden.
Es versteht sich, dass „Apple GPT“ Texte zusammenfassen und auf der Grundlage von Schulungen Fragen beantworten kann, und Apple-Ingenieure werden es zur Unterstützung bei der Entwicklung von Produktprototypen verwenden.
„Apple GPT“ unterscheidet sich in der Funktion nicht wesentlich von ChatGPT und Bard. Es ähnelt Webanwendungen und Apple hat einige einzigartige Funktionen und Technologien dafür nicht entwickelt.
Wann sehen wir „Apple GPT“? Leider hat Apple derzeit keine Pläne, das Produkt den Verbrauchern vorzustellen.
Insider haben jedoch enthüllt, dass Apple möglicherweise im Jahr 2024 eine wichtige Stellungnahme zum Thema KI veröffentlichen wird.
Neben dem selbst entwickelten Modell plant Apple auch eine Zusammenarbeit mit OpenAI zur Unterzeichnung eines Großvertrags, es ist jedoch unklar, wie die konkrete Zusammenarbeit aussieht. Man muss sagen, dass OpenAI, das die Gunst von Microsoft und Apple gewonnen hat, der größte Gewinner dieser KI-Welle ist.
Unter diesem Gesichtspunkt ist 2024 ein sehr wichtiges Jahr für Apple. Apple wird nicht nur Vision Pro veröffentlichen, sondern auch am KI-Krieg teilnehmen. Es ist wahr, dass es an der Spitze der Technologie auf den beiden Wellen tritt.
KI in Apples Augen
Apple erwähnt das Konzept der KI kaum, aber KI ist längst in jeden Winkel des Apple-Ökosystems integriert, was besonders in den neuen Versionen von Apple-Produkten nach der WWDC 2023 deutlich wird.
Die von vielen Menschen verwendete Apple-Eingabemethode hat in iOS 17 den Segen der KI erhalten. Mit der automatischen Korrekturfunktion kann sie den Text vorhersagen, den der Benutzer eingeben möchte, und lernt weiterhin die Eingabegewohnheiten des Benutzers, um Benutzern bei der effizienten Eingabe zu helfen.
Craig Federighi, Senior Vice President Software Engineering bei Apple, sagte:
(Auch) wenn Sie ein Ducking-Wort eingeben möchten, lernt die Tastatur von selbst (Ihre Tippgewohnheiten und sagt voraus, was Sie eingeben möchten).
Die Verbesserung des Eingabeerlebnisses ist auf die geräteseitige Optimierung des Transformer-Modells durch Apple zurückzuführen.Was viele Menschen nicht wissen, ist, dass Transformer eine der wichtigen Technologien ist, die ChatGPT unterstützt。
Die neuen AirPods Pro verfügen über einen durch maschinelles Lernen implementierten adaptiven Audiomodus, der automatisch zwischen dem Rauschunterdrückungsmodus und dem Transparenzmodus wechseln kann, wenn er bestimmte externe Geräusche erkennt, wodurch die Häufigkeit des manuellen Umschaltens durch Benutzer erheblich reduziert wird.
Es gibt auch iPad OS 17, das maschinelle Lernmodelle verwendet, um Felder in PDFs zu identifizieren, und Benutzer können relevante Informationen mit Namen, Adressen und E-Mails schnell in das Adressbuch eingeben.
Die Tagebuch-App Journal, auf die sich viele Menschen freuen, kann maschinelle Lerntechnologie nutzen, um Lebensmomente entsprechend den letzten Aktivitäten des Benutzers, einschließlich Fotos, Personen, Orten, körperlichem Training usw., intelligent aufzuzeichnen. Es kann auch automatisch detaillierte Informationen zu Einträgen wie Fotos, Musik und Audioaufnahmen hinzufügen, sodass Sie in Zukunft problemlos darauf zurückgreifen können.
Die mit Spannung erwartete Fähigkeit des Vision Pro, digitale Avatare für Benutzer zu erstellen, nutzt auch fortschrittliche „Encoder-Decoder“-Neuronale Netze mit maschineller Lerntechnologie.
Beim Smart Stacking von watchOS 10 wird auch von der KI bestimmt, welche wichtigeren Informationen aktuell zur Anzeige ausgewählt werden sollen.
Sogar die Animationen von iOS 17 und iPadOS 17 verwenden KI-Technologie. Das Modell für maschinelles Lernen kann zusätzliche Animationsbilder synthetisieren, sodass das Gerät einen wunderschönen und flüssigen Zeitlupeneffekt zeigen kann. Aus diesem Grund sind viele Beta-Anwender der Meinung, dass die Animation flüssiger und eleganter geworden ist.
▲ Und Hey Siri wurde Siri, auch dank KI
Die letzte Woche veröffentlichte öffentliche Beta von iOS 17 brachte auch eine Funktion zum „Sound-Klonen“.
▲ Demovideo von @MKBHD
Unter „Einstellungen – Barrierefreiheit“ können Sie sehen, dass eine neue Einstellung „persönliche Stimme“ hinzugefügt wurde. Sie können den Bildschirmanweisungen folgen, um 150 Sätze einzugeben, z. B. das Aufzeichnen einer Stimme für Siri.
Das iphone lernt dann Ihre Stimme und generiert eine KI-Stimme, die Ihrer nahe kommt. Schade, dass diese Funktion derzeit nur Englisch unterstützt, und ich hoffe, dass Apple weitere Sprachen hinzufügen kann.
Man kann sagen, dass Apple, der KI-„Arme“, von der Öffentlichkeit als KI-„Verrückter“ angesehen wird.
Apples Wette auf die Zukunft der KI
Apples Förderung des maschinellen Lernens konzentrierte sich lange Zeit auf „lokale Bedienung“ und „Datenschutz“.
Wird Apple, nachdem Apple auf das große KI-Sprachmodell gesetzt hat, KI-Funktionen genauso aggressiv einsetzen wie Microsoft und Google?
In diesem Punkt hat Apple noch keinen Konsens erzielt.
Innerhalb von Apple werden Projekte im Zusammenhang mit maschinellem Lernen gemeinsam von John Giannandrea, Leiter der Abteilung für maschinelles Lernen und künstliche Intelligenz von Apple, und Craig Federighi, Software-Engineering-Manager von Apple, geleitet. John Giannandrea sagte, er hoffe, die Entwicklung der KI abzuwarten und sich konservativer zu entwickeln, aber das Team sei nicht ganz einig.
John Giannandrea, der die Teams für künstliche Intelligenz und Suche bei Google leitete, kam 2018 zu Apple, um den angeblichen Apple Watch AI-Gesundheitsassistenten und das mysteriösere Autopilot-Projekt zu beaufsichtigen.
Wenn Apple große Sprachmodelle in Apples Dienste integrieren will, dürfte die seit langem in der Kritik stehende Siri die geeignetste Anlaufstelle sein.
Verglichen mit dem eloquenten ChatGPT ist Siri, das nur einfache Fragen beantworten kann, wie ein Produkt zweier Generationen. Nach der Veröffentlichung von ChatGPT erforschten einige Internetnutzer Methoden wie Tastenkombinationen, mit denen Siri ChatGPT anrufen konnte, um zu antworten und dessen Intelligenzniveau zu verbessern.
Derzeit steht die ChatGPT-iOS-App immer noch an erster Stelle in der Effizienzliste des App Stores in den USA, was ausreicht, um zu zeigen, dass Benutzer Chatbots mit großen Sprachmodellen auf der mobilen Seite lieben.
Andererseits hat Bard kürzlich die Funktion zum Lesen von Inhalten aktualisiert. Jetzt unterstützt Bard sowohl die Spracheingabe als auch das Vorlesen von Antwortinhalten durch Sprache. Es entspricht fast der superintelligenten Version von Google Assistant und ist nur einen Schritt von der Bereitstellung auf Android-Telefonen entfernt.
Wenn Google die KI-Sicherheitsbeschränkungen des großen Sprachmodells perfektioniert und Bard zuerst auf den Google Assistant anwendet und das Smartphone in einen intelligenten Assistenten verwandelt, wird dies einen Schlag zur Dimensionsreduzierung für Siri bedeuten.
Aus dieser Perspektive ist die Bereitstellung eines großen Sprachmodells durch Apple nicht nur notwendig, sondern auch dringend.
Wenn wir das derzeitige Tempo der generativen KI-Entwicklung fortsetzen, werden wir vielleicht bald einige Anwendungen sehen, die große Sprachmodelle auf Mobiltelefonen bereitstellen. Apple, das seit jeher an dem Konzept der „Zusammenarbeit von Software und Hardware“ festhält, wird nicht nur bereit sein, Hardware-Lieferant zu sein.
Die momentane Ruhe und der Konservatismus von Apple stärken möglicherweise nur die Kraft für einen Ausbruch ein Jahr später.