apple schien langsam auf den Zug der generativen KI aufzuspringen, war aber neu Forschung Im Zusammenhang mit dem Kontextverständnis könnte Siri besser sein als chatgpt.
Während des kometenhaften Aufstiegs von ChatGPT und der anschließenden Flut generativer KI-Tools und -Funktionen von Unternehmen wie google, Microsoft und Meta blieb der Technologieriese auffällig ruhig. Aber Apple-Forscher haben ein neues Modell entwickelt, das Siri das generative KI-Upgrade geben könnte, auf das Apple-Fans gehofft haben.
Berichten zufolge unterhalten sich Apple und Google. Könnten Zwillinge auf das iphone kommen?
„Menschliche Sprache enthält typischerweise mehrdeutige Bezüge wie ‚sie‘ oder ‚das‘, deren Bedeutung (für andere Menschen) angesichts des Kontexts offensichtlich ist“, sagten die Forscher. Das Papier schlägt ein Modell namens ReALM (Reference Resolution As Language Modeling) vor, das das Problem angeht, dass große Sprachmodelle (LLMs) nicht immer in der Lage sind, den Kontext zu verstehen, wenn es um Bildschirm-, Gesprächs- und Hintergrundreferenzen (z. B. Apps oder andere) geht Funktionen, die im Hintergrund laufen) mit dem Ziel, ein „echtes Freisprecherlebnis bei Sprachassistenten“ zu erreichen.
Obwohl ChatGPT ziemlich gut ist und bestimmte Arten des Kontextverständnisses ermöglicht, sagen Forscher, dass ReALM bei allen Kontexttests GPT-3.5 und GPT-4 (die kostenlose und kostenpflichtige Versionen von ChatGPT unterstützen) übertrifft. Hier erfahren Sie, was das für Siri bedeuten könnte.
1. Kontexthinweise auf dem Bildschirm
Apple-Forscher trainierten ReALM mithilfe von „Bildschirmdaten“ von Webseiten, einschließlich Kontaktinformationen, und ermöglichten es dem Modell, Text in Screenshots (z. B. Adressen und Bankkontodaten) zu verstehen. Obwohl GPT-4 auch Bilder verstehen kann, wurde es nicht auf Screenshots trainiert, wodurch ReALM laut der Studie die Informationen auf dem Bildschirm besser verstehen kann, bei denen Apple-Benutzer Siri um Hilfe bitten würden.
2. Konversations- und Hintergrundverständnis
Konversationsreferenzen bedeuten etwas, das für die Konversation relevant ist, aber möglicherweise nicht explizit in der Eingabeaufforderung erwähnt wird. Durch das Training von ReALM anhand von Daten wie Geschäftslisten kann das Modell Aufforderungen wie „Rufen Sie die unterste an“ in Bezug auf eine auf dem Bildschirm angezeigte Liste nahegelegener Apotheken verstehen, ohne dass spezifischere Anweisungen gegeben werden müssen.
ReALM ist in der Lage, „Hintergrundentitäten“ zu verstehen, d oder ein Alarm ertönt.
3. Vollständig auf dem Gerät
Nicht zuletzt ist ReALM so konzipiert, dass es auf dem Gerät läuft, was eine große Sache wäre, da LLMs viel Rechenleistung erfordern und daher größtenteils cloudbasiert sind. Stattdessen sei ReALM ein kleinerer LLM, „aber speziell und explizit auf die Aufgabe der Referenzauflösung abgestimmt“. Apple hat in der Vergangenheit sein Engagement für den Datenschutz als Verkaufsargument für seine Geräte angepriesen, daher wäre eine generative KI-Version von Siri, die vollständig auf dem Gerät läuft, sowohl sehr markenkonform als auch eine große Errungenschaft für Geräte mit KI-Funktionen.
Apple hielt sich erwartungsgemäß zurückhaltend zu seinen KI-Plänen, aber CEO Tim Cook sagte a Große KI-Ankündigung wird erwartet später in diesem Jahr, daher sind alle Augen auf die Worldwide Developers Conference (WWDC) von Apple am 10. Juni gerichtet.
Themen Künstliche Intelligenz von Apple