apple arbeitet an einem großen Sprachmodell namens ReALM (Reference Resolution As Language Modeling), das den Sprachassistenten Siri verbessern und ihm helfen soll, den Kontext bei der Kommunikation mit dem Benutzer besser zu verstehen. Laut Apple liegt die „leichteste“ Version hinsichtlich der Leistung auf Augenhöhe mit chatgpt von OpenAI, verfügt jedoch über deutlich weniger Parameter. Darüber schreibt Digital Trends zitiert die Forschungsarbeit des Unternehmens.
ReALM ist in der Lage, die auf dem Gerätebildschirm des Benutzers angezeigten Inhalte und mehr zu verarbeiten. Dies verschafft ihm einen großen Vorteil gegenüber ChatGPT, das beispielsweise Bilder und PDFs verarbeiten kann, aber keinen Zugriff auf alles hat, was auf dem Bildschirm passiert, und nicht in der Lage ist, Antworten basierend auf dessen Inhalt zu geben.
Das Modell ist in vier Versionen erhältlich: ReALM-80M, ReALM-250M, ReALM-1B und ReALM-3B. Die Buchstaben „M“ und „B“ in den Namen entsprechen „Millionen“ und „Milliarden“. Es wurde in Benchmarks mit GPT-3.5 und GPT-4 verglichen. Selbst das kleinste Modell erwies sich als nicht schlechter als GPT-4, die anderen übertrafen es deutlich. Die Autoren der Studie sagen, dass ReALM deutlich besser ist als andere Systeme mit ähnlicher Funktionalität und dass ReALM-80M bis zu 5 % besser darin ist, Informationen auf dem Bildschirm zu verarbeiten.
In einer Forschungsarbeit stellten Apple-Forscher ReALM vor.
Es handelt sich um ein neues KI-System, das Bildschirmaufgaben, Gesprächskontext und Hintergrundprozesse verstehen kann.
Forscher sagten, es habe GPT-4 „wesentlich übertroffen“.
Mehr lesen: https://t.co/5YY5E0kbsk pic.twitter.com/6M8kQiVnKo
— Rowan Cheung (@rowancheung) 3. April 2024
Es ist nicht bekannt, wann ReALM auf den Markt kommt. Einzelheiten wird Apple voraussichtlich auf der WWDC im Juni bekannt geben.