Während apple bei seiner Arbeit an wichtigen Sprachmodellen sehr diskret bleibt, arbeitet das Unternehmen hinter den Kulissen daran, diese Technologien in seine Geräte zu integrieren.

iphone-ai-applegpt.webp 800w, https://img-api.mac4ever.com/1000/0/a9b549d490_apple-iphone-ai-applegpt.webp 1000w, https://img-api.mac4ever.com/1200/0/a9b549d490_apple-iphone-ai-applegpt.webp 1200w“ sizes=“(min-width: 1024px) 631px, (min-width: 850px) 66vw, (min-width: 667px) 58vw“>

Apple GPT auf einem iPhone?

Mehrere Leaks haben Aufschluss gegeben dass Apple aktiv an der Integration wichtiger Sprachmodelle in seine verschiedenen Systeme arbeitete. Die Cupertino-Teams entwickeln derzeit einen Konversationsroboter und ein großes Sprachmodell, das mit chatgpt von OpenAI, Gemini von google und LLaMA 2 von Meta konkurrieren kann. Wenn Apple nicht die Absicht hat, in diesem wachsenden Markt zurückzubleiben, hat das Unternehmen sicherlich nicht die Absicht, sein Image aufgrund der Wahrung der Vertraulichkeit zu schädigen sollte daher versuchen, sein großes Sprachmodell lokal auszuführen, insbesondere auf iPhones.

Apple Möchte Sein Chatgpt In Das Iphone Integrieren

Große Sprachmodelle sind jedoch RAM-intensiv und Apple muss einen Weg finden, seine Technologie auf seinen Smartphones zum Laufen zu bringen, die nicht über viel Speicher verfügen. Cupertino hat Arbeiten zu diesem Thema veröffentlicht. Betitelt LLM im HandumdrehenIn diesem Dokument wird die Möglichkeit der Nutzung des internen Speichers von Geräten erwähnt, was viel wichtiger ist (Es ist dann jedoch erforderlich, einen Teil des Speichers für diese Nutzung zu reservieren), bei gleichzeitiger Begrenzung der RAM-Nutzunginsbesondere dank der Techniken von Fensterbau und von Zeilen-Spalten-Bündelung in der Datei beschrieben.

Apple Möchte Sein Chatgpt In Das Iphone Integrieren

Beheben Sie RAM-Mangel

Durch die Kombination dieser beiden Methoden wäre Apple nicht nur dazu in der Lage Um das Problem des Speichermangels zu umgehen, indem Sie Modelle verwenden, die doppelt so viel Platz beanspruchen wie der verfügbare RAM, können Sie aber auch eine effiziente Verarbeitung erzielen. Das Dokument erwähnt eine vier- bis fünfmal schnellere Verarbeitung mit der CPU und eine 20- bis 25-mal schnellere Verarbeitung mit der GPU als mit der herkömmlichen Methode.

Siehe auch  Samsung verbietet Mitarbeitern die Verwendung von KI-Tools wie ChatGPT und Bard, nicht beschränkt auf persönliche Geräte – ezone.hk – Technology Focus – Tech Cars

Apple konnte sich daher auf diese Arbeit verlassen, um eine lokale Verarbeitung anzubieten und so die unantastbare Vertraulichkeit der Daten seiner Benutzer zu respektieren sowie eine zufriedenstellende Leistung zu erzielen. Es bleibt abzuwarten, wann und wie Apple in den Kampf der Konversationsroboter einsteigt (Werden wir endlich eine erfolgreiche Siri haben?) und auf welchem ​​Niveau wird ihr Modell mit der Konkurrenz verglichen werden?

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein