Apples Siri war der erste virtuelle Assistent auf unseren Smartphones, aber es dauerte nur etwa fünf Jahre, bis neuere Konkurrenten wie der google Assistant – der freier im Internet nach Antworten suchen konnte – ihn etwas klobig erscheinen ließen. Jetzt, fast 13 Jahre nach der Einführung im Jahr 2011, wirkt Siri geradezu antiquiert.

Schuld daran ist das Aufkommen der generativen KI. Siri war schon immer eine Art KI-Assistent – ​​maschinelles Lernen, eine Untergruppe der KI, verleiht ihr die Fähigkeit, gesprochene Befehle und Anfragen zu verstehen –, aber die Welt erwartet mittlerweile viel mehr von KI, insbesondere seit OpenAIs bahnbrechender Veröffentlichung des Chatbots chatgpt Ende 2022.

Apples Erzrivale Google, der mit Gemini über eines der führenden großen Sprachmodelle verfügt, integriert eine Vielzahl von KI-Funktionen in sein Android-Betriebssystem – allen voran den Gemini-Chatbot selbst, der den Assistant ablöst. Und selbst auf Apples iOS greifen viele Leute mittlerweile auf Apps für Chatbots von Drittanbietern wie ChatGPT zurück. Siri ist zunehmend außen vor.

Das könnte sich am Montag ändern, wenn apple die wahrscheinlich bedeutendste Worldwide Developers Conference (WWDC) seit vielen Jahren abhält. Die Investoren fordern von dem Unternehmen, seine Begeisterung für KI lautstarker zu bekunden, und wenn es nächste Woche iOS 18 vorstellt, muss Apple zeigen, dass es das Zeug dazu hat, im Chatbot-Wettbewerb zumindest mitzuhalten. Der naheliegende Weg dazu wäre, eine intelligentere Siri vorzustellen – eine, die immer noch als die vertraute Sprachschnittstelle fungiert, die iphone-Besitzer seit langem verwenden, um auf die Funktionen des Geräts zuzugreifen, die aber auch viel, viel mehr verstehen und tun kann.

Allerdings gibt es da ein Problem: Apples fortschrittlichstes, noch in der Entwicklung befindliches Large Language Model (LLM), das intern angeblich Ajax genannt wird, ist noch nicht ausgereift.

Siehe auch  Wie erstelle ich ein Datum im Excel-Format aus ChatGPT?

Um im Spiel zu bleiben, hat das Unternehmen von Tim Cook Berichten zufolge einen Vertrag mit Sam Altmans OpenAI abgeschlossen, um ChatGPT in iOS zu integrieren. Bloomberg berichtet dass Apple noch immer mit Google über die Verwendung von Gemini verhandelt – es kann sein, dass iPhone-Benutzer am Ende eine ganze Palette von Chatbots erhalten, die die Antworten auf ihre Fragen liefern –, aber vorerst sieht es so aus, als würde Cook am Montag eine Mischung aus ChatGPT und Apples eigenen KI-Bemühungen anpreisen.

„Apple holt mit der LLM-Technologie auf und es ist wahrscheinlich, dass die Konversationsfähigkeiten und – noch wichtiger – die Kosten ihrer KI noch nicht mit dem mithalten können, was sie von OpenAI bekommen können“, sagte Andrew Cornwall, leitender Analyst bei Forrester.

Als Phil Schiller von Apple sie 2011 vorstellte, waren die Fähigkeiten von Siri schon beeindruckend, doch mittlerweile hinken sie generativen KI-Produkten wie ChatGPT hinterher.

Kevork Djansezian – Getty Images

Die Grenzen der On-Device-KI

Da der OpenAI-Deal nun offenbar feststeht, besteht das größte Mysterium in Apples kurzfristiger KI-Strategie darin, wo die Grenze zwischen den Fähigkeiten des Cloud-basierten ChatGPT und denen, die es lokal auf dem iPhone oder iPad selbst anbieten kann, gezogen wird. Berichte vorschlagen dass ein Algorithmus bestimmt, welche Art von KI am besten geeignet ist, abhängig von der Komplexität der Anfrage.

Siris On-Device-Charakter ist Teil von Apples großem Datenschutzargument – ​​dass Apple, anders als insbesondere Google, nicht daran interessiert ist, die Daten seiner Nutzer auszunutzen. Tatsächlich ist diese Zurückhaltung, zu viel über die Interessen des Nutzers zu erfahren und das, was er tut, geheim zu halten, Ist Die Tatsache, dass Siri nicht ohne Hilfe von Dritten gelernt werden kann, wird allgemein als Hauptgrund dafür angesehen, warum die Fähigkeiten von Siri nach wie vor so begrenzt sind.

Siehe auch  Die 10 wichtigsten Aufforderungen zur Maximierung von ChatGPT (schneller bessere Ergebnisse erzielen)

Es ist durchaus möglich, eine Art Mittelweg zu finden. Seit 2017 verfügen Apples Mobilgeräte über eine Neural Processing Unit (NPU) – eine spezielle Komponente zur Bewältigung von KI-Aufgaben –, die das Unternehmen Neural Engine nennt. Dadurch konnte Apple Dinge wie verbesserte Bild- und Tonerkennung, Sprachübersetzung und verschiedene Gesundheitsfunktionen anbieten. Die neuesten Versionen der Neural Engine, angeblich die Version im iphone 15 Pro des letzten Jahres sowie alles, was in den diesjährigen iPhones steckt, werden Apples geräteinterne generative KI ermöglichen.

Aber eine winzige NPU wird nicht in der Lage sein, mit der enormen Leistung der Rechenzentren mitzuhalten, die OpenAI betreiben, wodurch ChatGPT ein so unheimliches Simulakrum menschlicher Intelligenz liefern kann. Apple wird also eine Gratwanderung zwischen der Privatsphäre, die seine Nutzer erwarten, und den futuristischen Möglichkeiten bewältigen müssen, die ein Cloud-begeisterter KI-Sektor verspricht.

„Apple wird wahrscheinlich ankündigen, dass ein Großteil der neuen Siri-Verarbeitung auf dem Gerät erfolgt“, sagte Cornwall, der andeutete, dass der gemeldete Apple-OpenAI-Deal „eine Überbrückungsmaßnahme wäre, um Apple-Entwicklern Zeit zu geben, ein LLM zu bauen, das größtenteils auf dem Gerät und innerhalb des Ökosystems von Apple laufen kann.“ Was Anfragen angeht, die die überlegene Technologie von OpenAI erfordern, wird Apple diese wahrscheinlich über seine eigenen Server leiten, damit alle persönlichen Daten anonymisiert werden können, fügte er hinzu – eine Taktik, die nicht nur Apples Marke, bei der Datenschutz an erster Stelle steht, entsprechen würde, sondern die es Apple auch „ermöglichen würde, den Anbieter zu wechseln, ohne seine Benutzer zu stören.“

Laut BloombergDie überarbeitete Siri, die Apple am Montag vorstellen wird, wird in der Lage sein, die Funktionen innerhalb von Apps im Namen des Benutzers zu steuern, Dokumente zu öffnen, Weblinks per E-Mail zu versenden und Online-Artikel zusammenzufassen. Aber selbst wenn einige Funktionen die Technologie von OpenAI nutzen, wird Apple sie wahrscheinlich als verbesserte „Apple-Funktionen“ und nicht als „Frontend für OpenAI“ präsentieren, sagte Cornwall.

Siehe auch  Als Erinnerung an die Grenzen der KI besteht ChatGPT die Gastro-Prüfung nicht

Abgesehen vom Firmenstolz gibt es gute Gründe, warum Apple seine Verbindung zu OpenAI nicht in den Vordergrund stellen möchte. Altman ist zu einer höchst umstrittenen Figur geworden, die angeblich den alten Vorstand von OpenAI über die Pläne des Unternehmens im Dunkeln ließ, damit sie Schritte wie die Veröffentlichung von ChatGPT im Namen der Sicherheit nicht verzögerten – seine mangelnde Offenheit gegenüber seinen Vorgesetzten führte Ende letzten Jahres zu seinem kurzzeitigen Sturz. Obwohl er diesen Streit gewann, warnen ehemalige OpenAI-Mitarbeiter weiterhin vor einem unzureichenden Fokus auf Sicherheit.

Selbst wenn Apple OpenAI auf Distanz hält, besteht auch das Risiko, dass ChatGPT dazu neigt, bei der Beantwortung von Fragen selbstbewusst Unsinn zu erfinden – ein Problem, das als „Halluzination“ bezeichnet wird und das bis zu einem gewissen Grad von allen LLMs geteilt wird, wie die gefährlich falschen Antworten zeigen, die Googles kürzlich mit KI ausgestattete Suche gegeben hat. Benutzer werden Siris neu entdeckte Bereitschaft, Antworten zu geben, möglicherweise nicht begrüßen, wenn diese Antworten falsch sind.

Ob die Enthüllung am Montag ausreicht, um Apple-Nutzer und die Wall Street davon zu überzeugen, dass das iPhone weiterhin ein hochmodernes und zuverlässiges Gerät ist, wird sich in den praktischen Erfahrungen zeigen, die folgen, wenn iOS 18 im Juli für öffentliche Tests verfügbar wird, bevor es etwa im September vollständig veröffentlicht wird.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein