apple hat im Vorfeld des Global Accessibility Awareness Day eine Reihe von Barrierefreiheitsfunktionen für das iphone angekündigt, die Teil von iOS 18 sein werden. Für Apple wird es zur Tradition, im Mai im Vorfeld der WWDC-Keynote im Juni, bei der Apple diese Betriebssysteme vorstellen wird, neue Barrierefreiheitsfunktionen für seine Betriebssysteme der nächsten Generation detailliert vorzustellen.
Unter den verschiedenen aufregenden Ergänzungen zur wachsenden Liste von Eingabehilfen für das iPhone gibt es ein neues Vocal Shortcuts-Tool, das ich interessant finde. Wie der Name schon sagt, können Sie Aktionen Sprachbefehle zuweisen. Und ich denke, Vocal Shortcuts könnten sehr nützlich sein, um KI-Apps auf dem Mobilteil auszulösen.
Insbesondere denke ich, dass Vocal Shortcuts mir dabei helfen könnten, chatgpt per Spracheingabe zu starten. Von da an wäre ich nur noch einen Tastendruck davon entfernt, mit GPT-4o, dem brandneuen Modell von OpenAI, zu sprechen.
GPT-4o ist mit Sicherheit eine der besten KI-Funktionen, die diese Woche eingeführt werden. Das mag seltsam klingen, wenn man bedenkt, dass google auf der I/O 2024 eine große Keynote-Veranstaltung zum Thema KI abgehalten hat. Google konnte nicht aufhören, darüber zu reden, Gemini in seine Produkte zu integrieren. Künstliche Intelligenz war ein so großes Thema, dass Android wie ein nachträglicher Einfall schien.
Trotzdem hinterließen die Live-ChatGPT-Demos, die OpenAI einen Tag vor der I/O 2024 anbot, großen Eindruck. GPT-4o kann Text-, Sprach-, Bild- und Videoeingaben gleichzeitig verarbeiten. Sie können es unterbrechen, wenn Sie mit ihm chatten, und es fühlt sich an, als würden Sie mit einer Person sprechen.
Das ist ein großes Upgrade für ChatGPT, und Sie können GPT-4o Multimodel jetzt auf dem iPhone über die ChatGPT-App verwenden. Sie müssen nicht auf iOS 18 warten.
Nachdem ich die beiden KI-Präsentationen gesehen hatte, sagte ich, dass Apple keine echten iPhone-KI-Erlebnisse in iOS 18 liefern kann, ohne ChatGPT oder Gemini in das Betriebssystem einzubinden. Angesichts des aktuellen Status von Siri würde ich lieber GPT-4o als Apples Assistenten aufrufen. Während Siri-Verbesserungen wahrscheinlich Teil der Einführung von iOS 18 sind, glaube ich nicht, dass der Assistent Chatbot-Fähigkeiten erhalten wird.
Wie passen Vocal Shortcuts in all das? Idealerweise wird ChatGPT in iOS 18 integriert, sodass ich es problemlos auf meinem iPhone auslösen kann. Angenommen, Apple arbeitet nicht mit OpenAI oder Google zusammen, könnten mir Vocal Shortcuts dabei helfen, die gewünschte Funktionalität zu erhalten.
So funktioniert Apple beschreibt Stimmsuche:
Mit Vocal Shortcuts können iPhone- und iPad-Benutzer benutzerdefinierte Äußerungen zuweisen, die Siri verstehen kann, um Shortcuts zu starten und komplexe Aufgaben zu erledigen.
Apple bietet ein Beispiel dafür, wie die Funktion funktionieren wird. Sie trainieren das iPhone, einen bestimmten Satz zu erkennen, indem Sie ihn dreimal sagen. Anschließend weisen Sie diese Verknüpfung der komplexen Aufgabe zu, die sie ausführen soll.
Ich habe eine Sprachverknüpfung eingerichtet, um die ChatGPT-App zu öffnen. Wenn möglich, würde ich es so einrichten, dass die Sprachfähigkeit von GPT-4o ausgelöst wird. Auf diese Weise wäre ich nur einen Sprachbefehl davon entfernt, ChatGPT-Fragen zu stellen.
Ich könnte genauso gut Vocal Shortcuts für Gemini und jeden anderen KI-Assistenten erstellen, der möglicherweise als iPhone-App verfügbar ist. Auf diese Weise wäre ich nur einen Sprachbefehl davon entfernt, den KI-Assistenten aufzurufen, den ich brauche.
Ich spekuliere immer noch, da die Funktion „Vocal Shortcuts“ technisch nicht verfügbar ist. Ich muss auf die erste Betaversion von iOS 18 warten, um es auszuprobieren.
Denken Sie daran, dass Sie Siri anweisen können, sofort jede iPhone-App zu starten. Das ist jedoch nicht das, was ich will. Ich hoffe, dass Vocal Shortcuts mir eine detailliertere Kontrolle über die App-Funktionen geben, die ich per Sprache starten kann.
Abschließend möchte ich anmerken, dass ich später in diesem Jahr ein Upgrade auf ein iPhone 16-Modell plane. Ich erhalte Zugriff auf die Aktionsschaltfläche, die auch als App-Verknüpfung verwendet werden kann. Wenn Vocal Shortcuts versagen, könnte ich ChatGPT immer noch mit dieser Schaltfläche koppeln.