tech

ChatGPT 5 für Siri AI

Apple bekommt ChatGPT 5 für Siri AI

Mac-Montag mit Apple AI. Apple steht 2025 an einem Wendepunkt – mit der Einführung von Apple Intelligence rücken KI-gestützte Features, tiefe ChatGPT-Integration und das neue App-Intent-Framework Siri zum bisher leistungsstärksten Sprachinterface für das Apple-Ökosystem in den Mittelpunkt.

Nach Jahren des Stillstands erlebt Siri eine Generalüberholung. Apple Intelligence fasst generative KI-Funktionen wie Text-Erstellung und Bildgenerierung unter einem Dach zusammen, setzt auf ein auf Datenschutz getrimmtes, mächtiges Large Language Model (LLM) und stattet Siri endlich mit echtem Kontextverständnis aus. Die persönliche Assistenz kann jetzt zum Beispiel nicht nur einzelne Aufgaben erledigen, sondern automatisch zwischen verschiedenen Apps agieren: Bearbeite dieses Foto und verschicke es in einer Nachricht an Max klappt nun in einem einzigen, flüssigen Dialog.

Über das Foundation Models Framework können App-Entwickler direkt auf Apples KI zugreifen und so eigene intelligente Funktionen integrieren. Neben Text verstehen die Modelle inzwischen Bilder, Kontext aus laufenden Apps und erhalten über das App-Intent-System direkten Zugriff auf App-Funktionen. Während Apple sein eigenes LLM weiterentwickelt, profitieren Nutzer durch eine direkte ChatGPT-Integration – aktuell in der neuen Version 5. Das bedeutet für Siri unter anderem eine reaktive, stimmigere Sprachinteraktionen. Die neue Advanced Voice-Funktion ist stark ausgebaut – Antworten klingen natürlicher, sind emotional nuancierter und verstehen Kontext erheblich besser als bisher.

Das versteckte Juwel des Siri-Upgrades ist das App-Intent-System – der Schlüssel für die Voice-first-Zukunft. Dies bedeutet, einmal definierten Intents funktionieren sofort mit Siri, in Spotlight, den Shortcuts und sogar über den Action Button – ohne separaten Code. Nutzer:innen erleben einen echten, kontextgetriebenen Sprachfluss, der Apps fast vollständig über Sprache steuerbar macht – von der App-Installation bis zur personalisierten Nutzung gibt es kaum noch Hürden:

Ein Entwickler deklariert in Swift eine neue Liste in seiner App als App Intent. Siri erkennt automatisch Sätze wie Füge Milch zur Einkaufsliste in SuperShopper hinzu. Die App ist ab sofort Voice-first-fähig, ohne Extra-Setup – ein Gamechanger für Accessibility und schnelle Workflows.
[ Praxisbeispiel auf developer.apple.com ]

< tl;dr />
Endlich verschmilzt die Intelligenz modernster KI mit dem Apple-typischen Fokus auf Kundenschutz und User Experience. Über das App-Intent-Framework wird jede App zum Teil des sprachgesteuerten Apple-Universums – schnell, sicher und erstmals wirklich benutzbar. Wer sehen will, wie Voice-first aussieht, bekommt auf Apple-Geräten ab Herbst 2025 einen klaren Vorgeschmack auf die Zukunft.

, , , , ,

Kommentare sind geschlossen.

Powered by WordPress. Designed by Woo Themes

%d Bloggern gefällt das: