
Im vergangenen Juni stellte Apple seine neuste KI-Technologie „Apple Intelligence“ vor.
Apple AI soll neben Rechtschreibfunktionen, auch neue Bildbearbeitungstools und eine verbesserte Siri mit sich bringen.
Bisher hat Apple verkündet, dass die KI in Deutschland ab April verfügbar sein soll – also theoretisch ab nächster Woche. Doch wann genau ihr Apple Intelligence auf eurem iPhone benutzen könnt, will das Unternehmen noch nicht sagen.
Apple hat in den letzten Jahren verstärkt in künstliche Intelligenz und maschinelles Lernen investiert. Sowohl in Form von Produkten und Dienstleistungen, als auch in der Entwicklung eigener KI-Technologien. Im Juni 2024 stellte Apple in einer Pressemitteilung „Apple Intelligence“ vor.
Dabei handelt es sich um eine von Apple entwickelte künstliche Intelligenz, die Nutzerinnen und Nutzern ein optimiertes Erlebnis schaffen soll. Unter anderem bei Siri, Bildbearbeitung, dem Zusammenfassen von Texten und Schreibaufgaben.
Um auf die neue KI zugreifen zu können, benötigt ihr mindestens ein iPhone 15 Pro oder ein neueres Modell. iPads und Macs mit M1 Chip oder neuer werden Apple AI ebenfalls nutzen können. Bereits seit Oktober 2024 ist die KI in den USA auf dem Markt. Doch ab wann können deutsche iPhone-Besitzer die KI einsetzen?
Ab wann gibt es Apple Intelligence in Deutschland?
In der neuen Werbung für das iPhone 16e heißt es: „Apple Intelligence ist derzeit auf Englisch (USA) und ab Anfang April auf Deutsch verfügbar.“ Theoretisch müsst ihr also nur noch wenige Tage warten.
Allerdings gibt das Unternehmen bisher keine Auskunft über den genauen Termin. Auf eine Presseanfrage von Business Insider antwortet das Unternehmen, man könne „kein genaueres Datum als April“ nennen.
Immerhin: Das iOS 18.4 Update, mit dem Apple Intelligence auf die Smartphones gebracht werden soll, ist mittlerweile fertig. Einige Beta-Nutzer können die KI also bereits testen, bevor die Funktion dann offiziell veröffentlicht wird und schließlich für alle Endkunden zur Verfügung steht.
Das soll die neue Apple AI können
Apple hat viele neue Funktionen entwickelt, die den Alltag erleichtern sollen. Neben verschiedenen Tools zur Textverbesserung, welche automatisch Grammatik und Rechtschreibung korrigieren, Sätze umschreiben und Texte zusammenfassen können, priorisiert Apple AI zudem Mitteilungen und E-Mails. Dabei sollen automatisch die wichtigsten Informationen hervorgehoben und weniger relevante Inhalte zusammenfasst werden.
Zudem wird es eine Echtzeit-Transkription für Telefonate und Audioaufnahmen geben. Während eines Gesprächs werden automatisch Untertitel angezeigt, die den Inhalt des Gesprächs zusammenfassen.
Mithilfe von Apple AI sollen zudem personalisierte Bilder erstellen werden können. Die KI kann Fotos optimieren, bestimmte Objekte erkennen und neue Inhalte basierend auf euren Stil und eure Vorlieben generieren.
Auch Siri soll einen neuen Schliff bekommen. Sie soll intelligenter und kontextbewusster als je zuvor werden. Die KI verbessert die Sprachverarbeitung, sodass Siri alltägliche Gespräche besser versteht und auf komplexere Anfragen präziser antwortet.
Mit dem neuen iOS 18.4-Update bekommt ihr auch einige neue Emojis, beispielsweise einen Fingerabdruck, eine Harfe, Wurzelgemüse, ein blattloser Baum und ein Gesicht mit Tränensäcken. Wer Apple Intelligence auf seinem Gerät aktiviert hat, kann bald auch seine eigenen „Genmoji“ erstellen – also personalisierte Emojis, die anhand eurer Beschreibung erstellt werden.