Apple hat neue Betriebssysteme für das iPhone und andere Produkte vorgestellt. Im Mittelpunkt steht dabei unter anderem ein deutlich verändertes Design: Symbole und Menüs sehen in den kommenden Versionen transparenter aus. Auf seiner jährlichen Entwicklerkonferenz WWDC kündigt der Konzern Anfang Juni traditionell Updates und neue Produkte an.
Vergangenes Jahr war das Thema dort vor allem künstliche Intelligenz. Unter dem Namen Apple Intelligence hatte Apple eine Reihe Funktionen vorgestellt, die iPhones, iPads und Macs schlauer, persönlicher, lustiger machen sollten.
Ein Jahr später steht Apple unter Druck: Die vollmundig angekündigten Features kamen teils später als versprochen – sogar zu spät zum Start des neuen iPhones –, teils auch überhaupt nicht. Im März musste Apple bekannt geben, dass die Verbesserung des Sprachassistenten Siri, eine der wesentlichen Ankündigungen vom vergangenen Juni, erst “im kommenden Jahr” folgen werde. Unbestätigten Berichten nach besetzte es bis zur Führungsetage mehrere Manager um, um endlich beim Thema KI aufzuholen.
Wie Apple mit dieser Situation umgeht, ist nun zumindest unausgesprochen das Kernthema der WWDC 2025. Ignorieren kann das Unternehmen künstliche Intelligenz nicht – zu genau schauen Investoren auf jedes gesagte Wort –, aber wieder mehr versprechen, als es halten kann, kann sich Apple auch nicht leisten.
Bei der Keynote im kalifornischen Cupertino am Montag sprach der Softwarechef des Unternehmens, Craig Federighi, zu Beginn kurz über Apple Intelligence. Er gab zu, dass die angekündigten Verbesserungen für Siri länger gedauert haben als gedacht. Informationen dazu kündigte er für später im Jahr an.
Trotz der Schwierigkeiten treibt Apple seine KI-Pläne voran. Zum Beispiel haben die Entwickler von Apps die Möglichkeit, Apples KI-Funktionen in ihre Anwendungen einzubauen. Das bezieht sich etwa auf die Möglichkeit, Texte von KI formulieren oder zusammenfassen zu lassen.
Im Verlauf der Präsentation wurde Apple Intelligence immer wieder angesprochen, denn an vielen Stellen innerhalb von Apples Ökosystem soll es neue KI-Funktionen geben. Darunter sind Spielereien wie die Möglichkeit, zwei verschiedene Emojis miteinander kombinieren zu können, aber durchaus auch Features, die für viele Menschen im Alltag nützlich sein können, wenn sie wie versprochen funktionieren. Etwa die Möglichkeit, Telefongespräche in Echtzeit übersetzen zu können oder die KI nach Inhalten auf dem Bildschirm zu fragen.
Eine große oder gar überraschende KI-Ankündigung gab es jedoch nicht. Wie erwartet setzte Apple einen anderen Fokus, möglicherweise auch, um vom KI-Thema abzulenken. Im Zentrum der Präsentation stand das neue Design der Softwareoberflächen.
Flüssiges Glas für alle Apple-Geräte
Die vielleicht größte Ankündigung betrifft eigentlich nur Zahlen. Bisher zählte Apple seine Betriebssysteme durch. iOS befindet sich aktuell bei Version 18, macOS bei 15, watchOS 11, visionOS 2, und so weiter. Ab dem Herbst benennt Apple seine Systeme einheitlich nach dem folgenden Jahr. Das bedeutet, ab Herbst bekommen alle Systeme eine 26: iOS 26, iPadOS 26, macOS 26, tvOS 26, watchOS 26 und visionOS 26. Man könnte sagen, Apple folgt nun dem Fifa-Prinzip – die berühmte Fußballspielreihe machte vor, ihr neues Spiel immer nach dem kommenden Jahr zu benennen, um möglichst frisch zu erscheinen. Praktisch auch, dass Apples fiskalisches Jahr immer im Oktober beginnt und die Systemupdates üblicherweise im Herbst erscheinen.
Die neue, einheitliche Benennung geht auch mit einem neuen, einheitlichen Design einher. Apple spricht von “Liquid Glass”, flüssigem Glas. Das Design wirkt transparenter, viele Icons und Menüs sehen in den Demos wie Glas aus. Damit wird das Softwaredesign der ansonsten eher mäßig erfolgreichen Mixed-Reality-Brille Vision Pro nun zum Standard fürs Apple-Ökosystem. Im Vorhinein war vermutet worden, dass App-Symbole künftig erstmals seit Einführung des iPhones rund statt eckig werden – das bewahrheitete sich aber nicht.
In der Präsentation zeigte Apple, wie Menüs und Knöpfe künftig transparent scheinen und sich je nach Kontext anpassen. Das geht mit einigen Veränderungen bei den vorinstallierten Apps einher. So vereinfacht Apple beispielsweise die Kamera-App, bei der künftig nur durch Wischen zwischen den wichtigsten Funktionen gewechselt werden kann. In der Fotos-App soll jedes normale, zweidimensionale Foto einen 3D-Effekt bekommen, was in der Präsentation ähnlich zu Wackelbildern aussah.
Das iPhone bleibt in der Warteschlange
Apple kündigte darüber hinaus Updates für viele bekannte iPhone-Apps an. Die Telefon-Funktion etwa wird umgestaltet: Statt favorisierte Kontakte, vergangene Anrufe und Nachrichten auf dem Anrufbeantworter auf einzelne Menüs zu unterteilen, wird künftig alles in einer Ansicht zu finden sein. Die App soll außerdem Anrufe von unbekannten Nummern überwachen können und diese erst zum Nutzer durchstellen, wenn ein Anrufer Name und Grund des Anrufs genannt hat. Außerdem soll das iPhone künftig in Warteschlangen bleiben, ohne dass man am Telefon warten muss. Sobald dann jemand im Callcenter drangeht, klingelt das iPhone wieder.
Auch die Nachrichten-App – in den USA ähnlich beliebt wie WhatsApp in Deutschland – filtert künftig Nachrichten von unbekannten Nummern. Außerdem kann der Hintergrund mit KI-Prompts individualisiert werden. In Gruppenchats lassen sich (wie in WhatsApp) Umfragen erstellen, und es gibt eine neue Anzeige, die zeigt, ob ein Gruppenmitglied tippt.
Es gibt auch neue Übersetzungsfunktionen. So sollen Nachrichten schriftlich und Anrufe und FaceTime-Calls auch hörbar live übersetzt werden – auch wenn der Anrufer kein iPhone nutzt. Das soll datenschutzfreundlich allein auf dem Gerät funktionieren. Ein ähnliches Feature führte Samsung bereits vergangenes Jahr bei seinen Galaxy-Handys ein.
Ebenfalls von Android bekannt ist die Möglichkeit, im Internet nach Bildschirminhalten zu suchen (Google nennt das “Circle to Search”). Künftig kann auf dem iPhone ein Screenshot direkt im System an die Google Bildersuche weitergegeben werden, um etwa herauszufinden, welche Klamotten jemand auf einem Social-Media-Foto trägt. Im gleichen Menü kann auch ChatGPT zu einem Bild befragt werden, in der Präsentation wurde etwa gefragt, in welchen Songs ein bestimmtes Instrument vorkommt. Auch können Daten aus Screenshots direkt in den Kalender eingetragen werden.
Ein kleines Update bekommen auch die Genmoji genannten personalisierten Emojis, die Nutzer mit Apple Intelligence erstellen können. Künftig lassen sich auch zwei existierende Emojis (sagen wir: Facepalm- und Schrei-Emoji) miteinander kombinieren.
Auch die Musik-App erhält Übersetzungen und außerdem Aussprachehinweise für Songtexte. Weiterhin kann die App künftig wie ein DJ zwei Songs im Beat aneinander anpassen, sodass der Übergang flüssiger klingt.
Die Karten-App soll sich besuchte Orte und Routen merken und bei Staus und ähnlichen Verzögerungen rechtzeitig warnen.
Gaming hat bei Apple trotz aller Bemühungen einen schweren Stand. Apple wird aber nicht müde, sein Engagement in diesem Bereich zu betonen. Künftig soll die alte, 2010 gestartete Game-Center-App durch eine App namens Games ersetzt werden. Hier soll man neue Spiele finden, seine Spiele starten und sich mit anderen Spielerinnen austauschen können.
Die Suchleiste auf dem Mac wird zur Zentrale
Auch das Betriebssystem für Apples Laptops und Desktop-Computer bekommt die 26 im Namen. Darüber hinaus bleibt es aber dabei, dass die aktuelle macOS-Version zusätzlich noch nach einem Ort in Kalifornien benannt ist, macOS 26 wird Tahoe heißen. Es ist benannt nach dem Lake Tahoe, einer der Touristenattraktionen Kaliforniens (und Spielort von Bonanza).
Der See ist besonders für das umliegende Bergpanorama und die Klarheit seines Wassers bekannt – was zur “Liquid Glass”-Ankündigung passt. Auch in macOS werden manche Flächen transparent, etwa das Dock am unteren Bildschirmrand und die Menüleiste am oberen.
Für viele Mac-Nutzer interessant dürften die Änderungen in der Suchfunktion Spotlight sein. Dank KI sollen Nutzer relevante Inhalte auf dem eigenen Computer einfacher finden. Außerdem wird es möglich, direkt aus der Suchleiste bestimmte Aktionen auszuführen, etwa eine Nachricht zu verschicken oder einen Terminkalendereintrag hinzuzufügen. Was die Suchleiste kann, ist auch abhängig vom Inhalt, der im Moment der Suche auf dem Bildschirm zu sehen ist. Die Suche kann sich also beispielsweise auf ein gerade geöffnetes Dokument beziehen. Bemerkenswert: So sollen auch Aktionen in Apps ausgelöst werden können, also etwa “Mach das Bild schwarz-weiß”, um einen entsprechenden Filter in Photoshop zu aktivieren.
Die überarbeitete Telefonie-App (siehe oben) soll auch auf den Mac kommen. Außerdem kündigte Apple Neuerungen für die Funktion Shortcuts auf dem Mac an, mit der sich Abläufe automatisieren lassen. In einem Beispiel zeigte Federighi, dass man etwa jede Woche die Notizen, die man zu einer Veranstaltung gemacht hat, automatisch von Apples eigener KI mit der Aufzeichnung des Termins abgleichen lassen kann.
Ihr iPad wird produktiv, also jetzt wirklich
Es wirkt wie ein Running Gag der Apple-Präsentationen: Das iPad soll endlich geeigneter zum Arbeiten werden. Das verspricht der Konzern nicht zum ersten Mal. Auch mit den diesjährigen Neuerungen wird es immer noch nicht zum Touchscreen-Mac, aber womöglich etwas nützlicher, denn Apple versucht die Achillesverse des Tablets, das Multitasking, anzupassen.
Mehrere Apps zu benutzen, ist auf dem iPad bisher keine Freude, das soll iPadOS 26 lösen. “Das, was unsere Nutzer verlangt haben”, versprach Softwarechef Federighi in der Präsentation. Künftig soll man jede App von der standardmäßigen Vollbildansicht zu einem Fenster machen können. Es können beliebig viele Fenster über- und nebeneinander platziert werden. Das sah in der Präsentation tatsächlich ähnlich zu macOS aus.
Dazu hat das iPad wie der Mac künftig oben eine Menüleiste, mit der die wichtigsten Befehle erreicht werden können. Das soll sowohl im Touchmodus als auch mit einer angeschlossenen Tastatur funktionieren. Für präzisere Kontrolle gibt es einen neuen Mauszeiger, der nun nicht mehr wie ein großer Punkt aussieht, sondern wie ein Pfeil – eben wie ein Mauszeiger. Das neue Fenstermanagement soll auf alle iPads kommen, die iPadOS 26 unterstützen, also auch das günstige iPad und das kleine iPad Mini. Es soll auch mit angeschlossenem Bildschirm funktionieren.
Zusätzlich soll es auch eine der bekanntesten Apps für den Mac nach vielen Jahren aufs iPad schaffen: Vorschau, das vorinstallierte Programm zur Bild- und insbesondere PDF-Ansicht. Bisher musste man PDF-Bearbeitung auf iPad und iPhones eher umständlich in der Dateien-App und mit Drittanbietersoftware lösen. Künftig soll man mit der vorinstallierten App schneller und einfacher Formulare ausfüllen oder Notizen in Dokumenten eintragen können. Für die Produktivität ebenfalls nützlich: Das iPad unterstützt künftig Hintergrundaktivitäten, so kann etwa ein Video weiter exportiert werden, obwohl man die App verlässt.
Wer Podcasts mit seinem iPad aufnimmt, kann künftig parallel zu einem FaceTime-Call das Audio (angeblich in “Studioqualität”) aufnehmen und später einfach mit dem Gesprächspartner teilen. Mit einem Druck auf die eigenen AirPods lassen sich Aufnahmen beenden.
Die Apple Watch wird zum persönlichen Trainer
Die größte Änderung beim Apple-Watch-Betriebssystem watchOS 26 heißt “Workout Buddy”: Die Funktion analysiert die Fitnessdaten ihrer Nutzer und generiert daraus mit KI eine Art Motivationscoach, der sich auf aktuelle Leistungen, Ziele oder individuelle Verbesserungen beziehen kann. Wenn Apple-Watch-Träger etwa ein Lauftraining starten, sagt die KI, wie viel man in dieser Woche bereits gelaufen ist oder wie viel schneller man in den vergangenen Monaten geworden ist. Der “Workout Buddy” erscheint allerdings zunächst nur auf Englisch, zu anderen Sprachen sagte Apple in der Präsentation nichts.
Die Training-App auf der Apple Watch wird ebenfalls angepasst. Sie legt nun einen größeren Fokus darauf, Trainings anpassen zu können. Künftig interagiert sie mit Musik und Podcasts, sodass beispielsweise jedes Mal beim Start eines Lauftrainings der Lieblingspodcast startet. Auch die Apple Watch unterstützt mit dem Update live übersetzte Nachrichten. Außerdem kommt die Notizen-App nach Jahren auf die Uhr. Eine kleine, aber nützliche Änderung: Künftig lassen sich Mitteilungen auf der Apple Watch mit einer Drehung des Handgelenks ausblenden.
Die Vision Pro gibt’s immer noch
Vor zwei Jahren auf der WWDC angekündigt, fristet die Brille Vision Pro bisher eher ein Nischendasein. Für ihr neues Betriebssystem visionOS 26 kündigte Apple nun einige Veränderungen an. So sollen bald auch mit der Brille Widgets wie auf dem iPhone genutzt werden. Apple zeigte in der Präsentation etwa, wie Nutzer digitale Versionen einer Uhr oder eines Kalenders in ihrem Wohnzimmer positionierten. Auch Bilder lassen sich so als eine Art digitales Fenster einbinden. Wie beim iPhone soll die Vision Pro aus normalen Bildern räumliche Bilder machen können. Besonders stark sollen die Personas genannten 3D-Avatare verbessert werden. In der Präsentation wirkten sie wesentlich lebensnäher als die aktuelle Variante.
Außerdem versucht Apple, die Vision Pro sozialer zu machen. Künftig soll man mehrere Brillen synchronisieren können, um gemeinsam Filme schauen zu können. Dass allzu viele Haushalte mehrere, 3.500 Euro teure Brillen kaufen, scheint eher unwahrscheinlich. Für Unternehmen könnte das aber ein nützliches Feature sein.
Für Privatpersonen interessanter: Künftig soll die Brille die Controller von Sonys PlayStation VR 2 unterstützen. Das zeigt eine gewisse Umkehr: Während der Rest der Branche sich auf Controller dieser Art geeinigt hatte, führte Apple vergangenes Jahr die Vision Pro als Brille ein, die nur per Handgesten gesteuert werden sollte. Es dürfte einer der Gründe sein, warum Spiele auf der Vision Pro nie Fuß fassen konnten – es fehlte schlicht an Knöpfen. Das soll sich nun ändern. Auch einen Stift von Logitech, mit dem man im digitalen Raum zeichnen kann, unterstützt die Brille bald.