Apple testet gerne neue Funktionen zuerst in den Bedienungshilfen. Der Mauszeiger, der erstmals in diesen Bedienungshilfen hinzugefügt wurde, schaffte es später, in iPadOS umgesetzt zu werden. Deswegen ist es immer wieder äusserst interessant, einen Blick in diese Abteilung von iOS und iPadOS zu werfen: Einstellungen → Bedienungshilfen.
Bevor heute Abend Version 18 der iPhone- und iPad-Software gezeigt wird, hat Apple einen Einblick in die neuen Bedienungshilfen gegeben. Diese Funktionen werden diesen Herbst veröffentlicht.
Ein Höhepunkt der vorgestellten Funktionen ist sicherlich die Bedienung von iPhone und iPad mithilfe der Augen.
Zudem wird es mit „Vocal Shortcuts“ möglich sein, Aufgaben durch ein persönliches Geräusch auslösen zu lassen. Musik wird mit der Taptic Engine spürbar zu erleben sein. Wem im fahrenden Auto, Bus oder Zug übel wird, wenn er auf das iPhone schaut, dem wird mit einer neuen Bedienungshilfe geholfen, diese Reisekrankheitssymptome zu überwinden.
«Durch das maschinelle Lernen auf dem Gerät bleiben alle Daten, die zum Einrichten und Steuern des Features verwendet werden, sicher auf dem Gerät und werden nicht mit Apple geteilt. (…) Eye Tracking funktioniert mit iPadOS und iOS Apps und erfordert keine zusätzliche Hardware oder Zubehör.»
Der kontinuierliche Ausbau der Neural Engine in den leistungsstarken Apple-Prozessoren ermöglicht es, solche Funktionen unabhängig von neuer Hardware als Update anbieten zu können. Ich bin mir sehr sicher, dass die von Apple gezeigten Bedienungshilfen nicht nur für die neuesten Apple-Geräte zur Verfügung stehen werden. Es ist doch äusserst erfreulich, dass dadurch noch mehr Menschen Zugang zum iPhone und iPad erhalten.