Im Vorfeld seiner jährlichen entwicklerorientierten Veranstaltung (WWDC) am 10. Juni kündigte Apple neue barrierefreie Funktionen für iPhone und iPad an. Zu den neuen Barrierefreiheitsfunktionen, die später in diesem Jahr erscheinen, gehören Eye Tracking, Musikhaptik, Sprachbefehle und Fahrzeugbewegungshinweise. Apple sagte, diese Funktionen seien das Ergebnis seiner Fortschritte in den Bereichen künstliche Intelligenz und maschinelles Lernen sowie einer Kombination seiner Fortschritte bei Hardware und Software. Nachfolgend finden Sie die Details:
Blickverfolgung
Apple sagte, dass diese Funktion es Benutzern ermöglichen wird, ihr iPhone oder iPad nur mit ihren Augen zu navigieren, was von der Frontkamera verfolgt wird und keine zusätzliche Hardware erfordert. Laut Apple basiert die Eye-Tracking-Funktion auf geräteinternen Funktionen und die für die Funktion dieser Funktion verwendeten Daten werden auf dem Gerät selbst gespeichert und nicht einmal an Apple weitergegeben. Mit dieser Funktion können Benutzer die Elemente einer App erkunden und mithilfe der Verweilsteuerung jedes Element aktivieren, um mit nur den Augen auf physische Tasten, Wischbewegungen und andere Funktionen zuzugreifen.
Musikhaptik
Die Music Haptic-Funktion richtet sich an Menschen mit Hörbehinderung und soll es ihnen ermöglichen, Musik auf dem iPhone durch haptisches Feedback zu erleben, das von der Taptic Engine unterstützt wird. Wenn diese Barrierefreiheitsfunktion aktiviert ist, spielt die Taptic Engine im iPhone Taps, Texturen und verfeinerte Vibrationen zum Audio der Musik ab, sagte Apple. Diese Funktion wird als API für Entwickler verfügbar sein, um Musik in ihren Apps zugänglicher zu machen, und sie funktioniert für mehrere Songs im Apple Music-Katalog.
Gesangs-Shortcuts
Dadurch können iPhone- und iPad-Benutzer Siri mit verbalen Anweisungen beauftragen, Verknüpfungen zu starten und Aktionen auszuführen. Eine weitere verwandte Funktion ist Atypical Speech, die es Benutzern ermöglichen soll, den Umfang der Spracherkennung zu erweitern. Laut Apple erkennt diese Funktion Stimmmuster durch maschinelles Lernen.
Hinweise zur Fahrzeugbewegung
Um das Problem der Reisekrankheit bei Passagieren in fahrenden Fahrzeugen zu lösen, werden animierte Punkte auf dem Bildschirm des iPad und iPhone angezeigt, um die Änderungen in der Fahrzeugbewegung anzuzeigen, die zu einer Reduzierung sensorischer Konflikte führen würden, ohne den Inhalt auf dem Bildschirm zu verändern. Laut Apple nutzt die Funktion Sensoren im Gerät, um zu erkennen, dass sich der Benutzer in einem fahrenden Fahrzeug befindet, und kann über das Kontrollzentrum aktiviert oder deaktiviert werden.
CarPlay
Apple erweitert sein CarPlay außerdem um weitere Eingabehilfen. Dazu gehören Sprachsteuerung, Farbfilter und Tonerkennung. Mit der Sprachsteuerung können Benutzer Apps mit ihrer Stimme steuern. Die Geräuscherkennung ermöglicht es gehörlosen oder schwerhörigen Fahrern oder Passagieren, Warnungen einzuschalten, um über Autohupen und Sirenen informiert zu werden. und Farbfilter erleichtern die Verwendung der Benutzeroberfläche für farbenblinde Benutzer.
Erstveröffentlichung: 16. Mai 2024 | 12:40 Uhr IST