Apple annonce toute une série de mises à jour d’accessibilité pour sa gamme de produits, conçues pour faciliter la lecture de textes, le suivi de sous-titres en temps réel et la réduction du mal des transports.
Les mises à jour d’accessibilité d’Apple arriveront sur l’iPhone, l’iPad, le Mac, l’Apple Watch et l’Apple Vision Pro.
Voici ce qui sera bientôt disponible sur ces appareils.
Accessibilité des étiquettes nutritionnelles
Les étiquettes nutritionnelles d’accessibilité indiquent quels jeux et applications de l’App Store disposent des fonctions prises en charge dont vous avez besoin. Apple
Dans l’App Store, une nouvelle section dans les pages produits des applications et des jeux mettra en évidence les fonctionnalités d’accessibilité, afin que vous puissiez savoir immédiatement si les fonctionnalités dont vous avez besoin sont incluses avant de les télécharger.
Ces fonctions comprennent notamment VoiceOver, la commande vocale, des textes plus grands, un contraste suffisant, des mouvements réduits et des sous-titres.
Les étiquettes nutritionnelles d’accessibilité seront disponibles dans le monde entier sur l’App Store. Les développeurs auront accès à des conseils sur les critères auxquels les applications doivent répondre avant d’afficher des informations sur l’accessibilité sur les pages de leurs produits.
Loupe sur Mac
La loupe est un outil qui permet aux personnes aveugles ou malvoyantes de zoomer, de lire du texte et de détecter des objets autour d’elles sur l’iPhone ou l’iPad. Désormais, cette fonctionnalité est également disponible sur Mac.
Magnifier sur Mac se connecte à une caméra, comme celle de votre iPhone, pour vous permettre de zoomer sur ce qui vous entoure, comme un écran ou un tableau blanc.
Vous pouvez utiliser Continuity Camera sur l’iPhone pour le relier à votre Mac, ou opter pour une connexion USB à un appareil photo. Cette fonctionnalité permet de lire des documents avec Desk View. Vous pouvez régler l’écran, notamment la luminosité, le contraste et les filtres de couleur, pour faciliter la lecture du texte et des images.
Lecteur d’accessibilité
Ce nouveau mode de lecture sur iPhone, iPad, Mac et Vision Pro vise à faciliter la lecture des textes pour les personnes souffrant de divers handicaps, notamment de dyslexie ou de malvoyance.
Accessibility Reader vous permet de personnaliser le texte et de vous concentrer sur ce que vous lisez en adaptant la police, la couleur et l’espacement. Il prend également en charge Spoken Content, afin que votre appareil puisse lire à haute voix ce qui s’affiche à l’écran.
Accessibility Reader peut être utilisé dans n’importe quelle application et est intégré à Magnifier sur iOS, iPadOS et MacOS. Vous pouvez lancer cette fonctionnalité pour interagir avec du texte du monde réel, comme dans les menus et les livres.
Accès au braille
Braille Access permet de transformer l’iPhone, l’iPad, le Mac ou Vision Pro en un appareil de prise de notes en braille. Ils peuvent lancer n’importe quelle application en tapant avec Braille Screen Input ou un appareil braille lié, puis prendre des notes au format braille et faire des calculs en utilisant Nemeth Braille.
Vous pouvez également ouvrir des fichiers Braille Ready Format dans Braille Access, ce qui leur permet d’accéder à des livres et à des fichiers créés sur un appareil de prise de notes en braille.
Une intégration des sous-titres en direct vous permet également de transcrire des conversations directement sur des écrans braille.
Live Captions sur l’Apple Watch
Live Listen et Live Captions affichent du texte en temps réel sur votre Apple Watch et vous permettent de contrôler à distance une session Live Listen sur votre iPhone. Apple
Live Listen est une fonctionnalité qui prend le son capturé par un iPhone et le transmet à vos AirPods, Beats ou appareils auditifs compatibles, transformant ainsi votre téléphone en microphone à distance.
Cette fonction est désormais disponible sur l’Apple Watch, de même que les légendes en direct, qui affichent en temps réel le texte de ce qui est entendu sur l’iPhone. Ainsi, les utilisateurs pourront à la fois écouter le son et voir les légendes en direct sur leur Apple Watch.
Vous pouvez également utiliser votre Apple Watch comme une télécommande pour commencer ou terminer l’écoute en direct, ainsi que pour revenir en arrière si vous avez manqué quelque chose. Cela signifie que vous n’aurez plus à vous lever au milieu d’un cours ou d’une réunion pour attraper ou contrôler votre iPhone – vous pourrez le faire à travers la pièce depuis votre montre. Live Listen peut également être utilisé avec la fonction d’aide auditive des AirPods Pro 2.
Accessibilité visuelle sur l’Apple Vision Pro
L’Apple Vision Pro ajoute une poignée de fonctionnalités pour les personnes aveugles ou malvoyantes. Une mise à jour de Zoom vous permettra de zoomer sur tout ce qui vous entoure à l’aide de la caméra principale du Vision Pro.
La reconnaissance en direct décrira ce qui vous entoure, localisera les objets et lira les documents à l’aide de VoiceOver.
Une nouvelle API pour les développeurs permettra également aux applications approuvées d’accéder à la caméra principale du casque, afin que vous puissiez bénéficier d’une aide à l’interprétation visuelle en direct dans des applications telles que Be My Eyes.
Autres mises à jour sur l’accessibilité
- Apple a présenté une série d’autres mises à jour de ses fonctions d’accessibilité, notamment l’ajout sur Mac de Vehicle Motion Cues, qui permet de réduire le mal des transports lorsque l’on regarde un écran. Vous pouvez également personnaliser les points animés qui apparaissent à l’écran sur l’iPhone, l’iPad et le Mac.
- Personal Voice permet aux personnes présentant un risque de perte de la parole de créer une voix qui leur ressemble grâce à l’IA et à l’apprentissage automatique sur l’appareil. L’utilisation est désormais plus rapide et plus facile. Au lieu de lire 150 phrases pour configurer la fonction et d’attendre toute une nuit pour qu’elle soit traitée, Personal Voice peut désormais créer une réplique vocale plus naturelle avec seulement 10 phrases enregistrées en moins d’une minute.
La reconnaissance des noms vous alertera si l’on vous appelle par votre nom. Apple
- À l’instar de l’Eye Tracking, qui vous permet de contrôler votre iPhone et votre iPad en utilisant uniquement vos yeux, le Head Tracking vous permettra également de naviguer et de contrôler votre appareil à l’aide de mouvements de la tête.
- Vous pouvez désormais personnaliser Music Haptics sur l’iPhone, qui émet une série de tapotements, de textures et de vibrations en même temps que le son dans Apple Music. Vous pouvez choisir de profiter de ces haptiques pendant toute la chanson ou uniquement pendant les voix, et vous pouvez également régler l’intensité globale.
- La reconnaissance sonore, qui avertit les personnes sourdes ou malentendantes des sons tels que les sirènes, les sonnettes ou les klaxons, s’enrichit de la reconnaissance des noms pour qu’elles puissent également savoir quand leur nom est appelé.
- Les sous-titres en direct prennent également en charge des langues dans d’autres régions du monde, notamment l’anglais (Inde, Australie, Royaume-Uni, Singapour), le chinois mandarin (Chine continentale), le cantonais (Chine continentale, Hong Kong), l’espagnol (Amérique latine, Espagne), le français (France, Canada), le japonais, l’allemand (Allemagne) et le coréen.