quand Apple veut faire parler votre iPhone avec votre voix

Apple annonce de nouvelles fonctions d'accessibilité.


Live Speech, Personal Voice ou encore Assistive Access, ce sont quelques-unes des nouveautés fonctionnelles destinées à faciliter l’utilisation des produits Apple par des personnes souffrants de troubles cognitifs, visuels ou encore auditifs. Elles devraient être lancées d’ici la fin d’année.

A l’approche de la journée mondiale de sensibilisation à l’accessibilité, qui aura lieu le 18 mai prochain, Apple vient d’annoncer une série de nouveautés logicielles pour les iPhone, et qui devraient être disponibles plus tard cette année. Toutes reposent sur l’intégration entre logiciel et matériel, et notamment sur les capacités des puces qu’Apple conçoit pour ses smartphones à faire tourner des algorithmes d’intelligence artificielle localement. Ces nouvelles fonctions visent à faciliter la vie des personnes qui souffrent de troubles cognitifs, visuels, auditifs ou de problèmes de mobilité. Apple en a ainsi listé quatre principales.

Assistive Access, simplifier l’accès

Le premier pourrait paraître surprenant venant d’une société comme Apple qui travaille tant à ses interfaces, à leur richesse. Appelée Assistive Access, cette fonction va en fait dépouiller l’interface des applications de tout le superflu afin « d’alléger la charge cognitive », afin de faciliter la vie des utilisateurs qui souffrent de troubles cognitifs. Les applications qui sont principalement visées touchent à la communication pour simplifier les contacts avec les proches, la prise et la consultation des photos, et, enfin, l’écoute de musique. Ainsi, les applications Téléphone et FaceTime sont fusionnées en une seule appli, appelée Appels. Même chose pour les applications Messages, Appareils photo, Photos, et Music.

L’interface de ces applications est davantage dépouillée, le texte qui y est affiché est plus large. Il est également possible de personnaliser ces applications. Par exemple, Messages pourra n’inclure qu’un clavier composé d’emojis et la possibilité d’enregistrer des messages vidéo pour ses proches.

iOS et iPadOS, eux-mêmes, seront modifiés, avec des icônes plus larges déposées sur des aplats bien visibles.

Apple – Assistive Accessibility, une simplification de l’interface pour rendre possible l’utilisation des iPhone et iPad par le plus grand nombre.

Live Speech, taper pour parler, Personal Voice, garder sa voix

Cette fonction sera disponible sur iPhone, iPad et Mac et elle offre la possibilité de lire, via une voix de synthèse, un texte qui a été tapé par l’utilisateur lors d’une conversation FaceTime ou lors d’un appel téléphonique.

Les développeurs d’Apple ont également prévu la possibilité d’enregistrer des phrases et réactions récurrentes afin de pouvoir les envoyer rapidement lors d’une communication.

Cet outil est essentiellement destiné à celles et ceux qui ont perdu l’usage de la parole. Alors que Personal Voice est une fonction pensée pour les personnes qui sont en train de la perdre. Lire un ensemble de courts textes affichés sur votre iPhone ou iPad pendant une quinzaine de minutes, pendant que votre iPhone enregistre, devrait suffire à Personal Voice pour ensuite reproduire votre voix. Bien entendu, ces deux fonctions se complètent l’une l’autre.

Detection Mode in Magnifier, la loupe intelligence de l’iPhone s’enrichit

Point and Speak. Difficile de faire plus clair. Cette nouvelle fonction de la loupe numérique de l’iPhone ouvre la voie à une interaction plus simple avec les objets physiques porteurs de plusieurs étiquettes. Cela peut, par exemple, être le cas d’une microonde, et de ses différents menus. Point and Speak utilise à la fois l’appareil photo, le lidar et un outil embarqué, qui repose sur le machine learning, et qui lira le texte affiché sur chaque bouton.

Apple annonce également quelques autres fonctions, qui devraient toutes être lancées d’ici la fin de l’année 2022.

Source :

Apple



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.