Apple envisage de dicter vos iMessages avec votre propre voix

L'iPhone 14 Plus, un smartphone de grande taille


Un nouveau brevet déposé par Apple montre que l’intelligence artificielle liée à la voix l’intéresse pour une chose : faire lire à haute voix vos iMessage avec votre timbre.

Et si l’iPhone était capable d’émuler votre voix ? Un nouveau brevet déposé par Apple et repéré par Patently Apple montre que la firme de Cupertino serait en train de réfléchir à créer une solution permettant tout simplement ça. L’idée serait de ne pas utiliser la voix par défaut de Siri pour lire à haute voix vos textes iMessage, mais bien la voix du camarade qui vous contacte, recréée grâce à l’intelligence artificielle.

« Un modèle de voix est obtenu grâce à la pluralité des interactions vocales. Une interaction de l’utilisateur est reçu par le premier utilisateur, qui correspond au fait de donner accès à ce modèle de voix. Ce modèle de voix est fourni au second appareil électronique. Dans cet exemple, un message est reçu par l’utilisateur du second appareil électronique. En réponse à ce message, un modèle de voix de l’utilisateur respectif est reçu. Une retranscription audio du message basée sur ce modèle de voix est fournie. »

Bonjour, ici la voix

Le langage du brevet n’étant pas le plus facile à comprendre, explicitons. Dans l’idée décrite par ce processus, lorsque vous envoyez un message, votre iPhone vous permettrait d’envoyer en parallèle un modèle de votre voix. Si le destinataire du message accepte également de recevoir ce modèle en prime du texte, son iPhone pourra dès lors dicter le message en utilisant une simulation de votre voix réalisée par l’intelligence artificielle.

La fonctionnalité paraît particulièrement intéressante, puisque c’est l’une des rares idées entourant l’IA qui semble avoir un intérêt concret pour les utilisateurs. Les messages vocaux sont de plus en plus populaires aujourd’hui, particulièrement auprès des plus jeunes générations, pour leur habilité à transmettre l’intention en prime de la volonté. Mais tous n’ont pas nécessairement envie de « parler à leur smartphone », pour ainsi dire.

L’intérêt est démultiplié pour les personnes malvoyantes, qui auraient ainsi l’opportunité d’entendre un message incarné plutôt que lu par la voix serviable, mais robotique, de Siri. On espère cependant que dans ce cadre d’usage, l’intelligence artificielle réussirait à retranscrire un tant soit peu l’émotion : un « je t’aime » désincarné ou un « tu me saoules » enjoué briserait quelque peu l’immersion.

On aimerait également faire confiance à Apple sur le terrain de la protection des données. L’entreprise a un bon historique sur ce point, alors que les données biométriques des iPhone sont conservées directement sur les appareils et ne transitent pas vers des serveurs distants. Il y a fort à parier que le modèle de voix généré dans l’exemple suivrait la même tendance, ce qui serait rassurant.

Du moins, c’est tout ce qu’on espère face à ce brevet, qui n’équivaut en aucun cas à une fonctionnalité réelle pour le moment. Face aux multiples déboires de l’intelligence artificielle, et alors que les doubleurs professionnels subissent l’invasion de la nouvelle technologie, il est tout de même bon de voir enfin une fonctionnalité qui semble surtout avoir à cœur l’humain.

Source :

Patently Apple

Maxime « OtaXou » Lancelin-Golbery



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.