UN pomme introduit une série d'innovations visant l'accessibilité cognitive, visuelle, auditive et de mobilité. Parmi eux se trouve le voix personnelle, destiné aux personnes susceptibles de perdre la capacité de parler. Cette fonctionnalité permet de créer une voix de synthèse, similaire à celle de l'utilisateur, pour faciliter la communication avec les amis et la famille.
Voir aussi: Découvrez pourquoi la nouvelle génération ne préfère plus acheter d'iPhone
voir plus
Google développe un outil d'IA pour aider les journalistes à…
L'iPhone original de 2007 non ouvert se vend à près de 200 000 $; savoir...
Selon la société, les utilisateurs peuvent configurer Personal Voice en lisant à voix haute un ensemble d'instructions pendant 15 minutes au total sur leur iPhone ou iPad. Intégrée à la fonction Live Speech, elle permet aux utilisateurs de taper ce qu'ils veulent exprimer et la Personal Voice se charge de délivrer le message à l'interlocuteur.
Apple souligne que la fonctionnalité utilise "l'apprentissage automatique sur l'appareil lui-même pour garantir la confidentialité et la sécurité des informations de l'utilisateur".
La fonctionnalité vocale de l'iPhone cible l'accessibilité
De plus, le géant de la technologie déploie des versions allégées de ses applications principales. dans le cadre d'une fonctionnalité appelée Assistive Access, visant à aider les utilisateurs handicapés cognitif.
Conçu pour « simplifier les applications et les expériences en se concentrant sur les fonctionnalités de base afin de minimiser les frais généraux cognitifs », le La fonctionnalité comprend une version unifiée des applications Téléphone et FaceTime, ainsi que des versions personnalisées des messages, appareil photo, photos et Musique. Ceux-ci comportent des boutons à contraste élevé, des étiquettes de texte agrandies et des outils d'accessibilité supplémentaires.
Un "mode d'accessibilité personnalisé" a été identifié à la fin de l'année dernière dans une version bêta d'iOS 16.2. Apple promet que ces fonctionnalités seront disponibles "plus tard cette année", laissant entendre qu'elles pourraient faire partie de de iOS17.
Il existe également un nouveau mode de détection dans l'application Magnifier, conçu pour aider les utilisateurs aveugles ou malvoyants à interagir avec des objets physiques via diverses étiquettes de texte.
À titre d'exemple, Apple explique que l'utilisateur peut diriger la caméra de l'appareil vers une étiquette, comme le tableau de bord d'un micro-ondes, et l'iPhone ou l'iPad le lit à haute voix lorsque l'utilisateur fait glisser un doigt sur chaque numéro ou paramètre sur le appareil.
A quoi sert cette technologie ?
Les intelligences artificielles qui imitent la voix offrent un certain nombre d'avantages. Autrement dit, ils permettent aux personnes ayant des difficultés d'élocution, telles que celles qui ont perdu la capacité de parler en raison de conditions médicales, de communiquer à nouveau. Ces technologies permettent à ces personnes de créer des voix synthétisées qui leur ressemblent.
De plus, les IA d'imitation de la voix peuvent faciliter l'accessibilité numérique en rendant les applications, les appareils et les services plus inclusifs pour les utilisateurs souffrant de troubles de la parole. Ils ont également le potentiel d'améliorer l'expérience utilisateur dans de nombreux domaines tels que le service client, la narration et le doublage de médias.