A manzana introdujo una serie de innovaciones dirigidas a la accesibilidad cognitiva, visual, auditiva y de movilidad. Entre ellos está el voz personal, destinado a personas que pueden perder la capacidad de hablar. Esta función permite crear una voz sintetizada, similar a la del usuario, para facilitar la comunicación con amigos y familiares.
Vea también: Descubre por qué la nueva generación ya no prefiere comprar iPhones
vea mas
Google desarrolla una herramienta de IA para ayudar a los periodistas en…
El iPhone original de 2007 sin abrir se vende por casi $200,000; saber...
Según la empresa, los usuarios pueden configurar Personal Voice leyendo un conjunto de instrucciones en voz alta durante un total de 15 minutos en su iPhone o iPad. Integrado con la función Live Speech, permite que los usuarios escriban lo que quieren expresar y Personal Voice se encarga de entregar el mensaje al interlocutor.
Apple enfatiza que la función utiliza "aprendizaje automático en el propio dispositivo para garantizar la privacidad y seguridad de la información del usuario".
La función de voz del iPhone apunta a la accesibilidad
Además, el gigante tecnológico está implementando versiones simplificadas de sus aplicaciones principales. como parte de una característica llamada Acceso asistido, destinada a ayudar a los usuarios con discapacidades cognitivo.
Diseñado para "simplificar las aplicaciones y las experiencias centrándose en la funcionalidad central para minimizar la sobrecarga cognitiva", el La función incluye una versión unificada de las aplicaciones Teléfono y FaceTime, así como versiones personalizadas de Mensajes, Cámara, Fotos y Música. Estos cuentan con botones de alto contraste, etiquetas de texto ampliadas y herramientas de accesibilidad adicionales.
Se identificó un 'modo de accesibilidad personalizado' a fines del año pasado en una versión beta de iOS 16.2. Apple promete que estas características estarán disponibles 'más adelante este año', insinuando que podrían ser parte de del iOS 17.
También hay un nuevo modo de detección en la aplicación Magnifier, diseñado para ayudar a los usuarios ciegos o con baja visión a interactuar con objetos físicos a través de varias etiquetas de texto.
Como ejemplo, Apple explica que el usuario puede dirigir la cámara del dispositivo a una etiqueta, como el tablero de un microondas, y el iPhone o iPad lo lee en voz alta mientras el usuario desliza un dedo sobre cada número o configuración en el dispositivo.
¿Para qué sirve esta tecnología?
Las inteligencias artificiales que imitan la voz ofrecen una serie de beneficios. Es decir, permiten que las personas con dificultades del habla, como aquellas que han perdido la capacidad de hablar debido a condiciones médicas, vuelvan a comunicarse. Estas tecnologías hacen posible que estas personas creen voces sintetizadas que suenan como ellas mismas.
Además, las IA de imitación de voz pueden facilitar la accesibilidad digital al hacer que las aplicaciones, los dispositivos y los servicios sean más inclusivos para los usuarios con problemas del habla. También tienen el potencial de mejorar la experiencia del usuario en muchas áreas, como el servicio al cliente, la narración y el doblaje de medios.