Iphone zal met je stem kunnen spreken; hoe zal het werken?

A appel introduceerde een reeks innovaties gericht op cognitieve, visuele, auditieve en mobiliteitstoegankelijkheid. Onder hen is de persoonlijke stem, bedoeld voor mensen die mogelijk niet meer kunnen spreken. Deze functie maakt het mogelijk om een ​​gesynthetiseerde stem te creëren, vergelijkbaar met die van de gebruiker, om de communicatie met vrienden en familie te vergemakkelijken.

Zie ook: Ontdek waarom de nieuwe generatie niet langer de voorkeur geeft aan het kopen van iPhones

Bekijk meer

Google ontwikkelt AI-tool om journalisten te helpen bij…

Ongeopende originele iPhone uit 2007 wordt verkocht voor bijna $ 200.000; weten...

Volgens het bedrijf kunnen gebruikers Personal Voice instellen door een reeks instructies in totaal 15 minuten hardop voor te lezen op hun iPhone of iPad. Geïntegreerd met de Live Speech-functie, stelt het gebruikers in staat om te typen wat ze willen uitdrukken en de Personal Voice zorgt ervoor dat het bericht aan de gesprekspartner wordt bezorgd.

Apple benadrukt dat de functie gebruik maakt van 'machine learning op het apparaat zelf om de privacy en veiligheid van gebruikersinformatie te waarborgen'.

iPhone-spraakfunctie richt zich op toegankelijkheid

Bovendien rolt de technologiegigant uitgeklede versies van zijn kernapps uit. als onderdeel van een functie genaamd Assistive Access, bedoeld om gebruikers met een handicap te helpen cognitief.

Ontworpen om 'apps en ervaringen te vereenvoudigen door te focussen op kernfunctionaliteit om cognitieve overbelasting te minimaliseren', de functie omvat een uniforme versie van de apps Telefoon en FaceTime, evenals aangepaste versies van Berichten, Camera, Foto's en Muziek. Deze hebben knoppen met hoog contrast, vergrote tekstlabels en extra toegankelijkheidstools.

Eind vorig jaar werd een 'aangepaste toegankelijkheidsmodus' geïdentificeerd in een bètaversie van iOS 16.2. Apple belooft dat deze functies 'later dit jaar' beschikbaar zullen zijn, wat erop duidt dat ze er mogelijk deel van uitmaken van iOS 17.

Er is ook een nieuwe detectiemodus in de Magnifier-app, ontworpen om blinde of slechtziende gebruikers te helpen bij de interactie met fysieke objecten via verschillende tekstlabels.

Als voorbeeld legt Apple uit dat de gebruiker de camera van het apparaat kan richten op een label, zoals het dashboard van een magnetron, en de iPhone of iPad leest het hardop voor terwijl de gebruiker met een vinger over elk cijfer of elke instelling op het apparaat schuift apparaat.

Waar is deze technologie voor?

Kunstmatige intelligenties die stem nabootsen, bieden een aantal voordelen. Dat wil zeggen, ze stellen mensen met spraakproblemen, zoals degenen die door medische aandoeningen niet meer kunnen praten, in staat om weer te communiceren. Deze technologieën maken het voor deze mensen mogelijk om gesynthetiseerde stemmen te creëren die als zichzelf klinken.

Bovendien kunnen stemimitatie-AI's digitale toegankelijkheid vergemakkelijken door apps, apparaten en diensten inclusiever te maken voor gebruikers met spraakbeperkingen. Ze hebben ook het potentieel om de gebruikerservaring te verbeteren op veel gebieden, zoals klantenservice, verhalen vertellen en nasynchronisatie van media.

Dit waren de veranderingen van de nieuwe MacBooks Pro

Apple onthulde dat het verschillende aspecten van het ontwerp van de machine heeft behouden, dat ...

read more

Hoe poll je je WhatsApp-groep en creëer je goede interacties?

Maak peilingen op WhatsApp het is erg handig om verschillende meningen van een groep te verzamele...

read more

Tijdsbesparing: de gemakkelijkste manier om IPVA te betalen

Jaar in jaar uit wordt de Belasting op het Eigendom van Motorrijtuigen (IPVA) gaat altijd naar on...

read more