EN eple introduserte en serie innovasjoner rettet mot kognitiv, visuell, auditiv og mobilitetstilgjengelighet. Blant dem er personlig stemme, beregnet på personer som kan miste evnen til å snakke. Denne funksjonen gjør det mulig å lage en syntetisert stemme, lik brukerens, for å lette kommunikasjonen med venner og familie.
Se også: Finn ut hvorfor den nye generasjonen ikke lenger foretrekker å kjøpe iPhones
se mer
Google utvikler AI-verktøy for å hjelpe journalister i...
Uåpnet original iPhone fra 2007 selges for nesten $200 000; vet...
Ifølge selskapet kan brukere sette opp Personal Voice ved å lese et sett med instruksjoner høyt i totalt 15 minutter på iPhone eller iPad. Integrert med Live Speech-funksjonen lar den brukere skrive det de vil uttrykke, og den personlige stemmen sørger for å levere meldingen til samtalepartneren.
Apple understreker at funksjonen bruker «maskinlæring på selve enheten for å sikre personvernet og sikkerheten til brukerinformasjon».
iPhone stemmefunksjon retter seg mot tilgjengelighet
I tillegg ruller teknologigiganten ut strippede versjoner av kjerneappene sine. som en del av en funksjon kalt Assistive Access, rettet mot å hjelpe brukere med nedsatt funksjonsevne kognitive.
Designet for å "forenkle apper og opplevelser ved å fokusere på kjernefunksjonalitet for å minimere kognitive overhead", funksjonen inkluderer en enhetlig versjon av telefon- og FaceTime-appene, samt skreddersydde versjoner av meldinger, kamera, bilder og Musikk. Disse har knapper med høy kontrast, forstørrede tekstetiketter og ekstra tilgjengelighetsverktøy.
En "tilpasset tilgjengelighetsmodus" ble identifisert sent i fjor i en betaversjon av iOS 16.2. Apple lover at disse funksjonene vil være tilgjengelige "senere i år", og antyder at de kan være en del av av iOS 17.
Det er også en ny deteksjonsmodus i Magnifier-appen, designet for å hjelpe blinde eller svaksynte brukere å samhandle med fysiske objekter gjennom ulike tekstetiketter.
Som et eksempel forklarer Apple at brukeren kan rette enhetens kamera til en etikett, for eksempel dashbordet til en mikrobølgeovn, og iPhone eller iPad leser den høyt mens brukeren skyver en finger over hvert tall eller hver innstilling på enhet.
Hva er denne teknologien til for?
Kunstig intelligens som etterligner stemme gir en rekke fordeler. Det vil si at de lar personer med talevansker, som de som har mistet taleevnen på grunn av medisinske forhold, kommunisere igjen. Disse teknologiene gjør det mulig for disse menneskene å lage syntetiserte stemmer som høres ut som dem selv.
I tillegg kan stemmeimitasjon AIer lette digital tilgjengelighet ved å gjøre apper, enheter og tjenester mer inkluderende for brukere med talevansker. De har også potensial til å forbedre brukeropplevelsen på mange områder som kundeservice, historiefortelling og mediedubbing.