A Apfel führte eine Reihe von Innovationen ein, die auf kognitive, visuelle, auditive und mobile Zugänglichkeit abzielen. Unter ihnen ist die persönliche Stimme, gedacht für Menschen, die möglicherweise nicht mehr sprechen können. Diese Funktion ermöglicht es, eine synthetische Stimme zu erstellen, die der des Benutzers ähnelt, um die Kommunikation mit Freunden und Familie zu erleichtern.
Auch sehen: Erfahren Sie, warum die neue Generation nicht mehr lieber iPhones kauft
Mehr sehen
Google entwickelt KI-Tool, um Journalisten bei… zu helfen
Ungeöffnetes Original-iPhone von 2007 wird für fast 200.000 US-Dollar verkauft; wissen...
Nach Angaben des Unternehmens können Benutzer Personal Voice einrichten, indem sie eine Reihe von Anweisungen insgesamt 15 Minuten lang auf ihrem iPhone oder iPad vorlesen. Integriert in die Live-Speech-Funktion ermöglicht es Benutzern, das einzugeben, was sie ausdrücken möchten, und die persönliche Stimme kümmert sich um die Übermittlung der Nachricht an den Gesprächspartner.
Apple betont, dass die Funktion „maschinelles Lernen auf dem Gerät selbst nutzt, um die Privatsphäre und Sicherheit der Benutzerinformationen zu gewährleisten“.
Die iPhone-Sprachfunktion zielt auf Barrierefreiheit ab
Darüber hinaus bringt der Technologieriese abgespeckte Versionen seiner Kern-Apps auf den Markt. als Teil einer Funktion namens Assistive Access, die darauf abzielt, Benutzer mit Behinderungen zu unterstützen kognitiv.
Entwickelt, um „Apps und Erlebnisse zu vereinfachen, indem man sich auf Kernfunktionen konzentriert, um kognitive Überlastung zu minimieren“. Die Funktion umfasst eine einheitliche Version der Telefon- und FaceTime-Apps sowie maßgeschneiderte Versionen der Nachrichten, Kamera, Fotos und Musik. Diese verfügen über kontrastreiche Schaltflächen, vergrößerte Textbeschriftungen und zusätzliche Eingabehilfen.
Ende letzten Jahres wurde in einer Betaversion von iOS ein „benutzerdefinierter Barrierefreiheitsmodus“ identifiziert 16.2. Apple verspricht, dass diese Funktionen „später in diesem Jahr“ verfügbar sein werden, und deutet an, dass sie Teil davon sein könnten von iOS 17.
In der Magnifier-App gibt es außerdem einen neuen Erkennungsmodus, der blinden oder sehbehinderten Benutzern die Interaktion mit physischen Objekten über verschiedene Textbeschriftungen erleichtern soll.
Als Beispiel erklärt Apple, dass der Benutzer die Kamera des Geräts auf ein Etikett richten kann, beispielsweise auf das Armaturenbrett eines Mikrowelle, und das iPhone oder iPad liest es laut vor, während der Benutzer mit dem Finger über jede Zahl oder Einstellung auf dem fährt Gerät.
Wozu dient diese Technologie?
Künstliche Intelligenzen, die die Stimme nachahmen, bieten eine Reihe von Vorteilen. Das heißt, sie ermöglichen es Menschen mit Sprachschwierigkeiten, die zum Beispiel aufgrund von Erkrankungen die Fähigkeit zum Sprechen verloren haben, wieder zu kommunizieren. Diese Technologien ermöglichen es diesen Menschen, synthetische Stimmen zu erzeugen, die wie sie selbst klingen.
Darüber hinaus können Sprachimitations-KIs den digitalen Zugang erleichtern, indem sie Apps, Geräte und Dienste für Benutzer mit Sprachbehinderungen integrativer machen. Sie haben auch das Potenzial, das Benutzererlebnis in vielen Bereichen wie Kundenservice, Storytelling und Mediensynchronisation zu verbessern.