あ りんご 認知、視覚、聴覚、移動性のアクセシビリティを目的とした一連のイノベーションを導入しました。 その中には、 個人的な声、話す能力を失う可能性のある人々を対象としています。 この機能により、ユーザーに似た合成音声を作成することができ、友人や家族とのコミュニケーションが容易になります。
こちらもご覧ください: 新世代が iPhone の購入を好まなくなった理由を知る
続きを見る
Google、ジャーナリストを支援する AI ツールを開発…
未開封のオリジナルの 2007 年製 iPhone は 20 万ドル近くで取引されています。 知る...
同社によると、ユーザーは iPhone または iPad で一連の説明を合計 15 分間読み上げることで、パーソナル ボイスをセットアップできます。 Live Speech 機能と統合されているため、ユーザーは表現したい内容を入力でき、Personal Voice が対話者にメッセージを配信します。
Appleは、この機能は「ユーザー情報のプライバシーとセキュリティを確保するためにデバイス自体の機械学習」を使用していると強調しています。
iPhoneの音声機能はアクセシビリティをターゲットにしています
さらに、このテクノロジー巨人は、コアアプリの機能を簡素化したバージョンを展開しています。 障害を持つユーザーを支援することを目的とした、Assistive Access と呼ばれる機能の一部として 認知。
「認知的オーバーヘッドを最小限に抑えるためにコア機能に焦点を当て、アプリとエクスペリエンスを簡素化する」ように設計されています。 この機能には、電話アプリと FaceTime アプリの統合バージョンに加えて、メッセージ、カメラ、写真、およびカスタマイズされたバージョンが含まれます。 音楽。 これらには、ハイコントラストのボタン、拡大されたテキストラベル、追加のアクセシビリティツールが備えられています。
「カスタム アクセシビリティ モード」は昨年末、iOS のベータ版で確認されました 16.2. Appleはこれらの機能が「今年後半」に利用可能になると約束し、それらが の iOS17.
拡大鏡アプリには新しい検出モードもあり、目の見えないユーザーや弱視のユーザーがさまざまなテキスト ラベルを通じて物理的なオブジェクトを操作できるように設計されています。
例として、Apple は、ユーザーがデバイスのカメラをラベル (たとえば、ダッシュボード) に向けることができると説明しています。 ユーザーが電子レンジの各数字や設定の上で指をスライドさせると、iPhone または iPad が電子レンジを読み上げます。 デバイス。
この技術は何のためにあるのでしょうか?
音声を模倣する人工知能は、多くの利点をもたらします。 つまり、病状により話す能力を失った人など、言語障害のある人が再びコミュニケーションをとることができるようになります。 これらのテクノロジーにより、これらの人々は自分たちに似た合成音声を作成することが可能になります。
さらに、音声模倣 AI は、音声障害のあるユーザーにとってアプリ、デバイス、サービスをより包括的にすることで、デジタル アクセシビリティを促進できます。 また、カスタマー サービス、ストーリーテリング、メディア ダビングなどの多くの分野でユーザー エクスペリエンスを向上させる可能性もあります。