Apple 公司于 12月1日发布新闻,透露其辅助技术的最新开发成就。 其中以内科医生兼残疾人权利倡导者 Tristram Ingham 的经历为基点,展示了两项先进的语音辅助功能:「实时语音」和「个人语音」。

「实时语音」的创新功能是今年秋季,Apple 公司推出的另一项创新功能,旨在帮助那些需要语言协助的用户表达自己。 具体来说,这项功能使用户能够输入他们想要传达的内容,并通过个人的真实声音或设备内建的语音选项来朗读出来。 对于那些受制于肢体、运动或语言障碍的人群,结合实时语音、开关控制和辅助触控等功能,可以让交流变得更加自然和无压力。

Apple 在最新的 iOS 17、iPadOS 17 和 macOS Sonoma 系统更新中,加入了一个名为「个人语音」的新功能。
那些有失去说话能力风险的用户,可以按照指示录下约 15分钟的语音样本,借此创建出一个模拟他们嗓音的个性化声音。 长期以来,Apple 公司在神经网络文本到语音转换这块保持着行业领先地位,而通过「个人语音」这一功能,Apple 确保了在不侵犯用户私隐的前提下,能够在装置端完成神经网络的培训,以提升语音辅助服务的整体品质。

Ingham 博士亲自体验了这项功能,并为苹果制作的名为《丢失的声音》的纪录片创造了自己的「个人语音」。 他在 iPhone 上使用这个声音朗读了一本为国际残疾人日打造的同名新儿童图书。 令他感到惊讶的是,创建个人声音的过程远比预期中简单,生成的声音也贴近他本人的真实嗓音。
负责全球无障碍政策与移动的Apple高级主管Sarah Herrlinger表示:
在APPLE,我们为所有人设计产品,也包括残疾人士。
交流是人类生活的重要组成部分,我们致力于向失语用户和面临失语风险的用户提供支持。
赞 (0)
打赏
微信扫一扫
