苹果预览 iOS 17 认知辅助新功能:使用机器学习让 AI 为你发声
站长之家(ChinaZ.com) 5月17日消息:在人工智能的加持下,AI 孙燕姿爆火出圈。此前谷歌 I/O 大会上也发布了 AI 工具「MusicLM」,可以通过文字描述生成音乐。而在定于 6 月举行的全球开发者大会之前,苹果也将 AI 机器学习语音作为了一项辅助功能,预览一些新的无障碍工具和功能。
苹果公司今天发布新闻稿,展示了为认知能力、视力、听力与肢体活动能力而设计的软件辅助功能,以及为失语者或面临失语风险者设计的创新性的工具。
据介绍,这些新功能利用了设备端机器学习等先进的软硬件技术以保护用户隐私,并延续了苹果公司一直以来的承诺:制造所有人都能顺畅使用的产品。
苹果公司与代表各类残疾用户的社群组织深度合作,开发各项无障碍功能,以对人们的生活带来真正的影响。从今年晚些时候起,认知障碍用户将可通过 Assistive Access 更轻松地独立使用 iPhone 与 iPad;失语用户将可通过 Live Speech 在通话与交谈中通过打字转换语音输出来实现对话;面临失语风险的用户则可使用 Personal Voice 创建与自己嗓音相似的合成语音,与家人好友交流沟通。对于失明或低视力用户,放大器的检测模式提供了 Point and Speak 功能,可识别用户指向的文本并大声朗读,帮助他们更好地了解和使用家用电器等实体对象。
苹果公司没有透露这些新工具上线具体时间,只说将在今年晚些时候推出。鉴于苹果通常会在 WWDC 上推出新版本的操作系统,因此有理由认为,这些新功能中至少有一部分会随即将推出的 iOS17 和 iPadOS17 推出。
苹果公司首席执行官蒂姆·库克表示,「在 Apple,我们始终坚信服务所有人的技术才是最好的技术。今天,我们高兴地分享卓越的新功能,这些功能延续了我们创造无障碍技术的长期努力,让所有人都有机会发挥创意、交流沟通、做自己所爱之事。」
- 0000
- 0000
- 0000
- 0001
- 0000