苹果公司将为iPhone、iPad推出眼球追踪技术,以减少晕车

2024-07-06 19:38来源:本站编辑

为了纪念全球无障碍意识日,苹果公司发布了一系列新的无障碍功能,包括一项人工智能功能,让残疾人只用眼睛就能浏览iPhone或iPad。

游戏将于今年晚些时候发布,可能会在iOS和iPadOS 18上发布。

眼球追踪将使用设备的前置摄像头来跟踪一个人的目光。“停留控制”或将视线暂停在图标或其他元素上,相当于在使用其他功能(如物理按钮、滑动和其他手势)之前,只需要用眼睛进行物理选择。

所有的眼球追踪人工智能和机器学习都将在你的设备上完成,不会与苹果或任何第三方共享数据。

这项技术应该与iOS、苹果应用程序和第三方软件兼容。

另一项即将推出的功能将帮助那些在行驶的车辆中(当然是作为乘客)使用iPhone或iPad时晕车的人。

“车辆运动提示”是指当你的设备检测到你在行驶的车辆中时,会在你的iPhone或iPad屏幕边缘出现点。

使用内置在你的设备上的传感器,这些点会随着车辆的运动而移动——这有助于减少静态屏幕和移动汽车之间有时令人恶心的不匹配。

这些点可以与第三方应用程序一起使用,或者如果你正在看电影。

(如果不是你的包,可以在控制中心禁用动作提示。)

继去年展示的语音克隆功能(针对那些有可能失去说话能力的人)之后,一系列新的语音功能正在开发中,同样都是人工智能驱动的。

其中包括语音快捷方式,Siri可以识别一个单词,或者只是一个话语,从而触发一个动作,比如打电话给朋友或家人。

设置就像发出三次声音一样简单。

聆听非典型语音将使用设备上的机器学习来识别用户的语音模式。根据苹果公司的预览,这些增强的语音识别功能将提供一个新的定制和控制水平,专为患有脑瘫、肌萎缩侧索硬化症(ALS)或中风等影响语言的后天或进行性疾病的用户设计。

一个新的基于carplay的音频功能也进行了预览。

使用iPhone或iPad的麦克风,声音识别功能会听到救护车的警笛声或你身后不耐烦的司机的喇叭声,然后在你的汽车屏幕上显示一条短信。

音乐触觉将允许聋人或听力障碍者通过敲击和振动来体验音乐。它将与Apple Music一起工作,并为其他音乐服务提供API,以便在他们的平台上启用它。

苹果公司的Vision Pro(目前仍只在美国销售,不过有越来越多的DIY进口产品)将有新的辅助功能,包括visionOS——它将提供实时字幕,这样失聪或有听力障碍的用户就可以在现场对话和应用程序的音频中跟随语音对话。

其他新功能包括Hover Typing(在文本框中输入时显示更大的文本,使用用户喜欢的字体和颜色)以及对个人语音的更广泛的语言支持——前面提到的功能允许人们在失去说话能力之前克隆自己的声音,从而实现更自然的合成语音。

“想象一下,如果斯蒂芬·霍金能够用他真实的声音样本而不是人工合成的声音与世界交流,我们对他的印象会有多么不同。我们的声音是独一无二的,对我们来说是非常私人的,”无障碍倡导者乔纳森·莫森在iOS 17首次推出该功能时表示。

克里斯·基尔(Chris Keall)是奥克兰商业团队的一名成员。他于2018年加入《先驱报》,是科技编辑和高级商业撰稿人。

友邦网声明:未经许可,不得转载。