Apple的新 Live Captions可为任何内容添加实时字幕,包括站在您面前的人。
就像谷歌本周宣布的概念 AR 眼镜一样。Apple 的 Live Captions 可以接收传入的音频并立即转录。不同之处在于,Apple 的版本将在“今年晚些时候”发布,这可能意味着它将在今年秋季的 iOS 16 版本中发布。但这里真正的消息是,这是苹果公司在试用未来 Apple Glasses 功能方面最明显的尝试。
以苹果为中心的记者丹·莫伦在他的个人六色博客上 写道:“作为一个有两个父母都有听力障碍的人,这将是一个很大的帮助。 ” “我很想知道该功能的实际效果如何,以及它如何处理有很多参与者的大型 FaceTime 通话;Apple 表示它将把对话归因于特定的扬声器。”
戏法
我们稍后会介绍的 Live Captions 与 Apple 试用的第一个 AR 眼镜功能相去甚远。最明显的是在 iPhone 和 iPad 中包含激光雷达摄像头。这些扫描仪有助于创建外部世界的准确 3D 地图,并允许 iPhone 将 3D 模型叠加到通过相机显示的真实世界上。
到目前为止,这项技术已被用于让您在自己的办公桌上预览新的 Apple 电脑、玩 AR 乐高游戏、在客厅测试宜家家具等等。LIDAR 硬件在 iPhone 中的冗余度太荒谬了,以至于 Apple 必须为真正的 AR 应用程序(Apple Glasses)磨练硬件和软件。
它也不仅仅是视觉 AR。多年来,AirPods 一直在添加简洁的 AR 功能。最新的 Spatial Audio 让我们的大脑认为声音来自我们周围,是观看电影或聆听轻松音景的好方法。这是一个很棒的功能,但当它与 Apple 预期的未来眼镜产品一起使用时会更好。能够在 3D 空间中放置声音以匹配 AR 对象将真正出售这种错觉。
或者Live Text 是一种 iOS 15 技术,它可以通过 iPhone 的摄像头识别和读取照片中的文本并进行直播?这是另一个非常适合通过 AR 眼镜阅读标志、菜单和其他文本的功能。
实时字幕
Live Captions 从 FaceTime 通话、视频会议应用程序、流媒体视频等中获取语音。如本视频所示,您的手机会获取音频并即时转录,并提供字幕。
这很好,但更好的是,你的 iPhone 上什么都没有。Apple 表示,字幕是在设备上生成的,而不是发送到服务器。这不仅更加私密,而且速度也更快。
SecurityNerd 的创始人Kristen Bolig 通过电子邮件告诉 Lifewire :“我不确定我们是否能比谷歌的新 AR 眼镜更信任 Apple 的实时翻译,但我认为我们可以相信竞争将有助于产生最佳结果。” “既然竞争是公开的,而且这种技术的问题(隐私、准确性等)众所周知,两家公司不仅要争先恐后地创造出最好的产品,而且还要创造出能够满足最好地解决这些问题。”
我们还期望某种内置的自动翻译功能,就像您现在可以使用第三方应用程序Navi 自动翻译您的 FaceTime 对话一样,或者可能是一种在采访期间保存这些转录以便以后更容易访问的方法。
长期以来,我们一直享受 Apple 提供的出色的辅助功能,让我们自定义 iOS 设备到几乎荒谬的程度。从调整显示器以使颜色和文本更易于查看,到使用外部设备控制整个用户界面,再到当有人按门铃或送货车到达外面时让电话通知您。
现在,我们都从 Apple 加强对增强现实技术的研究中受益。我们可能不喜欢宜家或乐高,甚至不想买一副苹果传说中的 AR 眼镜设备,但这并不意味着我们不能都享受这项研究的成果。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!