Meta近日宣布,其Ray-Ban智能眼镜将新增三项功能:实时AI、实时翻译及Shazam音乐识别。其中,实时AI与实时翻译功能目前仅向Meta早期访问计划成员开放,而Shazam功能已面向美国和加拿大的所有用户推出。
实时AI与实时翻译功能在今年早些时候的Meta Connect 2024大会上首次亮相。实时AI功能允许用户在与Meta的AI助手交流时,助手能持续观察用户周围环境。例如,在超市蔬果区,用户可询问AI助手根据所见的食材推荐食谱。Meta表示,该功能在满电状态下可持续使用约30分钟。
实时翻译功能则支持英语、西班牙语、法语及意大利语的实时语音翻译。用户可选择通过眼镜听取翻译内容,或在手机上查看翻译文本。使用前需提前下载所需的语言对,并设置自身及对话方的语言。
Shazam功能的使用较为直接,用户只需在听到歌曲时提示Meta AI,即可识别并告知歌曲信息。
若用户尚未看到这些功能,请检查眼镜是否已更新至v11软件版本,并确保Meta View应用已更新至v196版本。非早期访问计划成员可通过Meta官方网站申请加入。
此番更新正值大型科技公司积极推广AI助手作为智能眼镜核心功能的时期。上周,谷歌宣布推出Android XR操作系统,并特别强调了其Gemini AI助手作为智能眼镜的关键应用。与此同时,Meta首席技术官安德鲁·博斯沃斯在博客中指出,2024年是AI眼镜取得显著进展的一年。他还认为,智能眼镜可能是“真正以AI为核心的设备”的最佳形态,并且是首个“从一开始就完全由AI定义”的硬件类别。