Google在这届I/O不断强调「有用」(Useful),比如说要唤醒任何一种语音助理时,都必须先说出唤醒关键字,很不符合人性,Google宣布推出「Look and Talk」,用户只要在带有镜头的Google家用智慧萤幕前看着萤幕就可以下达指令,就像声控老公倒水差不多,Google表示,Look and Talk一共用了六个机器学习模型,来处理相机及麦克风搜集超过100个讯号,例如邻近感应距离、头部转动角度、凝视方向、脉络感知、意图分类等,并据此即时判定。
Google助理在Google多年来各种从自然语言模型、演算法、机器学习中,开始了解人类讲话「嗯」「啊」等停顿,并且做成功的判断与预测,搜寻到用户需要的资讯。然而这些新的AI功能都是以英文为主,加以繁体中文市场不够大、开发的顺序偏后,台湾用户都无法享受到。
而面对Meta(原脸书)强打VR元宇宙一时之间成为全球科技圈与股市显学,Google执行长皮查(Sundar Pichai)在开场专题演说结束前5分钟,话锋一转意有所指地表示,现实世界真的很美好,不需要逃离,AR可以协助人类活在当下、过得更好,他并藉由影片展示Google的AR眼镜原型机,这款AR眼镜能够在不同语言间即时翻译,不仅出国旅游、移民家庭、听障人士都很适用,不过Pichai没有揭露AR眼镜的量产时程。
发表意见
中时新闻网对留言系统使用者发布的文字、图片或檔案保有片面修改或移除的权利。当使用者使用本网站留言服务时,表示已详细阅读并完全了解,且同意配合下述规定:
违反上述规定者,中时新闻网有权删除留言,或者直接封锁帐号!请使用者在发言前,务必先阅读留言板规则,谢谢配合。