5月8日消息,2019年Google I/O大会在旧金山芒廷维尤的圆形海岸剧场举行。在时长几乎两个小时的演讲环节,谷歌展示了搜索、语音助手、Android Q和智能硬件方面的更新。
1、搜索—加入AR后更逼真展示
Goolge CEO Sundar Pichai 首先登台,介绍了 Google Search 的重大更新——3D 模型 AR。
举例来说,当用户在 Google 中搜索 “鲨鱼” 时,在搜索列表中会呈现鲨鱼的 3D 模型;点击之后,用户可以对 3D 模型进行触控;如果点击界面中的 AR 选项,则可以看到鲨鱼模型在现实生活中的场景。
可以说是非常炫酷了。
需要注意的是,Google Search 之所以能够呈现 3D 模型,实际上是得益于 Google 与合作伙伴的合作。Google 表示正在与 NASA、New Balance、Samsung、Target、Visible Body、Volvo、Wayfair 等企业或机构合作,以便在搜索结果中呈现更多的 3D 内容。
2、更强大的 Google Lens
Google Lens 发布于 2017 年,在本次 Google I/O 中,它也得到了重大更新;具体如下:
- 当用户在餐厅中用 Google lens 扫描菜单时,Google Lens 可以自动推荐最受欢迎的餐品,点击之后可以直接看到食物照片和用户评价。
- Google Lens 可以直接对车票等上的文字信息进行识别并实时翻译,然后自然地覆盖在原有的文字信息上。
- 通过与相关的合作,当用户用 Google Lens 扫描呈现在 Bon Appetit 杂志中菜品时,甚至可以直接在画面中看到这个菜品的动态制作过程。
简单来说,就是 Google Lens 更好地与 Google Maps、计算机视觉、AR 等技术相结合,从而为用户带来更多便利的功能。
3、不再依赖网络的 Google Assistant
作为 Google 旗下最为重要的智能助手,Google Assistant 现在覆盖了超过 10 亿台设备,在 80 个国家/地区提供 30 多种语言,并与全球 3500 多个品牌的超过 30000 台独特的家庭连接设备合作。
在本次大会上,Google Assistant 也迎来了一个重大更新——新一代 Google Assistant。
Google 表示,在不断发展的神经网络的基础上,该公司开发了全新的语音识别和语言理解模型,将云计算中 100GB 的模型降到不到半 GB,也就是说,AI 驱动的 Google Assistant 现在可以在用户的手机上本地运行。由此,Google Assistant 可以手机上以几乎零延迟处理语音,即使在没有网络连接的情况下,也可以实时进行使用。
Google 表示,基于本地部署优势,下一代 Google Assistant 将以 10 倍的速度理解和处理用户指令并给出答案;无论是跨应用操作、还是多轮对话,都能够轻松进行。
4、基于网页的 Duplex
在 Google I/O 2018,Google 发布的 Duplex 功能,可以帮助用户打电话订餐;如今,Google 将 Duplex 带到了网页上。
具体来说,用户只要问 Google Assistant,“为我的下一次旅行预订一辆全国通用的车”,剩下的交给 Google Assistant 就可以。它可以将导航该站点并输入用户信息,如保存在 Gmail 中的旅行详情或保存在 Chrome 中的付款信息——非常方便。
Google 方面表示,Duplex On Web 将在今年晚些时候在美国和英国地区的 Android 手机中上线,提供英文版,可以为租车和电影票提供助手服务。
5、Google Assistant 驾驶模式
今年早些时候,Google Assistant 被整合在 Google Maps 中;不过这一次,Google Assistant 推出了全新的驾驶模式。
Google 驾驶模式的核心交互是语音。用户可以用它来实现导航、发信息、电话呼叫和播放音乐等操作。它也可以用户提供建议建议,比如用户在日历上预订了晚餐,将能够看到餐厅的导航;或者,如果你在家里开始播放音乐,可以在离开车的地方重新开始;如果有人打来电话,Google Assistant 会告诉用户是谁打来的,并询问是否愿意接听。
在启动方式上,当用户手机连接到汽车蓝牙或者直接说 “嘿,Google,我们开车吧”,助手的驾驶模式就会自动启动。
最后,该模式将于今年夏天在 Android 手机上与 Google Assistant 一起提供。
6、帮助 ALS 患者更好地表达沟通
在本次 Google I/O 中,Google 也表现出了 AI 向善的一面,利用 AI 帮助部分群体解决沟通问题。
具体来说,针对 ALS (肌萎缩侧索硬化)患者的沟通问题,Google 开发了一个语音识别模型,专门针对的这些患者的发音进行训练,以便更好地识别他们所表达的内容,从而形成文字呈现出来,以便让他们更好地沟通。
Google 方面表示:
为了做到这一点,Google 软件将录制的语音样本转化为声谱图或声音的视觉表示。然后,计算机使用通用的转录谱图 “训练” 系统,以便更好地识别这种不太常见的语音类型。我们的人工智能算法目前的目标是适应说英语的人,他们有典型的与 ALS 相关的障碍,但是我们相信我们的研究可以应用于更大的人群和不同的语言障碍。
7、Android Q:预览覆盖 13 个品牌 21 款设备
Android 不再是 Google I/O 的核心,但无疑然是非常重要的,Google 方面表示,Android 系统到现在覆盖了超过 25 亿的活跃设备。
在本次大会上,Android Q 带来了以下更新:
- 支持折叠屏手机。其实这一点已经在三星 Galaxy Fold 上得到体现了,Google 为折叠屏手机准备了多任务模式、应用切换模式等。
- 支持 5G。虽然 5G 还没到来,Google 已经做好准备;在游戏、AR 方面会与 5G 的带来做好对接。
- 暗黑模式。既好看,又省电。
- On-Device 机器学习。基于 On-Device 功能,Google 推出了 Live Caption 功能;该功能能够对视频中的音频进行转化为文字的操作,在直播视频上也能够实现——而且 Live Caption 并不依赖网络,在离线状态下也能够完成,可以说是非常厉害了。
- 更强大的 Smart Reply。当用户收到信息时,可以在通知中心直接利用 Smart Reply 进行回复,同时,如果信息中含有地址信息,可以直接在 Google Maps 中打开。
- 安全和隐私。如今对于 Google 来说,安全和隐私显得非常重要,Google 表示在 Android Q 中增加了 50 多项功能来保护用户的隐私和安全。
- Focus Mode 。去年 Google 推出了 Digital Wellbeing 来帮助人们减少对手机的过度使用;今年 Google 推出的 Focus Mode 可以让用户自定义在该模式下需要使用的 App,以免被过多打扰。
与去年相比,Google 扩大了 Android Q Beta 的规模,它可以覆盖 13 个品牌的 21 款设备,其中包括来自小米、华为、一加、OPPO、vivo、Realme 等国产品牌的手机。
8、Pixel 3a:399 美元起
正如外界所预测的那样,谷歌在本次 I/O 大会上发布了中端新机 Pixel 3a ;这是 Google 在不到一年的时间里第二次发布新手机(Pixel 3 于 2018 年 10 月发布)。实际上,I/O 历来都以软件为主,硬件登上大会舞台并不常见。
首先,我们来看一下这一款手机的定价:官方宣布,Pixel 3a 的售价为 399 美元。从价格方面来看,这款新机确实要比之前的旗舰机 Pixel 3 更诱人。此前,Pixel 系列手机在软件方面表现优异,但销量一直欠佳,其中一部分原因就要归结于不菲的价格。
在配置方面,Pixel 3a 屏幕为 5.6 英寸,机身顶部预留了 3.5mm 耳机接口,电池容量为 3000 mAh,处理器为高通骁龙 670 处理器;Google 地图中引用了 AR 技术,能够实时识别摄像头内的地点是否与地图上的位置相一致——充满电之后的续航时长可达 30个小时;仅充电 15 分钟也能续航 7 小时。
非常值得一提的是,虽然这款新机只拥有一枚摄像头,但它的摄像头功能十分强大——具有人像模式、超高分辨率变焦和夜视等功能,可以在低光线下捕捉清晰的镜头。Google 发言人甚至自豪地说道,“别人使用昂贵设备拍摄出来的效果,Pixel 3a 通过 AI 计算就能轻松超越。”
除了摄像功能,Google 也特别注重 Pixel 3a 在安全和隐私方面的表现。据称,Pixel 3a 内置了Titan M 芯片,旨在保护用户的敏感数据;Google 还承诺,将提供三年的安全和系统更新,确保 Pixel 3a 免受不断出现的威胁。
不过,在外观方面,Pixel 3a 与之前的 Pixel 3 区别不大,均有白、黑、浅紫三个颜色可供选择。
另外,在渠道上,Pixel 3a 与Verizon, T-Mobile, Sprint, US Cellular, Spectrum Mobile (Charter), C Spire and Google Fi 等运营商达成合作,将在 13 个国家和地区进行销售。
9、Nest Hub Max:229 美元起
此前,Google Store 中曾出现关于“Nest Hub Max”的相关信息,不过很快就被移除了。在本次的 I/O 大会上,Nest Hub Max 的神秘面纱被揭开。
无论是在配置上,还是在功能上,Nest Hub Max 与之前的 Home Hub(该产品已经被重新命名为 Nest Hub)有点类似。不过,Nest Hub Max 具备了 Home Hub 并不具备的安全功能,也增加了一颗前置摄像头(可以通过一个物理按钮关闭来保护隐私)。当用户出门在外时,可以通过这款产品上装置的摄像头来观察家里的情况,如果 Nest Hub Max 检测到家里有陌生人,也会及时向用户发送信息。
Nest Hub Max 还有一个更加人性化的改进——手势识别技术。有了这项技术,用户在与设备进行交互时甚至可以不用发声,只需要看着摄像头,把手抬起来做一个手势就好。
Nest Hub Max 售价 229 美元,今年夏天在美国开售;另外,它在英国和澳大利亚的价格分别是 219 英镑和 349 澳元。
10、联合学习:Federated Learning
2017 年,Google 曾经发表过一篇介绍联合学习技术的博客,这一技术的重要特点就是在保护数据隐私的情况下来进行学习——它能够在不共享数据的情况下怎么能过来挖掘数据内在的价值,也就是在兼顾数据隐私的情况下同时又能提供智能服务。
以医疗为例,首先在不同医院用它自己的数据训练出来不同的模型,然后把这些模型送到中心处理器并整合为一个完美模型;当每个医院不停获取数据,通过把最新的完美模型下载到医院端,并将新数据导入,再推送回中心服务器;通过这样的步骤,新的数据不会被交换出去,被交换的只有模型,所以数据也不会被反向揭露。
在本次 Google I/O 中,Google 提到了联合学习,并表示它已经在 Gboard 应用中得到使用。
此外,谷歌宣布推出全新的BERT语言学习模型,并且将AI应用于糖尿病并发症的筛查和预测洪涝灾害。
谷歌首席架构师Jeff Dean表示,谷歌希望AI能像人一样流利的使用语言。在全新的BERT语言训练模型中,训练机器学习的时候可以随机隐匿部分单词,然后让AI去猜并填词。
随后他开始介绍TensorFlow。目前,谷歌正借助AI在印度和泰国对数千名糖尿病患者进行并发症的筛查,该模型刚刚通过了欧盟监管机构的批准,它可以对CT扫描图像进行精确分析。在一项测试中,该模型顺利发现了早期肺癌症状,而参与该项测试的6名放射科医生,有5名没有发现这个症状。
此外,谷歌正在研究将AI用于预测洪涝灾害,洪峰水位预测。去年,AI的道德问题引起了非常大的关注,谷歌也发布了禁止将AI用于武器和违背人权的研究,并加大了“AI 促进社会公益”的宣传。
来源:综合自雷锋网、凤凰科技