北京时间5月9日凌晨,为期三天的Google I/O 2018开发者大会在美国开幕。在本次主题演讲环节,谷歌CEO桑达尔-皮查伊(Sundar Pichai)和各产品线负责人讲解了自家的AI、Android系统、谷歌助手等产品的进展。
今年的主角依然是AI人工智能,它已经融入谷歌产品与软件系统中,但这次,谷歌在讲解AI或产品功能时候从理解人类和人性的角度举例,把AI带到了科技与人文的十字路口上。
AI:贴近人性并对人类有帮助
谷歌CEO皮查伊用两个卡通图标举例作为开场白,说明谷歌对信息真实的追求。AI是第一个被提及的话题,皮查伊将之具体到医疗领域,用视网膜扫描诊断疾病的具体案例来解释机器学习的能力,让观众能理解AI对人类的作用——“医疗就是AI能改变的重要领域”。
以往在Google I/O上大谈代码只有码农们兴奋而旁人无感的状况终于有所改进,皮查伊将每个技术点都具体化,例如谷歌相册中找到朋友的婚礼照片,下面会提示是不是要分享给她;或是一张较昏暗的照片提示用户要不要调整。
Google I/O 2018开发者大会期间,Google正式发布了第三代AI人工智能/机器学习专用处理器TPU 3.0。
TPU也就是Tensor Processor Unit,Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。
相比于传统GPU图形芯片,它使用8位低精度计算以节省晶体管,对精度影响很小但可以大幅节约功耗、加快速度,同时还有脉动阵列设计,优化矩阵乘法与卷积运算,并使用更大的偏上内存,减少对系统内存的依赖。
TPU 3.0的计算能力最高可达100PFlops(每秒1000万亿次浮点计算),是去年第二代的8倍还多。它还第一次使用了液冷散热,可以更高效地服务数据中心,便于定制硬件方案。
另外,谷歌公布了自己的人工智能专用芯片TPU3.0,相比上代,它使用液冷,计算力是去年TPU2.0的8倍,可以更快更智能解决更多问题。但这部分只有两句,并未过过解释。
Google Assistant:连声音都更像人类
Google Assistant(谷歌助手)是本次开发者大会介绍的第二个重要新品,它是谷歌的AI智能助手,这次更新带来6种新声音,并且发音更贴近人类自然语言,不那么像机器人发出来的声音。
皮查伊介绍说它的声调、节奏等都更接近人类。他们在录音室里采集了人类的声音,捕捉声音特质,之后分析特征融入Google Assistant中。
谷歌宣布了自己的AI语音助手发布2年后,已经支持30种语音,在80个国家可用;一些细节改变还有:1)持续性对话,不用每次都喊Hey Google唤醒一次才问一个问题,它可以连续回答;2)家庭使用场景,例如孩子跟谷歌助手对话时候,如果他比较礼貌的说“请”字,谷歌助手也会给更nice的回答——谷歌希望用这种不为人注意的细节,来告诉用户自己的AI助手有多周到。
除了声音,谷歌助手在视觉表达方面也有所改进。现场采用中国公司联想的“智能显示器”来展示谷歌助手在视觉方面给人们的反馈,还有手机上的语音搜索展示;在开车时候,如果用声音控制,谷歌助手也会融合在谷歌地图上,给人类声音 视觉展示,把导航这件事做得更好。
皮查伊演示了两个极为科幻的场景:你要理发,喊谷歌助手预定,它会给理发店打电话,并回答出理发店里店员“几点理发”“预定客人的名字”等信息;或者预定餐馆,如果没位置,它也能学会变通改预定时间——全程是谷歌助手(机器)在和一个人类流畅的对话,它的声音仿佛一个人类,回答方式也是一个人类,没有机械刻板的痕迹。
预约理发和餐馆这两个场景非常生活化,这么自然的场景,你手机里的智能助手就独立能完成。谷歌告诉世人,他们真的把自己的额智能助理变成了人,并在自己的发布会上演出了科幻片里的情节。
虽然我们相信实际生活中不会像舞台演示这么流畅,但谷歌助手已经展示了目前AI助手的发展方向,就是朝着人类的方向进化。
Google News:AI做新闻
谷歌自己不是媒体不做新闻,但他们的Google News用AI介入了人们阅读新闻方式,第一个特征可以粗略理解为高端版“今日头条”,它的有些方式很像关联阅读,你看了条朝鲜韩国领导人见面,它会关联推送其他相关新闻。
第二个特征,360度报道,让用户了解整个新闻的来龙去脉。比如某地停电,在新闻前后有这件事本身、人们需要做什么,以前以后相关的相关事件。他们想让用户知道一件事,并在后台绘制出一张脉络图,让用户完整理解这件事——这基本等于机器自己搭建了一个专题。
第三个特征是让用户订阅自己需要的媒体,目前Google News已经进入127个国家和地区,在Android和iOS上都能找到。
Android P:帮用户戒掉手机瘾
十年前,谷歌发布了搭载Android系统的首款手机G1,影响了智能手机的变化。如今的Android系统没有大幅变化,一切尽在细节中:加入了更多智能体现,例如根据用户习惯判别使用情况来节省电力;根据用户喜好(手机亮度跳到了多高等)来自动判别亮度,让用户大幅降低手动调整亮度的机会,号称准确率到了60%;应用预测,学习用户习惯和使用情景,来给用户提供有效的App建议。
在界面方面,Android系统的界面变得更简单,并加入了更多手势。在这点上,谷歌似乎借鉴了iPhone X的手势(或者说他们都借鉴了webOS),在现场演示的Pixel手机上,底部有个小横条,滑动返回桌面,或是切换App,跟iPhone X实现方式接近。
谷歌希望Android P能帮人了解自己用手机做什么,防止沉迷在数字世界里。比如现在每个App都能统计使用时间,看看你究竟用手机做什么;到睡觉时间提醒人类并把手机屏幕调成灰色——帮用户戒掉手机瘾。
今天Android P Beta测试版已经上线,在谷歌提到的适配手机厂商中大半来自中国:一加,小米,ov与索尼诺基亚等国际厂商放在一起,成为了第一批支持厂商。
Google Maps Google Lens:兴趣推荐
谷歌给地图加了更丰富的地点相关概念,利用AI和卫星图像技术,可以了解新地址和商家,另外推荐最近的路程和附近最适合你的餐厅。其实类似功能目前高德,百度地图等也有尝试。
谷歌地图这次跟手机摄像头结合了,例如你不知道在哪,打开镜头,它会采集街头画面,之后将实景与地图结合,告诉用户该想哪走。
这个功能其实Google Lens与地图的融合,它是一款基于图像识别和OCR技术的人工智能应用,这次被用在地图这种实用场景里;另外Google Lens本身也得到了加强,例如拍一张纸,上面的字可以识别并从纸上“粘贴”到手机里。
无人驾驶:车自己预判路况
2016年,谷歌的母公司Alphabet宣布将自动驾驶汽车项目分拆为一家单独的公司Waymo,这次的无人驾驶汽车和部分就由Waymo的CEO John Krafcik上台讲解,他介绍了Waymo无人驾驶汽车的近况:已在亚利桑那州凤凰城上路,AI的介入让无人驾驶的错误已经减少了100多倍,可让无人驾驶汽车更安全。
目前Waymo有2.5万辆车每天在路上验证各种路况。Waymo的讲解人举了个例子来说明神经网络的学习结果:无人车可以自己预测人们或车在横穿马路、闯红灯等行为提前预判,防止在过十字路口时候撞到闯红灯人或车。
总结:给AI加上人性
这是一场名副其实的开发者大会,没有硬件发布,也似乎没有一种系统是大革命性更新。这其实已经不是第一年这样了——AI的介入,让每件产品都有了机器学习的属性,更新在了潜移默化中。
相比之下,UI界面改头换面这种表层的惊喜少了,所有的改进似乎都是细枝末节。智能化的演进在每分每秒进行,根据用户使用习惯而悄悄变化。
对比之前,这场主题演讲特殊之处就是无时不忘提到AI对人类的帮助,以及AI资深的人性化(比如教小朋友说”请“),理工男们用这种方式让外界理解自己打造一个“更美好世界”的梦想,这也是硅谷所有科技公司的态度,所不同的是,这个目的是AI帮助人类实现的。(晓光)
来源:新浪科技