想给AI泼冷水,你得先看看现在AI发展成啥样了

百度AI开发者大会引爆热搜,尽管有网娱化的段子在其中推波助澜,但其对于人工智能的严肃判断并没有因此而消解。谈到人工智能,人们的印象更多的还停留在阿尔法狗击败人类的弈棋之争上,对于其他方面则不甚了解。事实上,AI在现在乃至未来都将重新塑造我们的生活方式。

1945年著名的图灵测试设想问世,试图对“智能”进行标准定义,对后续人工智能的发展带来了深远的影响;在1956年,达特茅斯会议召开,并且确定了“人工智能”名称以及任务;在随后的发展中,AI在面临低谷和高潮中演进了自然语言、专家系统等不同的方向。彼时,在摩尔定律影响下,计算机性能不断增强,结合大数据和深度学习,人工智能有了更多可以结合的方向。

AI领域在不断演进,而百度AI开发者大会也并非第一次开。自17年开始,每年七月份大会都要就AI的应用方向,前端技术进行分享,从AI基础技术、到智能云、乃至无人驾驶、计算机视觉等领域都有涉猎。而国内发力AI的也不是百度一家,阿里巴巴、腾讯、华为、科大迅飞也都有着自己的技术分享会。

人工智能火热,而这项新兴技术方向与方向之间、技术和行业之间的融合也为行业发展带来了新的思路。而中国信通院去年发布的《人工智能发展白皮书》也对产业进行了梳理,细分以下几个类别:

自动驾驶

自动驾驶作为新兴领域目前尚处于技术火热阶段,入局者虽多,但落地产品商用仍是少数。对于自动驾驶分级,美国NHTSA(高速公路安全管理局)和SAE(国际化自动机工程师学会)持有不同的划分标准。

由于技术优势并不相同,传统车企和互联网公司选择了适合各自的起步方向。为了保证技术的自主权,前者利用对供应链的整合优势和制造技术大多从L2向着L3级别演进。例如上汽在16年就已经获工信部批准成立了国内首个“国家智能网联汽车(上海)试点示范区”,可以进行无人驾驶、自动驾驶、V2X网联测试;18年则是与Mobileye达成合作,其自主研发的自主开发的智能驾驶中央控制器将会搭载Mobileye的视觉芯片;及至今年5月上海科技节,上汽推出了达到L3级别智能驾驶车型上汽荣威Marvel X。

相比于传统车企倾向于量产,互联网公司打造自动驾驶更多的是从L4级别出发,想要打造出自己的整套自动驾驶方案。在这方面Alphabet拆分出的Waymo相信大家非常熟悉,近日Waymo也已经获得了加州政府的载人许可,但需要配备相应的驾驶员。在国内,自动驾驶一直是百度的主攻方向,在这次AI大会上,百度也推出了自主泊车方案,可以通过APP实现车辆自动进出库。并且官方表示已经接到了相应的工厂订单。

在技术实现方面,自动驾驶并非是单一AI技术的应用,它也需要诸如计算机视觉这样的技术来进行配合。在硬件上,自动驾驶要求汽车周身拥有各样的传感器,测距、识别、中控领域都有所覆盖。在软件上,汽车需要通过相应的技术来对这些“感知”进行处理,例如通过多目摄像头的视差作用来进行初步的测距,通过与深度相机的配合,再传达到中控进行处理。在经过大量数据计算训练之后,中控会对路况、行人环境进行判定区别从而采取相应的行驶策略。

从市场角度来看,目前自动驾驶属于实验试错阶段,距离真正的商用还有一段距离,而商用量产落地主要聚焦于L3级别。考虑到安全因素,L4级别更多的是从短途需求出发(类似自动泊车)来逐步铺开商用。去年笔者曾到海淀公园体验过百度无人车乘坐,在驾驶和避让方面都表现不错,但车速由于安全限制较慢,主要目的还是调试和收集数据。

去年10月,Waymo公布累计总里程数大约为1600万公里,而在今年北京市交通委、公安交通管理局、经信局正式发布联合发布的《中国首份自动驾驶路测报告》里,百度在2018年测试里程数将近14万公里,占据自动驾驶车企里程数90%以上。可以预见,在正式投产商用之前,自动驾驶还需要更多的里程数,不同路况路段车况来进行经验积累,最终成为“老司机”。

计算机视觉

计算机视觉(CV)作为AI应用的另一分支,在当下已经拥有了大量的落地场景。除开对自动驾驶这类新兴技术提供感知等领域支持,计算机视觉还广泛应用在安保、图像处理、医疗等领域。

在如此多的领域里,计算机视觉的应用其实就一直存在在我们身边。相信大家都有过进站乘车的经验,而现在有些站点只需要你刷身份证,然后冲着摄像头验证就可以顺利进站,节省了检票的人力成本;还有办公室周围的自动售卖机,不少都提供了“刷脸支付”方式,不用带手机不同扫码就可以购物;再来个更近点的例子,手机拍照AI美颜、萌拍功能都可以针对你的脸部细节进行改变。

包括这些,还有诸多应用都是计算机视觉的功劳。在大量数据深度学习下,我们能够通过计算机视觉来实现机器对图像的感知识别,从而延申出识别、检测、修改等不同功能,再依托强大的算力来解决更多人力难以完成的问题。

而计算机的应用一方面是依托于硬件,以手机为例,我们熟悉的iPhone X搭载了3D结构光结构。作为深度相机的一种,它和TOF(Time-of-flight) 3D、双目相机可以为设备获得到具有空间信息的深度图。通过对脸部高低不平的特征点的识别,iPhone X来进行解锁,这也是为什么纸面照片无法解锁的原因。

在应用这一块,计算机视觉相当于基础技术“积木”,通过与不同设备需求的结合,能够创造出更多定制化的场景。而在这块市场中,诸如商汤科技、旷视科技、依图科技等公司都有着不小的份额。据前瞻产业研究院的汇总,2020年过国内计算机视觉市场乐观估计将突破1000亿,市场前景广阔。今年5月旷视科技D轮总融资7.5亿美元,金额最为其最高的一笔单笔融资,估值超过40亿美元。

技术融合将是趋势

正如开篇提出的,自动驾驶和计算机视觉两者分别是基础应用以及复合应用,因此前者在未来还会基于场景不同加入更多的IA技术。如果说计算机视觉解决了自动驾驶的“感知”问题,那在物联网的趋势下,它还缺少一个入口。以往我们是以屏幕触控的方式来进行交互,但由于当下场景限制以及交互方式的丰富度,语音要更加合适成为交互入口。

而这一领域就需要自然语言识别处理(NLP)技术支持,而自然语言处理主要包括机器对人类输入语言的识别、理解以及转换成自然语言的输出。作为伴随AI发展延展到今的分支,各路厂商也都积累了不少技术并且拿出了自己的整体方案。例如小爱同学、天猫精灵、小度都是NLP技术下的产物,再结合应用落地,我们可以将其结合到智能音箱、智能手机、车载系统乃至翻译笔等硬件上。

除此之外,知识图谱的基础技术也广泛应用在我们的日常生活中。例如天眼查中对于实体之间的属性标识和关系网整合,或者是搜索引擎中对关键词(特定语义下的实体)之间关系的集合,当用户检索某条信息(例如太阳有多重)的时候,搜索引擎会对检测句子进行语义检测,提出关键词(太阳和重),如果触发知识图谱语义网络中的对应关系,就可以直接返回结果。

如果没有就会触发就会返回正常搜索结果,按照关键词来进行内容检索,例如上图。不过知识图谱也存在一定的挑战,对于类似“金星”这种多语义的关键词或者检索语句过于简单,机器正确识别语义还存在一定困难。而知识图谱技术也可以与其他技术进行融合,例如语音问答,当你发问的时候,机器也会对内在语义网络进行关系连接,并且直接给出答案,提高检索效率。

在移动互联网成熟,物联网起步的阶段,我们其实已经用上了很多AI技术,只不过它们以硬件结合的方式藏在了我们的身边。等到5G+AIoT风口到来,诸如边缘计算、万物互联等特性势必会赋予AI更多的发挥空间。

而对于厂商来说,AI技术发展日新月异,在这场未来物联网之中储备好AI技术是一方面,另一方面则需要结合技术面输出更多的应用场景也十分重要,而在现在,AI就已经在生活中扮演了重要的角色。

未来已来,AI相随。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();