直播画面当中,马斯克已经驱动着特斯拉电车进入了自动驾驶模式。
虽然直播才刚刚开始几分钟,但马斯克显然很快进入了状态,开启了话痨模式。
他举着手机左拍拍右拍拍,并且时不时就会发出听上去不大聪明的笑声。
这让围观的群众们觉得甚是亲切。
“从目前展示出来的画面内容来看,马斯克好像只是自己一个人啊,搞这么大的事情他也不请个专业团队?”韩辞微微皱眉,她当然清楚这次的直播为得就是展示自动驾驶技术的能力。
但自动驾车毕竟是一件非常危险的事情,如果不谨慎对待,一会出了什么突发的情况,岂不是整個僵住了?
而且,自驾技术对特斯拉整个公司的市值显然也是会有巨大影响的。
做得好了价格起飞,直播出事,股价直接跳大水。
按照正常的方式,马斯克这么做是肯定需要跟高层股东们进行协商的。
不过马斯克显然不是正常人,至少孟繁岐事先并未接到风声。
他知晓系统好像快要完成了,但对直播一事一无所知。
“要我说的话,这套自动驾驶系统还不成熟。马斯克这么做的确有点托大了,不过这也是他一贯的风格。上来先吹个大的,到时候倘若做到了就美滋滋到处显摆,出了意外呢就直接火速装死。”
孟繁岐回顾马斯克此前造电车也好、火箭也好,还是各种其他的先进技术,向来都是牛皮提前先吹满的,没有提前吹牛,事情岂不是白干了?“毕竟只要你最后成功了,大家就几乎只会记得这个完美的结局,途中的那点波折,就显得似乎无关紧要了。”
“前面好像有路障,是在施工吗?”韩辞紧盯屏幕,打断了孟繁岐。
马斯克的展示之旅似乎并不顺利,一上来就碰到了比较少见的情况。
“我们这里遇到了一些施工,不过车子还是顺利地行驶通过了。”马斯克的声音似乎稍微有一些紧张。
“施工路段在特斯拉的数据以及各种车载统计当中,有肯定还是有的。但比例估计蛮低的,并且不同的施工路段,根据其道路情况,以及任务的不同。他们布置的路面设施差异也是不小的。”孟繁岐知道其中的难点,不过他参与特斯拉的自驾系统没有那么深入和内部。
因此也无法预判,这套系统能否顺利通过。
但在他看来,应该是问题不大的,因为这里是在路边人行道和外侧车道进行施工项目。
说是路面施工,但仅有外侧车道中的一个受到了影响。
施工团队在路面上的布置,也仅仅只是放置了很多塑料桩,将剩下的道路一分为二,引导往来的车辆通行。
特斯拉的自驾系统相当淡定,并没有什么显著的反应,就如通过普通路途一样,稳稳当当地开了过去。
“虽然道路窄了一些,这些塑料桩的位置也和原本的车道线有些出入,但这一套系统是有神经辐射场的,并非单纯通过平面图像判断,顺利通行是理所应当。”孟繁岐知道此前的一些视觉自驾方式是根据车道线来调整车辆位置的。
这种方式不能说错,但肯定是取巧了。
在空旷的道路上行驶没什么问题,一旦遇到类似这样的事情,就容易影响判断。
路障不在车道线上,前后车辆行驶不够规范之类的。
如果不能精确感知三维空间的距离,单靠视觉判断方位肯定是有所缺陷的。
好在神经辐射场能够重构三维空间,使得自驾系统能够做到清晰地判断塑料桩在空间中相对于车辆的位置面积。
车辆能够轻松判断这些地方有没有物体,是否能够通行,这就给相关的各种判断提供了很好的基础。
至少能够在各种极端情况下保证了最基本的碰撞不会发生。
因此孟繁岐基本可以确信,特斯拉的车辆可以顺利通过。
不过对于特斯拉究竟是怎么做的控制理论,孟繁岐不算了解。
“这里现在应该还是配合了某些策略去做的,不是端到端的决策方式。”孟繁岐口中的端到端,指得是直接从图像到车辆决策的方式。
AI模型的输入就是车辆周身的摄像头获取的图像,而输出,则直接作用于车辆自身的操控。
直接决定车辆的前进后退,加速减速等决策。
换句话说,人类彻底不需要对这个过程当中的任何中间状态和信息进行专门的分析判断。
图像进去,车辆行动,这两件事情之间的所有任务完全交给人工智能模型来做。
这一点,孟繁岐认为目前的特斯拉是大概率没做到的。
“他们应该还是对神经辐射场重构出来的空间情况做了对应的策略分析的。先重构场景,然后再根据周边情况去人为地设定一些规则去指挥车辆行动。”孟繁岐对这方面细节虽然不大了解,不过大概情况他还是明白的。
也就是说,特斯拉的这一版本系统,图像进去,AI模型给出的只是三维空间的感知情况。
特斯拉基于这些距离信息来专门制定一套控制车辆的策略系统,人为地写入了很多代码和逻辑来避免一些人们不希望看到的事情发生。
“这里其实还是存在一个相当严肃的问题,那就是车辆进行判断,到底是应该都交给神经网络还是应该人们自己进行控制理论的分析。”可解释性和原理在AI中的缺失,是韩辞的老师鄂院士一直以来想要解决的问题之一。
目前这方面的进展不能说是完全没有,也只能说是聊胜于无了。
最多只能算得上是一种慰藉,表明大家其实还是在意如何从理论上解释强大的AI这个问题的。
至于具体的进展成果...还是快别说了。
在这样的背景之下,倘若真的完全把汽车的控制权交给人们自己也解释不清楚的AI,可能会是阻力非常大的一件事情。
“先感知,再自己控制决策,这算是取了个巧。”孟繁岐知道,虽然神经网络的可解释性不强,但神经辐射场的理论还是比较漂亮的。
马斯克以此为基础感知三维世界,这部分内容不会有特别强的伦理道德压力。
感知了三维世界之后,再使用传统的控制策略分析决策车辆的行为。
最关键的一步,特征到机器决策这件事情上没有使用缺乏解释性的AI模型,而是使用了大家都可以接受的方式进行决策。
这在目前阶段的确是最佳的策略。
“不过端到端的方式更难训练,说不定我们也只是高估他了,马斯克也有可能是单纯得做不出来。”孟繁岐和韩辞两人分析得头头是道,谁也没想到其实唐璜的猜测才最贴近事实。
端到端地让模型直接训练,模型的学习压力和拟合难度太大了。
对于人类来说,从大量图像上重构并测算三维世界的情况很难,但做出驾驶的决策很容易。
但对人工智能模型来说,恰恰相反。
重构三维世界简单,让它直接做出正确的驾驶判断则难如登天。
“这里其实是一个很简单的信息论知识,信息和知识是无法被无限压缩的。很多人都会理所应当地觉得,好像所有的真理都可以被压缩,总结成人类都能理解的样子。最好是牛顿的定理那样,两三句简单的话就把世间万物的运行规律给总结了。”
“之后呢,只需要凭借几句【真理】就能够轻松认识整个世界,随意地进行智慧的决策。倘若做不到,就认为这种路线是错误的。”神经网络近两年连续的突破,使得不少民众都对这种技术有了过高的期待。孟繁岐认为这样的幻想稍微有点不切实际了。
人们对技术的能力期待过高,同时也对解释它们的难度存在不正确的认识。