造成这个现象的原因可能有很多种,比如摄像头的运算帧数不够。
导致前车离开,信号灯显露出来之后,自动驾驶系统没能在短时间内捕捉到信号灯情况做出反应。
又或者是那一大坨的屎山代码逻辑上存在漏洞和缺陷。
毕竟人类是很难总结出符合所有情况的判断逻辑的,总会有一些非常离谱,令人根本意想不到的情况跳出那一大串逻辑之外。
对于具体原因,孟繁岐眼下无法判断清楚,也就没有乱说话。
他瞥了一眼电车的后座,上面放着一台微型服务器和供电设备。
很容易就能看出,这东西的功耗不低,至少得有小几百瓦。
“看来算力上应该没有问题,马斯克这一次并没有使用车载设备来进行展示。”孟繁岐起初还在纳闷,为什么这套系统运转得这么流畅。
原来是根本没有拿车载芯片设备在运算,马斯克在后座下面放的是服务器级别的专业显卡,算力和功耗都是车载型号的好几倍。
孟繁岐心中偷笑了一下,按这个速度,恐怕要等到17年初老黄在更新一代框架,特斯拉才能真的上线这套系统了。
“如果纯用AI做端到端的操控,说不定会比现在这样AI加控制理论的方式要快不少。”孟繁岐清楚算力是特斯拉的一大瓶颈。
特斯拉虽然赶出了一大坨控制逻辑,可一方面,这些控制逻辑本身的判断运算量也不低;另一方面,像刚才的情况,它还是出了一些小问题。
这种现象到底为什么会发生,想要解释起来并没有想象中的那么容易。
“你说得有些道理,我们现在版本的控制逻辑,有接近二十万行C++代码。以后搞不好还会继续增加,它会对我们的运行速度有一定的限制。我最终的目的是希望达到60帧左右的水平,这样就几乎与人类相差不大了。”马斯克当然也考虑过这方面的事情。
“只不过,想要脱离这些控制逻辑的话,就需要更加大量的数据。如果发现汽车在某种情况下表现不如人意,就继续大量提供这方面的例子,以针对训练,更新模型的权重。”马斯克与孟繁岐一样,同样被计算能力所制约了。
这样庞大的数据加上反复更新,目前的显卡有些难以支撑。
为了尽可能不跳票,马斯克不得不采用了AI加控制系统两步走的思路。
平心而论,孟繁岐觉得它总体还是挺强的。
在当下的时间点,孟繁岐想要复现ChatGPT,在规模上都打了折扣,还是利用后来的许多技巧弥补上来的。
而马斯克,短时间内堆积了一大坨控制逻辑,能够在现有条件下做到这個程度,已经相当不容易了。
“数据的确比较重要,不过大量平庸普通的数据其实起到的帮助效果也不大。以这里的车辆数目来看,难度还是不够。可以考虑去华国统计一批,直接地狱难度给你拉满了。”孟繁岐半开玩笑,另一半倒是实话。
以华国一些大城市的密集程度,那种场景下的自动驾驶难度恐怕要比奥托市这里平坦路况困难不少。
“哈哈,听起来像是个好主意。过两个月特斯拉在尚海的工厂就要竣工了,我会考虑在尚海收集大量数据。”马斯克说道这里愣了一下,又补充道:“如果方便的话。”
估计是想到了华国的具体道路等信息,可能并非那么容易的事情。
“其实大家不用太过在意偶尔需要用户介入的地方,目前我们只处于低等级的自驾技术水平阶段。但是呢,特斯拉会持续地学习用户个人介入的地方,尝试去理解,去弄明白为什么用户会在这个时候介入,人类的介入又是做了怎样的操作。”
“这就意味着,特斯拉的自驾系统会持续地迭代升级。这是一个非常良性的循环,我们会有极大的用户群体,每天都能够在天文数字级别的里程上继续更迭,学到更新,更加智能的操作手法。”
“也就是说,这种需要人为介入的情况将会越来越少。”马斯克非常自信地语气成功消除了不少人心中的疑虑。
截止到目前为止,马斯克已经直播了差不多三四十分钟了,的确也只有方才红灯前介入了一次,并且也没有造成任何的后果。
其他时候的运行情况,看上去都流畅智能得不可思议。
“这件事情目前还是无伤大雅的,自动驾驶技术最大的难点还是一个代价的问题。没有限定好责任到底由谁来承担,车主,技术提供者,还是汽车厂商。所以在这件事情彻底解决之前,我想即便自动驾驶功能正式发售,各国政府也会出台规定,要求车主在驾驶过程当中必须要集中注意力。”
“多半会限定车主的行为,乃至于要求车主的手必须要在方向盘上才能够进行自动驾驶行为。因此,这点瑕疵还不是现在的主要问题。”孟繁岐这倒也不是替马斯克说话,实情便是如此。
即便存在一个实质上十万公里不需要用户接管的自动驾驶技术,未来十年内仍旧是看不到完全开放的可能的。
这个后果和责任到底是谁来承担,难以处理。问题一日不解决,再强大的技术也只能被束缚在【辅助驾驶】的框架里,无法取代驾驶员。
“我个人没有在自动驾驶方面投入太多精力,不过目前特斯拉的自驾系统,我也算是贡献了不少关键部位的。依我之见,感知加策略的形式上限还是比较有限。”
“这种形式在早期可能比较容易取得成果,不过其上限却被制约了。端到端直接由AI来决策的形式天花板则要高出不少,虽然早期会遇到很多困难,比如数据不足,算力不足,方法策略不成熟之类的。”
“但一朝融会贯通,就是通往L4、L5级别的康庄大道。”孟繁岐的这个观点有相当部分是个人的猜测了,并不如前面的许多事情上,有未来的技术成果作为验证。
不过根本的原理是类似的,AI模型是一种用【数字矩阵】总结某种抽象规律的行为,这种总结人类不好解释,也基本无法理解为什么。
而人类的一整套控制理论,则是用人类认可的规则与逻辑总结得来的一整套方法论。
就像是很多游戏中的套路和打法一样,【如果敌方XXX,我就XXX】,【敌方出了XXX装备,那我出XXX来克制】。
这种因果关系非常直接,人类能够轻松理解,便认为是合理的科学的。
但实际上未必如此。
就拿阿尔法围棋举例,人们几千年来总结了那么多的规律,这种下法,那种定式。
这么下【势】比较厚,下那里比较赚之类的。
形成了一套约定俗成的【规律】和【方法论】,似乎都能解释,都成体系。
可阿尔法零直接从零学起,棋力胜过所有人两个大层级。
在一些所谓的最佳定式和解法上,阿尔法零有完全不同的判断,往往是人类所不能理解,也不懂的。
可围棋的对错很简单,就是目数胜负。
本章未完 点击下一页继续阅读