一、什么是无图智能驾驶?
无图智能驾驶是一种基于传感器和人工智能技术的驾驶系统,它不依赖于图像信息进行决策和控制。相比于传统的视觉感知系统,无图智能驾驶利用雷达、激光雷达、超声波等传感器获取环境信息,并通过深度学习和机器学习算法进行实时分析和决策。
这种技术可以在低能见度、夜间或复杂道路条件下实现自动驾驶,提高驾驶安全性和可靠性。同时,无图智能驾驶还可以减少对计算资源和带宽的需求,降低系统成本。
二、华为无图智能驾驶是啥?
华为无图智能驾驶是一种基于传感器数据和人工智能技术的自动驾驶系统。它不依赖于地图数据,而是通过车载摄像头、雷达、激光雷达等传感器实时感知周围环境,并利用深度学习算法进行实时决策和控制。
这种无图智能驾驶技术具有较高的适应性和鲁棒性,能够应对复杂的交通环境和道路情况,实现高度自动化的驾驶。华为无图智能驾驶技术的研发目标是提升驾驶安全性、减少交通事故,并为用户提供更加便捷、舒适的出行体验。
三、岚图用的什么智能驾驶芯片?
据我所了解,岚图使用的智能驾驶芯片是英伟达(NVIDIA)的Drive PX平台。这款芯片是专门为自动驾驶和智能车辆开发的,具有强大的计算能力和对环境感知的能力,能够实现图像识别、目标检测和路径规划等功能,从而实现智能驾驶。
四、请检查智能驾驶辅助雷达可继续行驶什么意思?
这个意思是指智能驾驶辅助雷达检测到车辆周围环境是安全的,也就是说可以继续行驶。原因是智能驾驶辅助雷达通过感知周围环境获取到路面、车辆、行人等实时数据并处理,根据这些数据来进行判断、预警或者控制车辆的行驶。在检测到周围环境是安全的情况下,辅助雷达会发出提示,告知驾驶员可以继续行驶。如果驾驶员按照这个提示进行行驶,可以大大降低交通事故的发生率,保障车辆的安全行驶。所以,智能驾驶辅助雷达是非常有用的车辆安全辅助装置,可以有效地提高驾驶安全性和驾驶效率。
五、收到东风岚图智能驾驶offer值不值得去?
岚图几乎是政策强推的产物,不太可能发展成为正盈利的高端品牌。
吉利如果给你的岗位细说一下,值得和小鹏PK。
六、如何看待魏牌 CMO 乔心昱称「真的不是装了激光雷达,就是真上车」?怎样才算真正有实力的智能驾驶?
乔心昱这么说是因为激光雷达是为了城市辅助驾驶而准备的,现在各种激光雷达的上车算是“预装”。虽然激光雷达车型已经上市了一堆了,但目前已经实现的高速辅助驾驶并不需要用上激光雷达,而需要用上激光雷达的城市辅助驾驶还没有一家车企落地,消费者并没有真正享受激光雷达带来的价值。
辅助驾驶作为现阶段智能汽车最大的卖点,可以帮助乘客从从A到B实现不干预的自动驾驶,系统会自动规划路线、自动加减速、自动变道。
辅助驾驶场景可以大致分为两块:高速和城市。高速由于是封闭道路,实现辅助驾驶难度相对较容易,所以绝大多数车企的辅助驾驶都纷纷优先选择先落地高速。但我们也知道,绝大部分人买车用车的场景其实是在城市,只有城市也实现了辅助驾驶,辅助驾驶的实用价值才会大大提升。于是城市辅助驾驶这一场景是智能汽车的下一个兵家必争之地。
不同于高速,城市有大量红绿灯、环岛、并线的操作,车道线也常常不清晰,同时城市路况经常人车混行,因此也需要更强的感知器件来识别不同交通参与者,于是我们看到激光雷达作为一种强力的感知元件,在近几年批量上车。
装激光雷达是为了更好地实现城市辅助驾驶,现在城市辅助驾驶还没有一家实现,这种软件未定,硬件先行的批量上车也叫“前装量产”。虽然激光雷达是被装上了车,但现在就算是城市辅助驾驶的Demo,发布的车企也屈指可数(小鹏、华为、智己、魏牌)。
激光雷达的价格不菲,消费者花大价钱购买回来,系统却迟迟不启用,显然是不划算的。购买包含激光雷达车型需要去关注车企落地城市辅助驾驶的时间表,这样才知道自己花的钱到底什么时候能“返现”。
在城市辅助驾驶的赛道上,目前跑得最快的车企是魏牌和小鹏,魏牌打算在今年Q4落地城市辅助驾驶NOH,而小鹏的时间点则是在明年落地,同样发布了城市辅助驾驶Demo的华为和智己则没有公布落地时间。
虽然魏牌在城市辅助驾驶上冲在了最前面,但魏牌的激光雷达车型才刚刚在成都车展亮相,也就是摩卡DHT-PHEV激光雷达版。对于魏牌来说,激光雷达上车是首次,但城市辅助驾驶却最快。这也意味着魏牌打算让这刚上车的激光雷达立刻投入使用,而不再是“前装量产”。
谈到自动驾驶,大家第一反应大部分还是新势力+特斯拉,这一次魏牌可以说是横空出世。魏牌之所以能快速落地城市辅助驾驶,也得益于其长城旗下的自动驾驶公司毫末智行。
毫末智行作为一家自动驾驶的后期之秀,已经发布了包括日间和夜间两种情况下的城市辅助驾驶,这项技术的落地,也就是摩卡DHT-PHEV激光雷达版的城市NOH。
这次城市辅助驾驶的落地用上了激光雷达,摩卡DHT-PHEV激光雷达版的激光雷达用的是2颗125线激光雷达,分别放在车头两角。配合5颗毫米波雷达、12颗超声波雷达、百万级像素环视摄像头四个,侧视摄像头四个,4颗800万像素感知摄像头。
这样的布置方式主要是为了探测城市路况下大量出现的加塞、行人或骑行者闯入。这两颗激光雷达不止在两侧可以对这些闯入的交通参与者进行快速反应,还可以对中央摄像头进行补盲,实现360度全覆盖。
城市环岛就是一个激光雷达派上大用场的场景,因为环岛会出现大量横向穿过的车辆,必须找准时机,从这些穿流而过的车辆甚至是摩托车中找准机会汇入车流,这就要求高频实时地对前面的交通参与者进行感知。
毫末智行曾发布过一个城市NOH一镜到底的视频,视频里的01:50就出现了环岛场景。视频里的环岛场景就出现了比较复杂的交通状况,需要完成避让穿过马路的行人、避让左侧方横穿的电动自行车、顺着车流往前三项任务。环岛的交通参与者非常多,激光雷达的加入,让车辆的感知系统做到了实时准确地将这些交通参与者都探测出来,并且引导车辆从这些交通参与者中间找准机会顺着车流驶出了环岛。整个过程非常自然,就像一位眼观六路的老司机。
激光雷达一直以来都被放在了视觉路线的对立面,特斯拉走的是纯视觉路线,并且坚决反对激光雷达,认为太多的传感器之间的输出结果不一样还会带来比较困难,还不如用一种传感器。
但就算是纯摄像头,也意味着单一传感器就只会输出单一结果。特斯拉的摄像头也有八个,同样也存在八个摄像头之间输入结果的融合问题。
特斯拉的做法是现将八个摄像头融合到一个向量空间里,让八个摄像头之前互补,构建起统一的3D空间结构,再在这个统一的3D空间里做决策。这样的方式叫做“前融合”。特斯拉把这套融合网络叫做“九头蛇网络”(Hydranet)。
所以关键并不是在于传感器的多少,而是能不能把不同传感器的传来的数据,映射到统一的向量空间里来做决策。于是我们看到了在毫末智行的方案里,他们也将摄像头拍摄的图片数据和激光雷达的点云数据先做前融合,映射到同一个时空坐标里,再做决策。毫末把这个融合机制叫做Cross-domain association。
这样的好处是可以结合图像数据和激光雷达点云数据两边的优点。
图像数据包含丰富的物体轮廓信息,方便用于进行物体分类。而激光雷达的点云数据包括物体的3D结构和位置信息。两者结合可以让系统快速定位物体的类型和距离。这样激光雷达就真正参与了辅助驾驶的决策,为辅助驾驶提供高质量的位置信息。
当然做到以上的一切的前提是,你得把不同种类的数据映射到同一个向量空间里。
这时大名鼎鼎的Transformer算法就登场了。目前特斯拉的八摄像头融合和毫末的激光雷达和图像的融合都用上了Transformer。
Transformer的首次应用是在谷歌的翻译算法上面,计算机有一类问题叫做自然语言处理(NLP),比如谷歌翻译就是一个NLP问题,系统需要识别人说的话,加以理解并且转换成另一种语言。
NLP问题里的一大难点就是人类的语句千变万化,经常会在很长一段话后再次指代前面提到过的对象,比如下面这段英文的指代词’it’指的其实是句子开始的动物(animal),而不是离它更近的街道(street)。
这样的结构就常常会让翻译的循环神经网络RNN懵逼,因为RNN是一个序列算法,会随着序列的变长而衰减,当你说到it的时候,RNN很可能已经把animal忘得差不多了,会认为It指的是离它词语更近的street,从而导致翻译错误。
于是谷歌搞出了Transformer。
Transformer直接把所有的词语全部打散,无视句子的结构长短,分别计算每个词语其他词的特征关联程度,如果两个词的特征关联度高,即使句子再长,它也会把两个词联系起来,这就让Transformer一出生就击败了包括循环神经网络RNN和卷积神经网络CNN等老牌算法[1]。
翻译问题上把两个词联系起来,本质就是一种映射。
由于Transformer过于暴力好用,于是谷歌想,有没有可能把Transformer也用在图像识别领域,用以识别不同图像之间相同的物体。
于是Vision Transformer (ViT)就诞生了,ViT仿照语句翻译问题,把同一张图切分成不同的小图片,并分别识别这些不同小图片之间的特征相似度,由此判定整个大图片里分别具有哪些物体[2]。
在ViT上谷歌野很快搞了个Demo出来,发现Transformer在图像识别上同样也有奇效。只不过ViT要求的数据量级要很大,非常大。只有在超大数据集的情况下,ViT的识别精度才会水涨船高。在小数据量的情况下,卷积神经网络CNN仍然是上选。
但要求超大数据集对于像谷歌这样的大公司来说根本不是问题,于是ViT从2020年一经发布,就把统治了计算机视觉40余年的卷积神经网络CNN的精度给超过去了。
Transformer要求超大的数据量,并且好像永远的吃不饱,随着数据量的上升Transformer的精度一直在上升,不像CNN在数据量上升到一定程度精度就停滞了。
这样要求超大数据量的算法,正常来说是个劣势,但放到拥有超大数据量的自动驾驶车企就不再是问题了。这对于拥有大数据量的公司来说是个好消息,意味着数据越多,上限也越高。
于是我们看到了特斯拉用Transformer来融合自己八个摄像头的图像数据。而毫末智行则用Transformer来融合摄像头和激光雷达两边的数据。
经过Transformer的融合后,智能驾驶系统就可以在一个统一的向量空间里做决策了,这样的会让整个系统决策的流畅程度大幅提升。高通Snapdragon Ride平台首发的5nm骁龙8540和7nm骁龙9000被用在了摩卡DHT-PHEV激光雷达版上,算力有360TOPS,为激光雷达和图像的融合和决策提供充足的算力。
不久前毫末智行有发布夜间NOH Demo的Demo视频,视频里的01:45秒出现了一个需要绕开违停车和逆行外卖小哥的场景。系统先是看到了有量压线停车的车尾凸在了外面,当系统想绕行时又遇到了一个逆向的外卖小哥。这时候系统的决策的优先级就变为优先让行外卖小哥,之后再绕行违停车辆。虽然这个场景涉及两个决策目标,但整个过程非常丝滑自然。并没有出现犹豫抽搐的决策打架。
目前业界采用Transformer实现城市级别辅助驾驶的公司也只有特斯拉和毫末,但其代表了以后城市辅助驾驶的发展方向。在自动驾驶的争夺战中,毫末可谓是毫无包袱,并没有拘泥于激光雷达或视觉之争。而是俱收并蓄,并通过先进的Transformer融合到一起,取长补短,最终把城市辅助驾驶的落地进度冲到了所有车企的最前面。
目前虽然有大量车上了激光雷达,但谁能真正落地城市的辅助驾驶落地,才是是各个车企激光雷达价值的试金石。自动驾驶的研发不仅有各种新势力,像毫末智行这样大集团孵化的自动驾驶公司同样干劲十足,助力摩卡DHT-PHEV激光雷达版成为最快落地城市智能辅助驾驶的车型。城市辅助驾驶的落地意味着从高速到城市的全覆盖,大大提高了辅助驾驶的实用价值,这也正是激光雷达上车真正的价值所在。
七、名图智能款驾驶室车门上的按钮是干嘛用的?就是中间的那个按钮?
前面的是调两边耳朵的角度的,后面是升降四个窗子的,中间是锁定四个窗子的
八、在机器人或者人工智能领域如何选择研究方向?定位建图、路径规划、感知、协作,哪一个前景更好,更值得去做?
“在机器人或者人工智能领域如何选择研究方向?定位建图、路径规划、感知、协作,哪一个前景更好,更值得去做?”
限定在2020年一月份
现阶段是感知最值得做,特别是基于视觉的传感器融合技术,机会较多,新成果也较多,论文较好写,也更容易获得。提供了更广阔的发展空间。值得进入。
路径规划之类的研究已经较多,成熟度相比感知已经很好了,再发论文或者做出成绩较难。
定位建图(slam),激光slam方面二维已经比较成熟并广泛应用,三维受限于成本等因素还有研究空间,但是现有理论难以用于大场景连续建图,距离实用尚有距离。特别是成本过高严重限制了slam的应用。因此视觉slam现在研究的人较多,因为研究空间更大。说到底slam的问题与传感器密切相关。
至于协作,我没研究过,不便多说。个人感觉这个需求不紧迫,周围人投入较少,似乎是个比较冷的方向。