汽车吧 关注:4,348,016贴子:63,645,664
  • 44回复贴,共1

这次测试关于雷达和视觉,我的看法

只看楼主收藏回复

测评里面雷达的干不过纯视觉
仔细想想好像也有点道理
对于雷达探测,车机处理是按雷达探测范围去做应对方案,在正常行驶中给人的感觉就是能“提前预判“让人觉得”智能,放心”
同样也是因为雷达能“先于”人发现危险,虽然提前做出了应对,但是当人发觉危险的本能反应就是抢方向盘踩刹车,导致智驾退出,反而会造成更大的危害。这个系统里面“人”才是最不稳定的因素。
视觉方案的精确探测范围较小,和人眼且做出判断时间接近,即便因人接管中断,只要不乱操作,相对来说也会降一些风险。
设想一种情况,同样大于安全距离跟车的情况,前方急刹,雷达因探测距离较大,且如果旁边车道后方没有来车,雷达方案大概率是保持速度直接变道,但是在驾驶员眼中感受到的就是前面急刹了,自己的车好像没没反应,着急的人可能就开始接管方向盘,踩刹车,反而导致预定方案的中断,造成事故。
如果是视觉,等视觉发现前方车辆刹车,因探测范围小,车机的方案大概率就是跟着刹车减速,符合人的应对行为,所以看起来更加安全可靠。
这从实际应用去分析的,如果仅看两种方案的科技性,雷达肯定是领先的。


IP属地:四川1楼2025-07-24 16:40回复
    这也是TSL得分高的原因。因为是人在驾驶,如果全部纯智驾控制,结果应该比TSL好很多
    但是目前驾驶“核心”依然是人,所以视觉当前的方案更符合实际,但是从发展的高度来看,雷达未来才是主力。


    IP属地:四川2楼2025-07-24 16:49
    回复
      2025-08-02 22:02:41
      广告
      不感兴趣
      开通SVIP免广告
      你忘了别人也有视觉?视觉+雷达起到1+1>1的作用,光靠一个视觉永远比不过混合方案


      IP属地:重庆来自Android客户端3楼2025-07-24 17:03
      收起回复
        你如何解释深夜工地卡车这个场景
        这个场景完全没有驾驶员介入
        因为没有真车在,所以有出错都是直接撞过去的
        还不是该撞的还是撞


        IP属地:法国来自iPhone客户端4楼2025-07-24 17:40
        收起回复
          评测就没用雷达


          IP属地:浙江来自Android客户端5楼2025-07-24 20:06
          回复
            讲到视觉,我记得以前有人测试过在黑暗的场景,黑色的车辆,那时候的视觉方案可真的不行。另外,所有智驾系统都是在所收集到的数据前提下,进行分析并做出驾行驶方案。纯视觉方案在测距精度上无法与激光雷达相比。而且现在上激光雷达的智驾基本都会有视觉系统相配合,并不是纯激光雷达方案。


            IP属地:广西来自Android客户端6楼2025-07-24 21:42
            收起回复
              智驾又不是光硬件,算法呢?


              IP属地:山东来自Android客户端7楼2025-07-24 21:43
              回复




                IP属地:浙江来自Android客户端8楼2025-07-25 07:05
                收起回复
                  2025-08-02 21:56:41
                  广告
                  不感兴趣
                  开通SVIP免广告
                  我看到的结果是谁保守谁胜出 比如那个进弯道的 特斯拉为什么可以 因为它慢啊 因为他保守啊 是不是这么个事


                  IP属地:北京来自Android客户端9楼2025-07-25 10:46
                  回复
                    不是,这次测试说明了平常好用屁用没有,真想活命就应该按照最大保有量设置安全数值。
                    这些场景都是明显大部分都是可设置安全系数类参数避免的。但是参数越不保守,越容易出问题。


                    IP属地:广东来自Android客户端10楼2025-07-25 15:43
                    回复
                      我个人理解是这样的。激光雷达+摄像头+毫米波雷达的融合方案,在硬件感知上无疑,最无懈可击的。问题是,这几个不同维度的输入端,需要代码去加权他不同输入端的优先级,对应不同的输出操作。
                      相反的,特斯拉纯视觉,属于真·端到端。视觉输入直接对应车端输出。中间不存在复杂的代码和系统的bug。如果是这样,代码是敲不完的,bug也是修不完的。你懂吧。其实谁上限高,一目了然


                      IP属地:山东11楼2025-07-25 17:26
                      回复