找回密码
 立即注册
搜索
楼主: Honnyp

[载具] 马斯克再谈激光雷达:纯视觉方案才是自动驾驶的未来

[复制链接]
     
发表于 2024-12-3 18:43 | 显示全部楼层
UNICORN00 发表于 2024-12-3 17:12
应该能做得出来,不过价格就不好说了

—— 来自 鹅球 v3.3.92

反正和特斯拉用的摄像头应该没啥关系
回复

使用道具 举报

     
发表于 2024-12-3 18:44 | 显示全部楼层
宏. 发表于 2024-12-3 18:39
没有用适合人眼的ISP的缘故,你看RAW拍出来就是这个效果

这倒不是问题,问题是既然纯视觉了还要限制在可 ...

不是吧,当年我的HTC ONE M7姨妈红,丢到冰箱里面冻20min,再拿出来拍就没姨妈了,它这个估计也是CMOS太垃圾了

model 3的8个摄像头都是于安森美半导体在 2015 年发布的,相同的分辨率为 1280×960 120万像素图像传感器


1280X720 抠门到极致了
回复

使用道具 举报

     
发表于 2024-12-3 18:46 | 显示全部楼层
2017.05.04 发表于 2024-12-3 18:28
你就说国内常见的对向车道远光,这种情况怎么办,视觉方案车就一脚急刹不走了?
还有真别太相信他说那一 ...

其实马考虑的也就是成本因素吧,1<1+1<2 的情况下该怎么选的问题。
逆光的影响并没有那么大,只要感知器不会被烧了就不会有问题,这方面还是比人眼强的。
回复

使用道具 举报

     
发表于 2024-12-3 18:47 来自手机 | 显示全部楼层
orecheng 发表于 2024-12-3 18:44
不是吧,当年我的HTC ONE M7姨妈红,丢到冰箱里面冻20min,再拿出来拍就没姨妈了,它这个估计也是CMOS太 ...

CMOS拉高ISO后不经ISP处理肯定发红,你冷冻那是相当于给CMOS制冷了当然红的少啊
回复

使用道具 举报

     
发表于 2024-12-3 18:47 来自手机 | 显示全部楼层
monkeykoishi 发表于 2024-12-3 16:34
激光雷达在雨天、雾天一公里都打不到

你对一公里有概念么
回复

使用道具 举报

     
发表于 2024-12-3 19:07 来自手机 | 显示全部楼层
糟糕喵 发表于 2024-12-3 18:46
其实马考虑的也就是成本因素吧,1

这可是载人机动车,你明白自己在说什么吗
最差也要有三冗余设计
回复

使用道具 举报

     
发表于 2024-12-3 19:14 来自手机 | 显示全部楼层
哥哥不要 发表于 2024-12-3 17:05
如果存在激光雷达比视觉更接近实际的情况,哪怕只有占比0.1%场景下,融合方案不就是可以做到覆盖面更广? ...

融合场景最大的问题是冲突时听谁的,什么情况下该听摄像头的,什么时候该听激光雷达的

—— 来自 鹅球 v3.1.88.3-alpha
回复

使用道具 举报

     
发表于 2024-12-3 19:15 来自手机 | 显示全部楼层
刷知乎偶然看到自动驾驶文章,说是有个把 2D 转成 3D 的过程。如果没有激光雷达提供深度的 ground truth 信息,怎么优化 2D 转3D 模型啊。特斯拉自己的测试车肯定装了激光雷达吧。那为啥用户的车不装?装了有利于 scale up 啊
回复

使用道具 举报

     
发表于 2024-12-3 19:19 来自手机 | 显示全部楼层
为什么看楼里很多人好像觉得摄像头图像才能AI,图像是数据,激光雷达的数据就不是数据了?不一样可以拿来训练得到想要的结果

—— 来自 鹅球 v3.3.94-alpha
回复

使用道具 举报

     
发表于 2024-12-3 19:19 来自手机 | 显示全部楼层
钱已经省了,嘴巴不能输
回复

使用道具 举报

     
发表于 2024-12-3 19:21 来自手机 | 显示全部楼层
怀疑楼里很多人没开过车
还有可以学习一下时不时坠个机的波音的autopilot系统,看看人家带多少导航系统,都是几冗余设计然后考虑下马圣这套在大城市一天能创死多少
回复

使用道具 举报

     
发表于 2024-12-3 19:30 | 显示全部楼层
从多路视频流恢复景深信息没那么难,反正现在所有方案都是过渡的过渡,还不如搞点便宜的,强视觉能力是必须要做的。
而且四轮自动驾驶热度不都过去了,现在在吹具身智能,做啥都逃不掉做强视觉感知。
回复

使用道具 举报

     
发表于 2024-12-3 19:41 | 显示全部楼层
纯视觉方案很容易被攻击,风险太大了吧
回复

使用道具 举报

发表于 2024-12-3 20:09 | 显示全部楼层
2017.05.04 发表于 2024-12-3 19:21
怀疑楼里很多人没开过车
还有可以学习一下时不时坠个机的波音的autopilot系统,看看人家带多少导航系统,都 ...

一架飞机多少钱,钱给够肯定上多个系统保证冗余
回复

使用道具 举报

     
发表于 2024-12-3 20:21 来自手机 | 显示全部楼层
特斯拉的无人出租车啥进展了

—— 来自 鹅球 v3.1.88.3-alpha
回复

使用道具 举报

     
发表于 2024-12-3 20:27 | 显示全部楼层
人眼睛遇到脏东西了眨眨眼就可以了,摄像头能自主判断清洁屏幕吗
回复

使用道具 举报

     
发表于 2024-12-3 20:30 来自手机 | 显示全部楼层
如果大模型算法可以帮助汽车拥有和人类一样强的开车智能,那纯视觉这条路确实就要走通。
但是现在越来越多结果表明大模型这条路也走到死胡同了。

—— 来自 OPPO PGFM10, Android 14上的 S1Next-鹅版 v2.5.2
回复

使用道具 举报

     
发表于 2024-12-3 20:42 来自手机 | 显示全部楼层
手机现在景深都带个单独测景深的
回复

使用道具 举报

     
发表于 2024-12-3 20:42 | 显示全部楼层
马总这些话又不是说给消费者听的,是给股东听的

他自个偷摸也保留了激光雷达和毫米波雷达的接口,而且这两个传感器是直接接到CAN网络里的,想增加的话太容易了
回复

使用道具 举报

     
发表于 2024-12-3 20:44 来自手机 | 显示全部楼层
技术上的事,可以不用,但不能没有,世上没有唯一解

—— 来自 HUAWEI ALN-AL80, Android 12上的 S1Next-鹅版 v2.5.2
回复

使用道具 举报

     
发表于 2024-12-3 20:46 来自手机 | 显示全部楼层
糟糕喵 发表于 2024-12-3 18:25
这么类比吧,身为人类,你要如何理解蝙蝠使用超声波对外界的感知模式呢?
使用激光雷达最后都是回归模拟 ...

1+1为什么要大于2,大于1还不算提升吗
回复

使用道具 举报

     
发表于 2024-12-3 20:51 | 显示全部楼层
这玩意儿没啥好争论的,纯视觉是一定达成自动驾驶的最终解,但无论是过渡期还是最终解,混合方案一定是优于纯视觉的               
回复

使用道具 举报

     
发表于 2024-12-3 21:00 | 显示全部楼层
2017.05.04 发表于 2024-12-3 19:21
怀疑楼里很多人没开过车
还有可以学习一下时不时坠个机的波音的autopilot系统,看看人家带多少导航系统,都 ...

反正国内没引进,只能撞死老外,我的建议是加大力度,给友商探探路
回复

使用道具 举报

发表于 2024-12-3 21:03 | 显示全部楼层
纯屎解决方案,雷达明显比视觉图像更适合深度探测,尤其是视觉图像算力被重重限制的情况下
回复

使用道具 举报

发表于 2024-12-3 21:05 来自手机 | 显示全部楼层
是二大爷 发表于 2024-12-3 14:23
是不是另一种偏执的制造两足机器人?

偏执个毛,资本逐利而已
回复

使用道具 举报

     
发表于 2024-12-3 21:30 | 显示全部楼层
HighTouch 发表于 2024-12-3 14:00
我一直很疑惑,面对突发恶劣天气(大雾雨雪)或者对向车辆远光灯这种人眼完全无法处理的情况,摄像头是如何 ...

远光灯摄像头能轻松应付,大雾雨雪只能靠毫米波,激光雷达也没用
回复

使用道具 举报

     
发表于 2024-12-3 21:31 | 显示全部楼层
strider_oy 发表于 2024-12-3 13:57
摄像头何德何能比人眼,人眼视野确实很窄,但是动态范围比小型摄像头强了不知道多少倍。

— from samsung  ...

老黄历了,现在的摄像头动态范围远高于人眼
回复

使用道具 举报

     
发表于 2024-12-3 22:41 | 显示全部楼层
heliosu 发表于 2024-12-3 21:31
老黄历了,现在的摄像头动态范围远高于人眼

那是现在的摄像头,特斯拉用的还是2015年的垃圾
回复

使用道具 举报

     
发表于 2024-12-4 00:32 | 显示全部楼层
monkeykoishi 发表于 2024-12-3 16:34
激光雷达在雨天、雾天一公里都打不到

人眼在雨天、雾天就能看到一公里了吗,大雾缓行是为了干啥?
回复

使用道具 举报

     
发表于 2024-12-4 03:15 | 显示全部楼层
说实话除了成本想象不太出来纯视觉方案的优点……
回复

使用道具 举报

     
发表于 2024-12-4 03:36 | 显示全部楼层
按它这个第一性原理,人类就不应该骑自行车,开汽车。
轮子没有两条腿第一性。
回复

使用道具 举报

     
发表于 2024-12-4 06:32 来自手机 | 显示全部楼层
apefrank 发表于 2024-12-3 15:55
人脑有前庭反射协调眼球运动,车载摄像头有云台吗

可以用不同焦段的摄像头实现变焦,摄像头不值几个钱

—— 来自 鹅球 v3.1.88.3
回复

使用道具 举报

     
发表于 2024-12-4 08:00 来自手机 | 显示全部楼层
hentai烧酒 发表于 2024-12-3 15:00
从长远看,这种说法是对的,其实就是高度人工智能的纯视觉方案比传统机械的激光雷达方案强。但是短期看不现 ...

这就是胡说了,激光雷达也好摄像头图像也好,本质都是对物品的感知部件。感知后确认是软件的问题,但感知部件性能是硬件问题
回复

使用道具 举报

     
发表于 2024-12-4 08:54 | 显示全部楼层
2017.05.04 发表于 2024-12-3 19:07
这可是载人机动车,你明白自己在说什么吗
最差也要有三冗余设计

跟资本家说冗余。。。
回复

使用道具 举报

     
发表于 2024-12-4 09:03 | 显示全部楼层
糟糕喵 发表于 2024-12-4 08:54
跟资本家说冗余。。。

你看明年L4立法有没有不就完了现成的航空法律体系不信他不抄
回复

使用道具 举报

     
发表于 2024-12-4 09:11 来自手机 | 显示全部楼层
heliosu 发表于 2024-12-3 05:31
老黄历了,现在的摄像头动态范围远高于人眼

摄像头有好坏啊,特斯拉用的就是垃圾,还不如门锁那种

— from samsung SM-S911U1, Android 14 of S1 Next Goose v3.0.0.81-alpha
回复

使用道具 举报

     
发表于 2024-12-4 09:49 来自手机 | 显示全部楼层
youta 发表于 2024-12-4 06:32
可以用不同焦段的摄像头实现变焦,摄像头不值几个钱

—— 来自 鹅球 v3.1.88.3 ...

前庭反射管的是防抖,管自动对焦的是调节反射
回复

使用道具 举报

     
发表于 2024-12-4 10:05 | 显示全部楼层
为什么不能视觉基础上加激光雷达?多一个维度的信息不好吗
回复

使用道具 举报

     
发表于 2024-12-4 10:06 | 显示全部楼层
本帖最后由 暗の使徒 于 2024-12-4 10:11 编辑
糟糕喵 发表于 2024-12-4 08:54
跟资本家说冗余。。。

知道为啥特斯拉车架硬吗。因为被动安全偷料省的成本跟诉讼的法律成本比完全不在一个数量级。

强制标准提上去了,你看资本家给不给冗余
日系吹了那么多年吸能,几年就被国产干翻,现在只有傻x信日系吸能保值率。特斯拉也一样,fsd吹再多也是个l2

—— 来自 S1Fun
回复

使用道具 举报

     
发表于 2024-12-4 10:50 | 显示全部楼层
商业社会成本就是最大的优点。单视觉系统肯定比混合系统成本低,因为混合系统你在其中视觉上的投入也一点不能少。最后就是用单系统的厂商更挣钱,更能扩大产能,有更多钱投入。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2024-12-4 15:54 , Processed in 0.160879 second(s), 4 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表