沧海nog 发表于 2024-12-3 18:43

UNICORN00 发表于 2024-12-3 17:12
应该能做得出来,不过价格就不好说了

—— 来自 鹅球 v3.3.92

反正和特斯拉用的摄像头应该没啥关系

orecheng 发表于 2024-12-3 18:44

宏. 发表于 2024-12-3 18:39
没有用适合人眼的ISP的缘故,你看RAW拍出来就是这个效果

这倒不是问题,问题是既然纯视觉了还要限制在可 ...

不是吧,当年我的HTC ONE M7姨妈红,丢到冰箱里面冻20min,再拿出来拍就没姨妈了,它这个估计也是CMOS太垃圾了

model 3的8个摄像头都是于安森美半导体在 2015 年发布的,相同的分辨率为 1280×960 120万像素图像传感器

1280X720 抠门到极致了

糟糕喵 发表于 2024-12-3 18:46

2017.05.04 发表于 2024-12-3 18:28
你就说国内常见的对向车道远光,这种情况怎么办,视觉方案车就一脚急刹不走了?
还有真别太相信他说那一 ...

其实马考虑的也就是成本因素吧,1<1+1<2 的情况下该怎么选的问题。
逆光的影响并没有那么大,只要感知器不会被烧了就不会有问题,这方面还是比人眼强的。

宏. 发表于 2024-12-3 18:47

orecheng 发表于 2024-12-3 18:44
不是吧,当年我的HTC ONE M7姨妈红,丢到冰箱里面冻20min,再拿出来拍就没姨妈了,它这个估计也是CMOS太 ...

CMOS拉高ISO后不经ISP处理肯定发红,你冷冻那是相当于给CMOS制冷了当然红的少啊

cen 发表于 2024-12-3 18:47

monkeykoishi 发表于 2024-12-3 16:34
激光雷达在雨天、雾天一公里都打不到

你对一公里有概念么

2017.05.04 发表于 2024-12-3 19:07

糟糕喵 发表于 2024-12-3 18:46
其实马考虑的也就是成本因素吧,1

这可是载人机动车,你明白自己在说什么吗
最差也要有三冗余设计

鲜血秋叶 发表于 2024-12-3 19:14

哥哥不要 发表于 2024-12-3 17:05
如果存在激光雷达比视觉更接近实际的情况,哪怕只有占比0.1%场景下,融合方案不就是可以做到覆盖面更广? ...

融合场景最大的问题是冲突时听谁的,什么情况下该听摄像头的,什么时候该听激光雷达的

—— 来自 鹅球 v3.1.88.3-alpha

笨拙的机器人 发表于 2024-12-3 19:15

刷知乎偶然看到自动驾驶文章,说是有个把 2D 转成 3D 的过程。如果没有激光雷达提供深度的 ground truth 信息,怎么优化 2D 转3D 模型啊。特斯拉自己的测试车肯定装了激光雷达吧。那为啥用户的车不装?装了有利于 scale up 啊

CosineG 发表于 2024-12-3 19:19

为什么看楼里很多人好像觉得摄像头图像才能AI,图像是数据,激光雷达的数据就不是数据了?不一样可以拿来训练得到想要的结果

—— 来自 鹅球 v3.3.94-alpha

臭P遇上臭脚 发表于 2024-12-3 19:19

钱已经省了,嘴巴不能输

2017.05.04 发表于 2024-12-3 19:21

怀疑楼里很多人没开过车
还有可以学习一下时不时坠个机的波音的autopilot系统,看看人家带多少导航系统,都是几冗余设计然后考虑下马圣这套在大城市一天能创死多少

DeepFishing 发表于 2024-12-3 19:30

从多路视频流恢复景深信息没那么难,反正现在所有方案都是过渡的过渡,还不如搞点便宜的,强视觉能力是必须要做的。
而且四轮自动驾驶热度不都过去了,现在在吹具身智能,做啥都逃不掉做强视觉感知。

godke 发表于 2024-12-3 19:41

纯视觉方案很容易被攻击,风险太大了吧

chaucerling 发表于 2024-12-3 20:09

wfefe 发表于 2024-12-3 20:21

特斯拉的无人出租车啥进展了

—— 来自 鹅球 v3.1.88.3-alpha

goranger 发表于 2024-12-3 20:27

人眼睛遇到脏东西了眨眨眼就可以了,摄像头能自主判断清洁屏幕吗

小妻水亚美 发表于 2024-12-3 20:30

如果大模型算法可以帮助汽车拥有和人类一样强的开车智能,那纯视觉这条路确实就要走通。
但是现在越来越多结果表明大模型这条路也走到死胡同了。

—— 来自 OPPO PGFM10, Android 14上的 S1Next-鹅版 v2.5.2

厉飞雨 发表于 2024-12-3 20:42

手机现在景深都带个单独测景深的

坑爹虎 发表于 2024-12-3 20:42

马总这些话又不是说给消费者听的,是给股东听的

他自个偷摸也保留了激光雷达和毫米波雷达的接口,而且这两个传感器是直接接到CAN网络里的,想增加的话太容易了

LilithMardin 发表于 2024-12-3 20:44

技术上的事,可以不用,但不能没有,世上没有唯一解

—— 来自 HUAWEI ALN-AL80, Android 12上的 S1Next-鹅版 v2.5.2

哥哥不要 发表于 2024-12-3 20:46

糟糕喵 发表于 2024-12-3 18:25
这么类比吧,身为人类,你要如何理解蝙蝠使用超声波对外界的感知模式呢?
使用激光雷达最后都是回归模拟 ...

1+1为什么要大于2,大于1还不算提升吗

苏西踩我了 发表于 2024-12-3 20:51

这玩意儿没啥好争论的,纯视觉是一定达成自动驾驶的最终解,但无论是过渡期还是最终解,混合方案一定是优于纯视觉的               

SkavenYesYes 发表于 2024-12-3 21:00

2017.05.04 发表于 2024-12-3 19:21
怀疑楼里很多人没开过车
还有可以学习一下时不时坠个机的波音的autopilot系统,看看人家带多少导航系统,都 ...

反正国内没引进,只能撞死老外,我的建议是加大力度,给友商探探路

Edward0901 发表于 2024-12-3 21:03

纯屎解决方案,雷达明显比视觉图像更适合深度探测,尤其是视觉图像算力被重重限制的情况下

leviathan 发表于 2024-12-3 21:05

heliosu 发表于 2024-12-3 21:30

HighTouch 发表于 2024-12-3 14:00
我一直很疑惑,面对突发恶劣天气(大雾雨雪)或者对向车辆远光灯这种人眼完全无法处理的情况,摄像头是如何 ...

远光灯摄像头能轻松应付,大雾雨雪只能靠毫米波,激光雷达也没用

heliosu 发表于 2024-12-3 21:31

strider_oy 发表于 2024-12-3 13:57
摄像头何德何能比人眼,人眼视野确实很窄,但是动态范围比小型摄像头强了不知道多少倍。

— from samsung...

老黄历了,现在的摄像头动态范围远高于人眼

orecheng 发表于 2024-12-3 22:41

heliosu 发表于 2024-12-3 21:31
老黄历了,现在的摄像头动态范围远高于人眼

那是现在的摄像头,特斯拉用的还是2015年的垃圾

initium 发表于 2024-12-4 00:32

monkeykoishi 发表于 2024-12-3 16:34
激光雷达在雨天、雾天一公里都打不到

人眼在雨天、雾天就能看到一公里了吗,大雾缓行是为了干啥?

鱼罐头2455 发表于 2024-12-4 03:15

说实话除了成本想象不太出来纯视觉方案的优点……

phorcys02 发表于 2024-12-4 03:36

按它这个第一性原理,人类就不应该骑自行车,开汽车。
轮子没有两条腿第一性。

youta 发表于 2024-12-4 06:32

apefrank 发表于 2024-12-3 15:55
人脑有前庭反射协调眼球运动,车载摄像头有云台吗

可以用不同焦段的摄像头实现变焦,摄像头不值几个钱

—— 来自 鹅球 v3.1.88.3

白影 发表于 2024-12-4 08:00

hentai烧酒 发表于 2024-12-3 15:00
从长远看,这种说法是对的,其实就是高度人工智能的纯视觉方案比传统机械的激光雷达方案强。但是短期看不现 ...

这就是胡说了,激光雷达也好摄像头图像也好,本质都是对物品的感知部件。感知后确认是软件的问题,但感知部件性能是硬件问题

糟糕喵 发表于 2024-12-4 08:54

2017.05.04 发表于 2024-12-3 19:07
这可是载人机动车,你明白自己在说什么吗
最差也要有三冗余设计

跟资本家说冗余。。。

2017.05.04 发表于 2024-12-4 09:03

糟糕喵 发表于 2024-12-4 08:54
跟资本家说冗余。。。

你看明年L4立法有没有不就完了现成的航空法律体系不信他不抄

strider_oy 发表于 2024-12-4 09:11

heliosu 发表于 2024-12-3 05:31
老黄历了,现在的摄像头动态范围远高于人眼

摄像头有好坏啊,特斯拉用的就是垃圾,还不如门锁那种

— from samsung SM-S911U1, Android 14 of S1 Next Goose v3.0.0.81-alpha

apefrank 发表于 2024-12-4 09:49

youta 发表于 2024-12-4 06:32
可以用不同焦段的摄像头实现变焦,摄像头不值几个钱

—— 来自 鹅球 v3.1.88.3 ...

前庭反射管的是防抖,管自动对焦的是调节反射

zcslcz 发表于 2024-12-4 10:05

为什么不能视觉基础上加激光雷达?多一个维度的信息不好吗

暗の使徒 发表于 2024-12-4 10:06

nuqzyc 发表于 2024-12-4 10:50

商业社会成本就是最大的优点。单视觉系统肯定比混合系统成本低,因为混合系统你在其中视觉上的投入也一点不能少。最后就是用单系统的厂商更挣钱,更能扩大产能,有更多钱投入。
页: 1 2 [3] 4 5
查看完整版本: 马斯克再谈激光雷达:纯视觉方案才是自动驾驶的未来