本帖最后由 铃森冬 于 2024-6-20 13:50 编辑
昨天看了一晚上,前面的技术部分写的还像模像样的,后面就开始幽默了。作者 Leopold Aschenbrenner 是 OpenAI 的前安全研究员,出于文中的观点认为 OpenAI 应该加强安保措施捅到了董事会,在公司内部得不到响应之后就直接公开了自称只是整理了可公开获取信息的这篇165页文档然后就被炒鱿鱼了。 文档发表于6月6日两周之前,跟上周前美国国家安全局局长加入OpenAI董事会的新闻很难没有联系。 整个文档太长了贴下机翻的简介内容: 您可以在旧金山首先看到未来。
在过去的一年里,城里的话题已经从100亿美元的计算集群转向了1000亿美元的集群,再到万亿美元的集群。每隔六个月,董事会计划上又会增加一个零。在幕后,人们正在激烈争夺剩下的十年里仍然可用的每份电力合同,每个可能被采购的电压变压器。美国的大企业正在准备将数万亿美元投入到美国工业实力长期未见的动员中。到本十年末,美国的电力生产将增长数十个百分点;从宾夕法尼亚州的页岩田地到内华达州的太阳能农场,数以百万计的GPU将嗡鸣。
AGI竞赛已经开始。我们正在构建可以思考和推理的机器。到2025/26年,这些机器将超越许多大学毕业生。到本十年末,它们将比你或我聪明;我们将拥有真正意义上的超级智能。在这个过程中,长达半个世纪未见的国家安全力量将被释放,不久之后,项目将启动。如果我们幸运的话,我们将与东大展开全面竞赛;如果我们不幸的话,将是一场全面战争。
现在每个人都在谈论人工智能,但很少有人对即将发生的事情有丝毫的预感。Nvidia的分析师仍然认为2024年可能接近高峰。主流评论员仍然停留在“它只是预测下一个词”的故意盲目上。他们只看到炒作和一切如常;最多,他们会考虑另一场互联网规模的技术变革。
不久之后,世界将会清醒过来。但现在,也许有几百人,其中大部分在旧金山和人工智能实验室,具有局势意识。通过某种奇特的命运之力,我发现自己身处其中。几年前,这些人被嘲笑为疯子,但他们相信趋势线,这使他们能够准确预测过去几年的人工智能进步。这些人是否对未来几年也正确,还有待观察。但这些人非常聪明——是我见过的最聪明的人——他们正在构建这项技术。也许他们将成为历史上的一个奇怪的脚注,或者也许他们将像Szilard、Oppenheimer和Teller一样载入史册。如果他们对未来的看法接近正确,我们将迎来一场惊心动魄的旅程。
让我告诉您我们看到了什么。
剩下的全文逻辑省流总结如下,可以当科幻小说读读 第一部分:如果大模型技术以现在的趋势发展下去(每年硬件性能提升半个数量级即3倍,算法效率提升半个数量级,加上推理侧方法改进能维持更长时间连贯思考带来的性能提升),我们会在2027年迎来能代替远程上班的程序员和AI研究从业者的强人工智能(AGI) 第二部分:一旦出现能从事AI研究的AGI,技术迭代的周期会极大加快,AI能力会在1年内迎来爆发性增长迅速超越人类,确保AI技术安全的对齐问题可以被解决但前提是西大必须保证遥遥领先 第三部分:东大一旦认识到AGI技术的重要性,就会派人来偷技术的同时大搞基建迎头赶上,所以必须从现在就开始加强实验室安保措施,同时像曼哈顿计划一样举国投入AGI研究,为了避免邪恶的东大毁灭世界必须保证AGI技术先出现在“自由世界” 全文读下来技术部分分析的干货还是挺多的,作者也列举了各种可能使其预测不成立的理由,后面涉及到政治立场的部分就很典了,当然文章的预测是否靠谱没那么重要,重要的是西大军方是不是真被这一套逻辑忽悠住了
|