2025.12.27 财新 | 陈天桥谈AI:我们应该把重点放在增量价值的竞争上

【财新网】52岁的前中国首富陈天桥每天与AI(人工智能)聊天的时间越来越多。“除了我太太以外,它(AI)几乎是唯一一个在思考和智识层面可以跟我聊很久的。”陈天桥对财新表示,他有很多很优秀的朋友,但他们很忙,不可能有太多时间陪他聊天。

  1993年,提前一年从复旦大学经济系毕业的陈天桥进入上海陆家嘴集团总裁办,之后又做过证券公司,1999年,他与妻子、弟弟、同学等一起创办上海盛大网络发展有限公司(下称“盛大网络”)。21世纪初,中国网游尚处于荒漠期,盛大网络进入游戏行业,先后代理运营《传奇》《新英雄门》等大型网络游戏,2004年在纳斯达克上市。到2005年,未满32岁的陈天桥就成为中国最年轻首富。

  但2011年—2016年中国互联网最鼎盛时期,陈天桥开始卖掉手中的资产,转向脑科学研究与慈善事业。2016年,他向美国加州理工学院捐赠1.15亿美元,成立神经科学研究院;2017年,与复旦大学附属华山医院合作成立应用神经技术前沿实验室,聚焦脑机接口;2021年,与上海市精神卫生中心合作建立AI与精神健康前沿实验室。

  2023年初,陈天桥提出“押宝AI”(All in AI),并将2023年称为“AI元年”。“这就跟公元一样,从此我们有AD(公元)和BC(公元前)。”他向财新表示。

  2025年11月,在美国加州的AI驱动科学研讨会(AIAS 2025)上,陈天桥宣布投入10亿美元算力,支持全球科学家的创新AI研究。同期,他发布多篇博文阐释他心中的AI演化及其对整个社会的影响。

  2025年12月13日,天桥脑科学研究院尖峰智能实验室官宣成立。实验室致力于类脑大模型和脉冲神经网络的研发,探索AI与人类智慧深度融合。

  有评论指出,他的博文中不乏AI味,陈天桥对此并不避讳,“我这个人是很喜欢思考,但是我很懒,很少写东西”。美国有很多代笔(ghost writer)可以经当事人口述代写自传,陈天桥说他也找过,“但没有一个人能够真正理解我想表达的东西,现在AI来了,我觉得我讲什么它就懂什么,而且能跟我呼应起来。”

  于是陈天桥建立了自己的工作流,他出思想,AI和他一起写,一边交流一边写,成稿后再改一遍,便基本成型。“原来整个写作班子的事情,现在一个人就能干。”陈天桥认为,这可能是未来人类和AI共存的一种最好的方式。

  淡出企业界已十年的陈天桥近年深居简出,很少接受媒体采访。近日,他在美国加州的家中接受了财新线上视频采访,细谈他对当下AI的理解与AI未来发展的思考。

  “我是一个对AI来到人类社会充满好奇的人,这个社会会怎么发展,我做了一些推演,想把这个推演分享给大家,如果大家认同,我很高兴;如果觉得没道理,那就看过算数。”陈天桥说。

“AI元年堪比古猿下树”

  财新:从游戏到脑机接口到AI,你所关注的领域在不断转变,有什么内在逻辑吗?

  陈天桥:我在做游戏的时候看到这么多人抛开了尘世间的身份、地位和金钱,到一个虚拟世界,赤裸裸地暴露在我面前,我会觉得很有趣。我会去问什么是人的自由意志?什么是真正的自己?我希望回到智能的第一性原理,通过对人脑如何产生智慧的深入研究,来理解这些问题。

  2009年我准备把游戏分拆上市,重新构建一个互联网平台。也是那一年我第一次出现惊恐发作(panic attack)。这不是知名的癌症或者肉体伤害,而是对思想的突袭,这个个人经历和身体恢复,让我对大脑产生了巨大的兴趣。加上其他的我也已经厌倦了,开始感兴趣问问题。我花了5年时间,到2016年把公司全部卖出去了。当时应该是整个中国互联网行业最向上的时候。

  2017年搬到美国以后,我见了很多校长和几百个神经科学家,主要解决就是“研究什么和怎么研究”(what & how)的问题。在那之后我确立了三大支柱:第一,什么是大脑基础的机制?我们对大脑完全没有理解。第二,脑科学可以解决什么问题?也就是怎样把基础研究变成转化研究,主要针对脑疾病来进行。第三,脑科学的发展对产业有什么样的支持和帮助?从这个角度来说,实际上就是智能。脑科学怎么去帮助解决AI发展中的问题,同时让AI反过来帮助脑科学。

  财新:2017年OpenAI的创始人奥特曼也发过一篇博文,他认为未来一定是超级智能和人类的融合,有可能人类只是智能发展过程中的“一个阶段”,甚至可能从进化树上被抹去。你认为你们的观点类似吗?

  陈天桥:我觉得某种意义上,我们当时都认识到了人类这个碳基生物遇到的瓶颈和障碍。2016年,OpenAI和马斯克的脑机接口公司创立,那一年我和太太成立了天桥脑科学研究院。但那时候我并不了解AI,因为我自己不是一个技术背景,所以我并不认为AI能够在不借助人类大脑的发现下产生智能。所以我把主要的精力放在了脑科学上,除了脑机接口中心,我们还研究人类的智慧是怎么来的。

  财新:你所说的“碳基生物的瓶颈”是指什么?

  陈天桥:我认为碳基生物是一个经过进化而来的东西,它并不先天就按照最完美的结构来进行制造,所以它身上充满了补丁。就像一个软件,从最早的DOS系统开始不断升级,生成了现在的移动互联网系统,但这个系统是很脆弱的,是充满问题的。包括痛苦,包括我们人类也有幻觉,也有记忆遗忘,我们的大脑只能够承担这么点的容量。

  我们这一代人面临一个历史性的机会,就是能看到人类终于能够在AI的帮助下开始进化。但我们对人类会不会在未来被淘汰这个问题上可能有不同的意见,我认为人类在未来依然有不可或缺的使命,或者不可能被AI代替的价值。

  财新:2023年初你提出All in AI,是看到了什么?

  陈天桥:2023年1月,我说这是人类历史上最伟大的时刻,没有之一。一些人觉得这一刻是iPhone时刻、电力时刻,或是发明轮胎的时刻。但那些都是人类的发现、发明。智能相当于发现了另一种“人类”,那种“人类”自己又能源源不断地产生新发明、发现。换句话说,我们所惊讶的发明、发现,只会是那种“人类”诞生的副产品。因此AI诞生的时刻更像人类的祖先古猿第一次从树上爬下来到地面生活的那一刻。但是他们现在不需要再花两三百万年进化成和我们一样聪明了,现在可能只要花二三十年就能进化出二三百万年的结果。

“活着才有智能,活着最难”

  财新:在你看来,当前AI的发展阶段中最基本、最根本的问题是什么?比如,AI的“三体问题”——即两个人和一个AI一共三个智能体一起聊天时,在不发问的情况下AI难以适时插话,这是否触及智能的根本问题?

  陈天桥:上下文理解、在多人聊天中何时插话,这些我认为其实都是技术和工程问题。而且这个问题不需要我们去解决。如果你觉得还不满意或者有错位,那下个版本就能改。太多问题都可以通过迭代解决。很多人喜欢讲AI不会什么,但你真的去试一下,就会发现它每天都在进步。

  财新:你提出要管理时间流中的信息,系统必须具备五种核心能力:神经动力学、长期记忆、因果推理、世界模型和元认知。这些是否是你认为的根本问题?它们的内在关系是什么?

  陈天桥:这五个能力都是基本问题,它们指向同一个关键,就是让智能体“活着”。这个模型不能只是我问它,它就回答;回答完了,它的“时间”就停住了。下一个人来问,它又“活”了。但我们人类是持续活着的——你不问我问题的时候,我停在这儿,我的脑子还在思考:下个问题可能是什么?那个人看上去像谁?“活着”很重要,因为当AI停止思考的时候,这个世界一刻都没有停止。人类大脑,哪怕没有人问我问题、跟我交流,我自己也会做冥想、写文章。

  那怎么才能“活着”?涉及问题就很大了。这里面包括很多重要的技术突破,比如实时的学习能力,以及能源是不是足够支持让它不间断地自己活着。像现在Transformer这样的架构,“活着”的能源代价是巨大的。预训练结束之后,我今天的提示和下个提示隔了10天,这10天它没有获得任何知识,没有任何输入,也完全没有在想,它就“死”在那里了。活着是最难的。“活着”的状态激活了时间,才有所谓的长期记忆。

  财新:GPT发布之初,上下文记忆就一直是个难题。

  陈天桥:根本原因就在Transformer架构本身。它处理上下文的成本是指数级增长的,越想记得多,算力和资源就爆炸式上升。所以解决长期记忆的问题,不能只在Transformer上修修补补,得从架构层面重新思考。

  人脑是怎么记东西的?我们并没有一个“硬盘”把所有事存好。每次回忆,都是神经元临时重新连接。所以我们现在走两条路:一条是在现有Transformer框架下优化,比如我们在做的长期记忆系统“EverMemOS”,想办法延长记忆长度;另一条就是直接向人脑学习,用脉冲神经网络(SNN)来做,这样我就有可能做出一个真正活着的东西。活着任何时候都在思考,不用预训练,不用提示词。

  所以我们现在是两条路爬山,一条路是我们从人的大脑来理解人工智慧,另一条路就是从AI来理解人类智慧。无论哪条路对终极本质的探求是一样的,即增加对人类自我的认识,并且让人类这种碳基生物能够得到进化。

  财新:脉冲神经网络(SNN)不是一个很新的概念,人脑的工作方式本质上就是一种SNN。早期的神经网络思想也更接近SNN,但后来为了计算方便,才转向人工神经网络(ANN)。ANN过去取得了很多突破。为什么现在又要回头去说SNN?

  陈天桥:第一,Transformer在智能突破上已经遇到了瓶颈。大家都知道规模训练(scaling)的瓶颈,必须要去尝试原来我们放下的东西。第二,人类是目前唯一被认为拥有发现能力的智能,从人类身上找到一些借鉴,我觉得这是非常自然的逻辑。第三,我觉得SNN这两年没有发展特别大,不是因为证明了它是错的,而是因为ANN架构下GPT这样的产品出来以后太火了,很多人放弃了对SNN继续投入研究。但这就像挖井一样,Transformer当时也是很多人都不看好,好几个人坚持用规模训练的方法就把它做出来了。不能因为它现在不火,或者出来几年不火了,就一定否定它未来可以成功的理由。历史上成功的东西一开始从来就是被否定的。

  大家现在都觉得SNN没前途,99%的人都在搞ANN,觉得SNN是浪费钱。但我觉得这恰恰是机会。当初我研究大脑,就相信里面藏着新智能的钥匙。后来Transformer火了,做脑科学的人全被AI吸走了,经费也没了。这时候我不支持他们,就违背了自己的初心。

  做SNN也不只是为AI服务,它反过来也能帮我们理解大脑,比如情感、记忆、语言,本质上都是靠“脉冲”(spiking)实现的。如果我们能在硅基芯片上用SNN复现这些能力,不仅能做出超低功耗(像人脑一样20瓦)、支持超长上下文的AI,还能反过来验证我们对大脑的假说是否正确。这个项目对我来说,既是AI的突破点,也是探索人类智能本质的窗口。我们会一直做下去。

  财新:你心目中的世界模型和杨立昆的世界模型、李飞飞他们做的空间智能,有什么不同?

  陈天桥:我和他们对世界模型的理解有相同也有不同。他们指的是对物理世界的模拟,把一个可见的物理世界用AI呈现出来。但我说的是我们脑子中的一个世界模型。你要做一件事,脑子里会有推理和演练。比如你过年要去看望父母,你会想:我拎什么回家?敲门后爸妈出来,我要给他们一个拥抱,然后孩子可能会跑出来……你脑子中推演的这个过程,这个不可见的推理模型,才是我说的世界模型。它不是为了还原外部世界,而是为了内部预演与因果推演。物理世界的AI对我想做的推理非常有作用,但我更倾向于将世界模型定义为大脑中提前对整个环境进行排练的能力,更形而上一些。

  财新:有了世界模型,就有了进行因果推理的基础?

  陈天桥:因果推理对我们人类来说很自然。你可以问大模型:“天冷了我会怎么样?”它回答:“你会感冒。”表面上看是因果,但实际上不是,它只是因为在训练数据里“天冷”和“感冒”这两个词经常一起出现,就关联起来了。它不理解为什么天冷就会感冒。它没有通过世界模型去推演为什么天冷我就会感冒的过程,它并不理解。

  财新:最后是元认知。

  陈天桥:什么叫元认知?就是我突然想:“我刚才跟你讲的东西是不是讲错了?是不是讲得有点过分了?”这种自我反思,AI现在做不到。

  AI现在已经比人类聪明很多了,但现在的生成式智能就是只在我们喂给它的知识里打转,生成新组合,不能独立发现知识之外的知识。因为它不具备因果,不具备自己的推演,也没有世界模型的预演能力。而且它需要被唤醒;不去唤醒它进行预训练和监督微调等后训练,它就永远不会进步。

  而人脑是24小时在运作的,哪怕睡着也在做梦。AI这种“咔叽”停下来的状态,实际上只是对世界的 “快照”(snapshot),它只是一个时点的截图,不是一个在时间中持续演化的智能,所以它不具备独立发现的能力。

  财新:但现在当你指出AI的错误时,它也会道歉,也会修正,也会表达自己为什么犯错。这是否从功能上表现出了近似“自我反思”的能力?

  陈天桥:你说的这一点,通过多个智能体相互提问都可以做到,但这些都是工程化的、外在的、预设的机制,那不是真正的自我反思。真正的反思是对自己做过的事情进行反省,并能重新尝试不同的方案。现在的AI能承认“这个事实错了”,但它无法反省:我为什么没做对?是预训练时漏了数据?是我没认真学习?还是有人在害我?这才是元认知。

  而人类的反思是内生的。比如解一道复杂数学题,我们不会等到把整道题做完、交给老师批改说“错了”,才回头重做。人类是怎么做的?当我写到第三步,就觉得“好像哪里不对”;走到第六步,心里笃定“肯定出错了”,于是往前回溯,最后发现是第二步的问题。

  这种原生的自省能力非常重要。没有它,AI就永远需要人类在发现的道路上给它设置奖励。但人类不是这样:我们在面对未知时,会发自内心地问:“我哪里错了?”

  这种“哪里错了”的感觉,来自于你的尝试,来自于因果理解,来自于持续学习。最终,它会在你内心深处形成一种警觉:“哎,我好像有点问题。”任何题目都要做到最后一步,依靠外部设定的标准答案才发现错误,那是很蠢的,也是很浪费资源的,其实现在AI的强化学习就是这样做的,所以需要进步。

  财新:所以All in AI,其实All in的是AI for science吗?

  陈天桥:可以说是All in发现式智能,只是科学是人类最需要发现的领域。我提出发现式智能这个概念,与生成式智能相对应。生成式智能生产的是基本已知的东西,你问他最年轻的美国总统是谁?这对你个人来说可能是未知的,但对于人类知识库来说这是已知的,它只是按照知识库里的内容给你找出来。但发现式智能是你要发现未知,为人类知识库提供增量。优化已知的代价是牺牲人类的价值、抢夺人类的工作,只有把未知打开,给人类更大的空间和时间,这才是国家与国家科技竞争,甚至整个人类创造的根本意义。

“我对人类是乐观的,对个人是悲观的”

  财新:如果AI可以自己解决问题,又可以自己发现问题,这会带来怎样的社会影响?往更大的层面看,是否真的会像奥特曼所说的,人类可能会从进化树上消失?

  陈天桥:宏观和微观层面不一样,微观的焦虑是必然的,但宏观上人类会不会被灭绝被取代,这个我可能有不同的意见。

  我对个人发展是悲观的。很多人一直喜欢用工业革命时代马车夫失去工作来类比,然后说不要紧,工作又会回来的,因为汽车需要驾驶员。但这次不一样,因为这次我们创造的不是一个工具,而是一个智能。当我这一代被淘汰,我下一代想去学汽车驾驶这个技能的时候,你会发现AI比你学得更快,所以不存在你上个技能被淘汰,又有下个技能给你创造机会的好事,这次没有太多机会了。当你认为可以学习下一个技能的时候,比你更便宜、效率更高、学得更快的智能,已经把这个机会全部都拿走了。而且它可能还能学得越来越快。人类劳动力确实会被一个个代替,这是悲观的。

  但从宏观角度来说,人类会不会因为一个个微观的代替而整个被灭绝,这有待商榷,需要详细分析背后的理论,我之后会写一些文章探讨这个我称为“AI觉醒阶段,人类的位置和价值”的问题。其实我们可以在宗教里得到一些启发,比如在《圣经》里,上帝决定用洪水清洗世界时,为什么没有把所有人彻底抹去,而是特意留下了一艘方舟,让诺亚和他的家人以及各种生灵得以延续?如果上帝全知全能,为什么明知亚当夏娃会吃禁果,却不把那棵树藏起来?把这些问题想明白,也就能想明白人和AI的关系。所以,我相对乐观地认为,哪怕未来AI真的发展到近乎“全能”到像上帝的地步,人类也不会被清除。

  财新:但微观层面也会加剧社会不平等。

  陈天桥:如果我们把个人能力以身高作比,人类成年人最高的比如说是1米9,最矮的比如是1米3,不会有太大区别。能力方面,(月薪)最高的给30万,最少的2000,也可以相互独立存在。但AI加持后,就会出现超级个体,也就是会出现“10米的人”、“100米的人”,他们和1米9的人站在一起,还会是一个价值吗?还会是我们认为合理的工资差距范围吗?未来差距确实是会越来越大。100米的人带着AI能够创造出的财富,比一个1米9的人带着一批人创造出的财富也要多得多。

  财新:每个年轻人可能初始设定都是1米3,1米9的人还可以跟1米3的人交流。但100米的人很难和1米3的人交流。这是否会造成很多初级水平的新人才培养出现断代?

  陈天桥:这是完全有可能的,所以在微观层面,我是悲观的。非常有名的机器学习研究者、前OpenAI元老伊莱亚(Ilya Sutskever)在多伦多大学接受荣誉学位时就提到,现在学的很多东西都没有用了。也有很多人来问我,小孩子应该读什么,怎么读,为什么要生小孩?我觉得这些都是整个现代人类需要去思考的。

  人类的现代教育制度是从18世纪末德国普鲁士时代源起的,目的是在工业时代里面把每个人都能够摁在流水线上工作,教育的目的是让劳动力成为标准化的商品。而这些标准化教育制度喂出来的人,恰恰落在了AI最擅长的领域。所有可预测的、可标准化的能力,都是AI擅长的领域,可惜的是,这都是现在教育制度在努力培养的目标。教育如果不做改变,未来来自AI的竞争对微观层面的个人是很危险的,到现在要是还有人认为这些忧虑是危言耸听、散播恐慌,那就有些掩耳盗铃了。

“投资模式会巨变,科技竞争应是增量竞争”

  财新:像现在规模训练(scaling)是大家已知的投资回报最快的路径,也就意味着更多的资源会往这里投入?你说的其他路线,也需要很多资源。

  陈天桥:我们虽然呼吁,但是99%的钱都往scaling,往transformer、往ANN的方向去走了,我们无法阻止人才向资本最聚集的路径流动。但我认为年轻科学家是最适合做structure(架构)这个事情,他们没有过往成就的包袱,也没有scaling的钱。已经靠着scaling成功的科学家或者企业,很难再去开拓新路径。

  财新:现在硅谷很多投资人开会时要看论文,追踪前沿科学研究的发展。你认为从投资逻辑和投资人定位上,现在和以前做投资有什么区别?

  陈天桥:我觉得这个时代是“人才+算力”就能成就事情,这可能是历史上最直接、最短、最粗暴的一次创业模式。做游戏,需要去找艺术家画画;做电商,得去线下铺货。但现在这一部分人,以及未来的我说的原生AI企业,创业只需要两个因素——有算力,有人才。人才在这个阶段的价值已经到了无论如何定义都不为过的时候。

  今年夏天,Windsurf的AI初创公司,本来已经和OpenAI谈好了收购,交易金额大约是30亿美元,眼看就要落地了。结果谷歌突然杀出来,没买公司,直接掏了24亿美元,把创始人连同前30名核心工程师整个“打包”挖走。很多普通员工期权还没归属,一夜之间,公司变空壳,项目停摆。对谷歌来说,用24亿实质性完成了OpenAI准备用30亿做的事情,还省了6亿。他们不一定认为这个公司的价值就这点,但这就是人才的重要性。如果你作为初创公司CEO,股份在一轮轮融资中已经被投资者稀释到只有20%,30亿里面你只剩6亿,现在有人用24亿来挖你,你动心吗?所以我们原来整套的投资逻辑都会变化。

  当然我现在也不做投资了,在AI时代,我的钱和别人的钱没什么区别。投资者没有独特的价值可以创造。之前一直到互联网时代,投资者进去除了钱还能带点别的东西,解决创业过程中的一些重大问题。现在他有人才、有算力,就能解决掉重大的问题,对于这些初创企业来说,是这家投还是那家投,无非就是哪个名气好听点。但很快大家就会发现这些名气也没什么了不起的,投资者在这个过程中的实际地位会被边缘化。

  另一个不同点就是品牌也会越来越不重要。现在大家的水平很透明,他做出了SOTA(当前最好水平)的东西,你做不出就是不行。SOTA和Benchmark(基准)这种指标是很有意义的做法,大家都放在阳光底下比试。有多少本事,论文拿出来,有多少人引用你这个产品,放GitHub上有多少个star(即加星,类似收藏,用户可以将感兴趣的开源项目收藏到自己的GitHub主页方便日后使用,Star数量是衡量项目受欢迎程度的核心指标之一;高Star项目更容易被社区信任和采用;很多招聘方或投资人会看一个开发者维护的项目有多少Star。——编者注)。投资人的品牌可能现在还是有很大作用,但未来我觉得连品牌都会越来越不重要。对真正的人才来说,他根本不会缺钱,也不缺资源。

  财新:那投资模式需要做出什么样的改变?

  陈天桥:投资模式肯定要做大的改变。我也做过很多尝试,但到现在为止也没有太多的想法。我只能想到投资模式肯定要改变,因为人才的作用前所未有的强大,投资者要把自己从主导者变成一个服务者,甚至很多时候,人家能带你玩就不错了。

  财新:你如何看待AI泡沫论?近期市场的回调可以被理解成是泡沫有一点被戳破吗?

  陈天桥:市场当然是可以回调的,大盘这段时间有几个点的涨跌,这是非常正常的事情,但目前来看依然没有回调,现在纳斯达克仍然走在历史最高的区间。哪怕最后真正看到了回调,那是因为大家害怕太高,希望回调,才导致了回调。这是预言的自我实现,不代表着AI本身的技术发展有了泡沫。

  从客观的角度来说,就像我前面说现在还只是AI三年,人类已经几百万年了,我们正处在起点,所谓的泡沫是无稽之谈。比如有人说我们到现在还没有一个超级应用出现,超级应用这个事情本身可能就是个伪命题。

  财新:意思是用落地应用丈量AI发展可能是伪命题?

  陈天桥:在互联网时代,我们习惯清晰的角色分工:你是做操作系统的,我是做应用的;你是开商店的,我是提供工具的。这套思维生搬硬套到AI领域,可能就会有些刻舟求剑。

  有人质疑“AI还没有真正的应用”,可事实是,不到六个月,就有像ChatGPT这样的产品吸引了全球超过8亿用户,超过了历史上任何一个应用,这难道不算一个现象级的超级应用吗?它本身就已经是终端用户每天直接使用的“应用”了,甚至在某种程度上“吞噬”了传统应用的边界。

  Anthropic这些公司也在重新定义人机交互的方式。每一次新模型推出,本质上都在催生新的使用场景和用户行为,AI模型本身也可以是终端应用。到现在还有人声称“AI什么都不会”。想想在人类历史上,你是否曾见过任何一个非人类实体,能与你连续对话一小时,理解上下文、回答问题甚至共情?如果这都不算能力,那什么才算?

  财新:围绕你认为的五个基础难题,目前你是怎么布局的?

  陈天桥:我认为SNN是下一代大模型的重要方向。2026年春节,我们会推出一个完全基于SNN构建的大模型,在绝对性能上可能暂时还比不上主流模型,但它的运行成本有望实现指数级下降,这是我们的核心优势。

  我们在东京、新加坡、北京、上海、旧金山都有团队,专注在SNN、长期记忆、因果推理和世界建模这些底层问题上,踏踏实实地往前走,目前几个关键技术模块已落地。EverMemOS第一版已经上线,20天里GitHub上就有1000多个star,说明大家对长期记忆有需求,之后也会持续迭代;因果推理引擎MiroMind在普林斯顿大学、斯坦福大学和字节跳动联合推出的FutureX Benchmark上,自首次亮相后稳居榜首。这个基准测试每周给模型80个尚未发生的现实事件,比如“特朗普会不会出兵委内瑞拉”等等,要求模型进行预测。因为结果当时无人知晓,所以这是没法靠“刷题”或记忆取巧,必须真正理解世界、进行推理,是面向未来的判断力。在国内我们宣传得比较少,但实际上,MiroMind已经在这一基准测试上持续超越包括马斯克的Grok模型在内的国际对手。马斯克本人非常相信预测未来是最重要的智慧,总体来说我也相信这个世界是由因果来组成。我们之前为什么不能准确的推理?是因为我们的数据不够,大脑的能力不够。

  财新:你相信上帝不掷骰子。

  陈天桥:我是相信上帝不掷骰子的。哪怕是量子力学,那也是因为我们还没有发现测它的背后的规律。但仅仅在现实社会里,我觉得只要数据到位、算力到位,连天上的天气我都能预测,哪一阵风什么时候从哪里刮来我都能预测。其次,实际预测也不需要100%那么准。我们用随机猜测的基准线,假定世界上大部分复杂事情的发生和不发生概率是50对50,你能预测到70对30,这就已经让你成为太牛的人了。100%本来就不是我们的目标。

  财新:对于给出去的钱,你会设置里程碑进行成果验收吗,比如多少年需要见到大致什么样的成果?

  陈天桥:我觉得五年之内这些问题如果不解决……不应该这样说,五年之内有些问题一定能解决,如果不是我们解决,我们就没有存在的意义了。我也跟团队说,五年之内你们要多少钱、要多少算力,我都给你。但是如果到5年之后,没有做成的,团队就必须自己离开。不是说我养不起你,或者我觉得我不想养你了,而是五年之后,这个世界上一定有人把这个问题解决了,如果不是你,那你也不会再有机会解决这个问题了。

  财新:现在国际上的AI竞争被认为是又一次军备竞赛,你怎么看待这次技术引发的新一轮国家间竞争?

  陈天桥:人类现有需求这个市场当然是AI很好的应用场景,AI可以让满足这些需求的成本更低、效率更高,但副作用就是人类的工作没了。所以我不是很鼓励AI去模仿人类,比如怎么样更像人,怎么干家务活,怎么帮人送快递,我觉得宏观上这些都不用急,政策支持哪怕相对慢一点,也会有人做,因为市场激励会发挥作用。

  真正国家和政府需要关注的,或者说AI给人类带来最大的价值,是帮助人来发现未知的知识,以创造更大的价值。这是AI为人类创造价值的本质。存量取代人类劳动力的竞争是没有太大意义的,我们应该把未来的投入放在增量价值的竞争上。增量是靠什么?不是靠存量取代出来的,是靠发现出来的。所以我认为AI for science的重要性怎么强调都不为过。

  真正的国家竞争,应该是把所有的AI的能力放到AI for science 上面去。谁第一个实现了核聚变,谁第一个上了火星,这是给任何一个国家真正带来增量的竞争力,而不是存量的优化。当然这只是我的看法。

LOOPER'S DAILY
LOOPER'S DAILY
LOOPER'S DAILY
LOOPER'S DAILY
LOOPER'S DAILY
LOOPER'S DAILY

Leave a Comment

您的邮箱地址不会被公开。 必填项已用 * 标注