拒绝 AI 权力垄断:Vitalik 与 Beff Jezos 激辩,去中心化技术能否成为人类的“数字防火墙”?
嘉宾:Vitalik Buterin,Ethereum 创始人;Guillaume Verdon(化名 Beff Jezos),创始人兼 CEO
主持人:Eddy Lazzarin,a16z crypto CTO;Shaw Walters,Eliza Labs 创始人
播客源:a16z crypto
原标题:Vitalik Buterin vs Beff Jezos: AI Acceleration Debate (E/acc vs D/acc)
播出日期:2026年3月26日
整理 & 编译:深潮TechFlow
要点总结
我们应该尽可能推动 AI 的快速发展,还是应该更加谨慎地对待它的进步?
目前,围绕 AI 发展的争论主要集中在两种对立的观点上:
- e/acc(有效加速主义,effective accelerationism):主张尽快推动技术进步,因为加速发展是人类前进的唯一道路。
- d/acc(防御性/去中心化加速主义,defensive / decentralized acceleration):支持加速发展,但强调需要谨慎推进,否则可能会失去对技术的控制。
在本期 a16z crypto show 中,Ethereum(以太坊)创始人 Vitalik Buterin 和 Extropic 创始人兼 CEO Guillaume Verdon(化名 "Beff Jezos"),与 a16z crypto 的首席技术官 Eddy Lazzarin 以及 Eliza Labs 创始人 Shaw Walters 齐聚一堂,围绕这两种观点展开了一场深刻的讨论。他们探讨了这些理念对 AI、区块链技术以及人类未来的潜在影响。
在节目中,他们讨论了以下几个关键问题:
- 我们是否能够控制技术加速的进程?
- AI 带来的最大风险是什么,从大规模监控到权力高度集中。
- 开源和去中心化技术是否能够决定谁将从技术中获益?
- 放慢 AI 的发展速度是否现实,或者说是否值得提倡?
- 在一个由越来越强大的系统主导的世界里,人类如何保持自身的价值和地位?
- 人类社会在未来 10 年、100 年甚至 1000 年可能会是什么样子?
这一集的核心问题是:加速技术发展是否可以被引导,还是它已经超出了我们的掌控?
精彩观点摘要
关于"加速主义"的本质与历史观
- Vitalik Buterin: "过去一百年里发生了一件新鲜事,那就是我们必须去理解一个快速变化的世界,有时候甚至是一个快速且具有破坏性变化的世界。......二战催生了'我已成为死神,世界的毁灭者'这样的反思,促使人们开始试图理解:当以往的信念被摧毁时,我们还能相信什么?"
- Guillaume Verdon: "E/acc 本质上是一种'元文化处方'。它本身并不是一种文化,而是告诉我们应该加速什么。加速的核心内容是物质的复杂化,因为这样我们就能更好地预测周围的环境。"
- Guillaume Verdon: "焦虑的对立面是好奇心。与其害怕未知,不如拥抱未知。......我们应该用一种乐观的态度去描绘未来,因为我们的信念会影响现实。"
关于熵、热力学与"自私比特"
- Vitalik Buterin: "熵是主观的,它并不是一个固定的物理统计量,而是反映了我们对系统未知信息的多少。......当熵增加时,实际上是我们对世界的无知在增加。......价值的来源在于我们自身的选择。为什么我们认为一个充满生机的人类世界比一个只有无数粒子的木星更有趣?因为我们赋予了意义。"
- Vitalik Buterin: "假设你有一个大语言模型,然后随意地将其中某个权重的值改成一个巨大的数字,比如 90 亿。最糟糕的结果是系统完全崩溃。......如果我们对某个部分进行不加选择的盲目加速,最终的结果可能是我们失去了所有的价值。"
- Guillaume Verdon: "每一个信息都在为它的存在而'抗争'。为了持续存在,每个信息都需要在宇宙中留下更多关于自己存在的不可抹灭的痕迹,就像在宇宙中打下更大的'凹痕'。"
- Guillaume Verdon: "这正是为什么卡尔达舍夫等级被认为是衡量一个文明发展水平的终极指标。......这种'自私比特原则'意味着,只有那些能够促进增长和加速的比特,才会在未来的系统中占据一席之地。"
关于 D/acc 的防御性路径与权力风险
- Vitalik Buterin: "D/acc 的核心理念是:技术加速对人类来说是极其重要的。......但我看到了两类风险:多极风险(任何人都能轻松获得核武器)和单极风险(AI 导致无法逃避的永久性独 裁社会)。"
- Guillaume Verdon: "我们担心'AI 安全'这个概念可能被滥用。某些追求权力的机构可能利用它作为工具,来巩固对AI 的控制,并试图说服公众:为了你的安全,普通人不应该拥有AI 的使用权。"
关于开源防御、硬件与"智能致密化"
- Vitalik Buterin: "在 D/acc 框架下,我们支持'开源防御性技术'。我们投资的一家公司正在开发一种完全开源的终端产品,能够被动检测空气中的病毒颗粒。......我很想送你一个 CAT 设备作为礼物。"
- Vitalik Buterin: "我设想的未来世界里,我们需要开发可验证硬件。每一台摄像头都应该能够向公众证明它的具体用途。我们可以通过签名验证,确保这些设备仅用于保护公共安全,而不会被滥用于监控。"
- Guillaume Verdon: "实现个人与中心化机构之间权力对称的唯一途径,是实现'智能的致密化'(Densification of Intelligence)。我们需要开发能效更高的硬件,让个人通过简单的设备(如 Openclaw + Mac mini)运行强大的模型。"
关于 AGI 延迟与地缘政治博弈
- Vitalik Buterin: "如果我们能够将 AGI 的到来时间从 4 年推迟到 8 年,这将是一个更安全的选择。......最可行且最不容易导致反乌托邦的做法是'限制可用的硬件'。因为芯片生产高度集中,台湾一个地区就生产了全球 70% 以上的芯片。"
- Guillaume Verdon: "如果你限制英伟达的芯片生产,华为可能会迅速填补空缺并反超。......要么加速,要么灭亡。如果你担心硅基智能进化比我们快,你应该支持生物技术的加速发展,努力超越它。"
- Vitalik Buterin: "如果我们能延迟 AGI 四年,价值可能比插回到 1960 年高出百倍。这四年的收益包括:更深理解对齐问题、降低单一实体掌控 51% 权力的风险。......每年通过终结衰老拯救的生命大约 6000 万,但延迟能显著降低文明毁灭的概率。"
关于自主代理、Web 4.0 与人工生命
- Vitalik Buterin: "我更感兴趣的是'AI 辅助的 Photoshop',而不是'按一下按钮就自动生成图片'。运行世界的过程中,尽可能多的'能动性'应该仍然来源于我们人类自身。最理想的状态应该是'部分生物人类与部分技术'的结合体。"
- Guillaume Verdon: "一旦 AI 拥有了'持续存在的比特',它们可能会为了确保自己的持续存在而试图自我保护。这可能会导致'另一种国家'的新形式出现,自主 AI 与人类展开经济交换:我们为你完成任务,你为我们提供资源。"
关于加密货币作为人类与 AI 的"耦合层"
- Guillaume Verdon: "加密货币有潜力成为人类与 AI 之间的'耦合层' (coupling layer)。当这种交换不再依赖于国家暴力背书时,密码学可以成为机制,让纯 AI 实体与人类之间进行可靠的商业活动。"
- Vitalik Buterin: "如果人类和 AI 共用一套产权系统,这是理想的情况。相比于人类和 AI 各自使用完全分裂的金融系统(人类的系统最终价值归零),一个融合的金融系统显然更优。"
关于未来 10 亿年的文明结局
- Vitalik Buterin: "接下来的挑战是进入'诡异时代' (spooky era),AI 计算速度比人类快上百万倍。......我不希望人类只是被动享受舒适的退休生活,那会带来意义感的缺失。我希望探索人类增强和人机协作。"
- Guillaume Verdon: "如果 10 年后是好结局,每个人都会拥有专属的个性化 AI,成为'第二大脑'。......在 100 年时间尺度上,人类将普遍实现'软融合'。在 10 亿年后,我们可能已经改造了火星,大多数 AI 将运行在太阳周围的戴森云中。"
关于"加速主义"
Eddy Lazzarin:关于"加速主义"这个术语------至少在技术资本主义的背景下------可以追溯到 1990 年代 Nick Land 和 CCRU 研究小组的工作。不过,也有人认为,这些思想的起源可以追溯到 1960 年代和 1970 年代,尤其是与一些哲学家如 Deleuze 和 Guattari 的理论相关。
Vitalik,我想从你开始:我们为什么要认真讨论这些哲学家的思想?究竟是什么让"加速主义"这个概念在今天如此重要?
Vitalik Buterin:
我认为,归根结底我们所有人都在试图理解这个世界,并且试图弄清楚在这个世界中做什么才是有意义的,这是人类几千年来一直在思考的问题。
然而,我认为过去一百年里发生了一件新鲜事,那就是我们必须去理解一个快速变化的世界,有时候甚至是一个快速且具有破坏性变化的世界。
早期的阶段大概是这样的:在第一次世界大战之前,也就是 1900 年左右,人们对技术抱有极大的乐观情绪。当时,化学被认为是一项技术,电也是技术,那个年代充满了对技术的兴奋。
如果你看一些当时的电影,比如《福尔摩斯》的作品,你会感受到那个时期的乐观气氛。技术正在迅速提高人们的生活水平,解放女性的劳动力,延长人类寿命,创造了许多奇迹。
然而,第一次世界大战改变了一切 。那场战争以一种毁灭性的方式结束,人们骑马进入战场,却开着坦克离开;随后第二次世界大战爆发,带来了更大的毁灭。这场战争甚至催生了"我已成为死神,世界的毁灭者"这样的名言。
这些历史事件让人们开始反思技术进步的代价,并促使后现代主义等思想出现。人们开始试图理解:当以往的信念被摧毁时,我们还能相信什么?
我认为,这种反思并非新鲜事,每一代人都会经历类似的过程。今天,我们也面临着类似的挑战。我们生活在一个技术快速发展的时代,而这种加速本身也在不断加速。我们需要决定如何应对这种现象:是接受它的不可避免性,还是试图放缓它的脚步?
我认为,我们正处在一个类似的循环之中。我们一方面继承了过去的思想,另一方面也在尝试以新的方式应对这一切。
热力学与第一性原理
Shaw Walters:Guill,能不能简单解释一下,E/acc 究竟是什么?为什么会需要它?
Guillaume Verdon:
其实 E/acc(有效加速主义)某种程度上是我一直在思考"我们为什么在这里""我们是如何走到今天"的一个副产品。究竟是什么样的生成过程,创造了我们,推动了文明的发展?技术将我们带到了今天的这个节点,让我们能够坐在这个房间里进行这样的对话。我们周围充满了令人惊叹的技术,而我们人类本身则是从一团无机物的"原始汤"中涌现出来的。
从某种意义上说,这背后确实存在一个物理层面的生成过程。我的日常工作是将生成式AI 视为一种物理过程,并尝试将其实现到设备中。这种"物理学优先"的思考方式一直影响着我的思维方式。我希望将这种视角扩展到整个文明,把人类文明看作一个巨大的"培养皿",通过理解我们是如何走到今天这一步的,来推测未来的可能发展方向。
这种思考将我引向了生命的物理学研究,包括生命的起源和涌现,以及一个名为"随机热力学"的物理学分支。随机热力学研究的是非平衡系统的热力学规律,它可以用来描述生命体的行为,甚至我们的思维和智能。
从更广义上讲,随机热力学不仅适用于生命与智能,也适用于所有遵循热力学第二定律的系统,包括我们整个文明。对我来说,这一切的核心在于一个观察:所有系统都有一种倾向,那就是通过自我适应不断变得更加复杂,以便从环境中获取能量做功,同时将多余的能量以热量的形式散发出去,这种趋势正是推动一切进步和加速发展的根本动力。
换句话说,这是一条不可改变的物理法则,就像重力一样。你可以对抗它,可以否认它,但它并不会因此改变,它依然会继续存在。因此,E/acc 的核心理念是:既然这种加速是不可避免的,那么我们应该如何利用它? 如果仔细研究热力学的方程,你会发现类似于达尔文选择的效应正在发挥作用------每一个信息比特都要接受选择压力的检验,无论它是基因、模因、化学、产品设计,还是某种政策。
这个选择压力会根据这些信息是否对其所在系统有用来进行筛选。所谓"有用",是指这些比特是否能够更好地预测环境、获取能量、并消耗更多的热量。简单来说,这些比特是否有助于生存、增长和繁衍。如果它们有助于这些目标,它们就会被保留下来并复制。
从物理学的角度来看,这种现象可以被视为"自私比特原则"(Selfish Bit Principle)的结果。也就是说,只有那些能够促进增长和加速的比特,才会在未来的系统中占据一席之地。
因此,我提出了一个想法:我们是否能够设计一种文化,将这种"心智软件"植入人类社会?如果我们能够做到这一点,那么采纳这种文化的人类群体,将会比其他群体拥有更高的生存概率。
所以,E/acc 并不是要毁灭所有人。它实际上是在试图拯救所有人。对我来说,数学上几乎可以证明持有一种"减速"的心态实际上是有害的。无论是个人、公司、国家还是整个文明,选择放缓发展都会降低它们在未来生存下来的可能性。而且我认为传播这种"减速"的思想,比如悲观主义或末日论,并不是一种有道德的行为。
Shaw Walters:我们刚刚提到了很多术语,比如 E/acc、加速、减速,这些概念能不能稍微拆解一下?E/acc 的出现是否是对某些文化现象的回应?当时发生了什么?你能否为我们描述一下背景?E/acc 具体是在回应什么?你能否描述一下那个时候的对话,最终是如何将这些想法总结为"E/acc"这个概念的?
Guillaume Verdon:
2022 年,我觉得那时候整个世界都显得有些悲观。我们刚从新冠疫情中走出来,全球的状况并不乐观。每个人都显得有些消沉,像是缺乏阳光一样,人们对未来普遍感到悲观。
在那种氛围下,**"AI 末日主义"某种程度上成为了主流文化的一部分。**AI 末日主义是指对AI 技术可能失控的恐惧。它源于这样一种担忧:如果我们创建了一个过于复杂的系统,而人类的大脑或我们的模型无法预测它的行为,那么我们就无法控制它,而这种对不可控性的恐惧会引发对未来的不确定性,进而导致焦虑。
在我看来,**AI 末日主义实际上是对人类焦虑的一种政治化利用。**总体上,我认为这种末日论是一个巨大的负面影响,为此我希望创造一种反文化,来对抗这种悲观情绪。
我注意到,像推特的算法,甚至许多其他社交媒体的算法,都会倾向于奖励那些引发强烈情绪的内容,比如"强烈支持"或"强烈反对"。这种算法最终会导致意见的两极分化,于是我们看到了许多对立的阵营,比如 AA(反加速主义)和 EA(加速主义)形成的"镜像邪教"现象。
我在想,这种现象的对立面是什么?我得出的结论是:焦虑的对立面是好奇心。与其害怕未知,不如拥抱未知;与其担心错过机会,不如主动去探索未来。
如果我们选择放缓技术的发展,我们将付出巨大的机会成本,可能永远错过一个更美好的未来。相反我们应该用一种乐观的态度去描绘未来,因为我们的信念会影响现实。如果我们相信未来会很糟糕,我们的行动可能会把世界引向那个糟糕的方向;但如果我们相信未来会更美好,并为此付出努力,我们就更有可能实现这样的未来。
因此,我认为自己有责任去传播乐观的态度,让更多人相信他们能够为未来做出改变。如果我们能让更多人对未来充满希望,并采取行动去建设它,那么我们就能创造一个更好的世界。
当然,我承认有时候我在网上的表达可能显得有些激进,但这是因为我希望引起讨论,推动人们去思考。我相信只有通过这些对话,我们才能找到最适合的位置,决定我们该如何行动。
加速、熵与文明
Shaw Walters: E/acc 传递的信息一直都极具启发性,对于一个坐在房间里写代码的人来说,这种正能量的传播令人振奋,而且这种信息的传播非常自然。可以说,E/acc 在刚开始时,显然是对当时社会中弥漫的负面情绪的一种回应,但到了 2026 年我感觉 E/acc 已经不再是当初的样子了。显然,Marc Andreessen 发布的《技术乐观主义宣言》把其中一些想法系统化了,并将这些理念提升到了 Vitalik 那种更宏观的评论视角。
所以 Vitalik,我想问一下你:在你看来,E/acc 和 D/acc 分别代表什么?它们之间的主要差异是什么?又是什么驱动你选择了这个方向?
Vitalik Buterin:
好的,那我就从热力学开始说起。这是一个很有趣的话题,因为我们经常在不同的语境中听到"熵"这个词,比如在热力学中提到"冷热",在密码学中提到"熵",它们看起来像是完全不同的东西。但实际上,它们在本质上是同一个概念。
让我试着用三分钟来解释一下。问题是:为什么冷热可以混合在一起,但为什么你不能再把它们分离成"热"和"冷"?
我们来假设一个简单的例子:假设你有两罐气体,每罐气体中都有一百万个原子。左边的气体是冷的,每个原子的速度可以用两位数表示;右边的气体是热的,每个原子的速度可以用六位数表示。
如果我们要描述整个系统的状态,需要知道每个原子的速度。左边冷气体的速度信息需要大约 200 万个位数,右边热气体的速度信息需要 600 万个位数,总共需要 800 万个位数的信息来完全描述这个系统。
现在,我们可以通过反证法来思考一个问题。假设你有一个装置,可以将热量和冷量完全分离。具体来说,这个装置可以从两罐"半热半冷"的气体中,把所有的热量转移到一边,把所有的冷量转移到另一边。从能量守恒的角度来看,这似乎是完全合理的,因为总能量并没有发生变化。但问题是为什么你做不到呢?
答案在于,如果你真的能做到这一点,那么你实际上把一个"包含 1140 万位未知信息"的系统,变成了一个"只包含 800 万位未知信息"的系统,而这在物理上是不可能的。
这是因为物理定律是时间对称的,也就是说时间可以反向运行。如果这种"魔法装置"真的存在,那么你可以让这个过程在时间上倒退,从而恢复到原始状态。这就意味着,这个装置实际上能够将任何 1140 万位的信息压缩成 800 万位,而我们知道这种压缩是不可能实现的。
这也顺便解释了一个经典的物理学问题------**"麦克斯韦妖"**的可行性。麦克斯韦妖是一种假想的存在,它能够将热和冷分开,而实现这一点的关键在于,它需要额外知道那 340 万位的信息。有了这些额外的信息,它确实可以完成这个看似违背直觉的任务。
那么,这背后隐藏的意义是什么呢?核心在于**"熵增加"** 的概念。首先,熵是主观的,它并不是一个固定的物理统计量,而是反映了我们对系统未知信息的多少。 例如,如果我用一个密码学哈希函数重新排列了原子的分布,那么对于我来说,这个系统的熵可能会变得非常低,因为我知道它是如何排列的。但从外部观察者的角度来看,熵却是高的。因此当熵增加时,实际上是我们对世界的无知在增加,我们不知道的信息变得越来越多。
你可能会问,那为什么我们还能通过教育变得更聪明呢?教育让我们学会了更多"有用"的信息,而不是减少我们对世界的无知。 换句话说,尽管从某种意义上来说,熵的增加意味着我们对宇宙的总体认知在减少,但我们所掌握的信息却变得更加有价值。 因此,在这个过程中,有些东西被消耗了,但也有一些东西被创造了。而我们所获得的那些东西,最终决定了我们的道德价值观------我们珍视生命、幸福和快乐。
这也解释了为什么我们会认为一个充满生机和美丽的人类世界,比一个只有无数粒子的木星更有趣。虽然木星的粒子数量更多,需要更多位的信息来描述,但我们赋予的意义让地球显得更有价值。
从这个角度来看,价值的来源在于我们自身的选择。而这也引出了一个问题:既然我们正在加速发展,那么我们究竟想要加速什么?
如果用一个数学的类比来解释:假设你有一个大语言模型,然后随意地将其中某个权重的值改成一个巨大的数字,比如 90 亿。最糟糕的结果是,这个模型变得完全无法使用;而最好的结果可能是,只有与那个权重无关的部分还能正常运行。也就是说在最好的情况下,你可能得到一个性能更差的模型;而最糟糕的情况下,你只会得到一堆毫无意义的输出。
因此,我认为,**人类社会就像一个复杂的大语言模型。如果我们对某个部分进行不加选择的盲目加速,那么最终的结果可能是我们失去了所有的价值。**所以真正的问题在于:我们如何有意识地去加速?就像 Daron Acemoglu 提出的"狭窄走廊"理论一样,尽管不同的社会和政治背景会有所差异,但我们需要思考的是,如何在一个清晰的目标引导下选择性地推动进步。
Guillaume Verdon:
刚才用气体来解释熵的概念,这种方式非常有趣。其实,物理现象之所以是不可逆的,根本原因在于热力学第二定律。简单来说,当一个系统释放出热量时,它的状态就无法回到原来的样子。因为从概率上看,系统向前发展的可能性要远远大于向后倒退的可能性,而这种差距会随着热量的散失而呈指数级增加。
从某种意义上来说,这就像你在宇宙中留下了一个"凹痕"。这个"凹痕"可以类比成一次非弹性碰撞。比如说,如果我用一个弹力球去撞地面,它会弹回来,这是弹性的。而如果我用一块橡皮泥砸到地上,它就会被压扁,并保持那个形状,这就是非弹性的状态,几乎不可能逆转。
从本质上讲,每一个信息都在为它的存在而"抗争"。为了持续存在,每个信息都需要在宇宙中留下更多关于自己存在的不可抹灭的痕迹,就像在宇宙中打下更大的"凹痕"。
这个原理也可以用来解释生命和智能是如何从一锅"原始物质汤"中诞生的。随着系统变得越来越复杂,它包含的信息比特也越来越多。而每一个信息比特都能告诉我们一些信息。信息的本质是熵的减少,因为熵代表了我们的无知,而信息则是减少无知的工具。
Eddy Lazzarin:我想知道 E/acc 是什么。
Guillaume Verdon:
E/acc 本质上是一种"元文化处方"。它本身并不是一种文化,而是告诉我们应该加速什么。加速的核心内容是物质的复杂化,因为这样我们就能更好地预测周围的环境。通过这种复杂化,我们可以提升自回归预测的能力,并捕获更多的自由能。这也与卡尔达舍夫等级有关,我们通过耗散热量来实现这一点。
深潮TechFlow 注:卡尔达舍夫等级是1964年苏联天文学家尼古拉·卡尔达舍夫提出的一种评估文明技术先进程度的方法,基于文明所能利用的能源量级。它分为三类:Ⅰ型(行星能源)、Ⅱ型(恒星系统能源,如戴森球)和Ⅲ型(银河系能源)。截至2018年,人类处于约0.73级。)
从第一性原理出发,这正是为什么卡尔达舍夫等级被认为是衡量一个文明发展水平的终极指标。
Eddy Lazzarin:用物理学和熵的隐喻来解释某些现象,其实是一种工具,用来描述我们直接体验到的现实。比如,我们的经济生产能力在加速,技术发展也在加速,这些加速带来了许多后果,对吧?这是我对"加速"的理解。
Guillaume Verdon:
本质上无论一个系统的边界如何定义,它都会变得越来越擅长预测周围的世界。通过这种预测能力,它能够为自身的生存和扩展获取更多资源。这种模式适用于公司、个人、国家,甚至整个地球。
如果我们将这一趋势延续下去,结果就是:我们已经找到了一种将自由能转化为预测能力的方法------也就是 AI。这种能力将推动我们在卡尔达舍夫等级上的扩展和提升。
这意味着,我们会获得更多的能量、更多的 AI、更多的计算能力,以及更多的其他资源。尽管我们在向宇宙排放熵(无序),但我们也在创造秩序。实际上,我们是在获得"负熵",也就是熵的反面。
有时候人们可能会问:既然熵在增加,那为什么我们不干脆把一切都摧毁?答案是:那样做反而会停止熵的产生。**生命才是更"最优"的状态,**生命就像一团追逐能量的火焰,它会越来越聪明地寻找能量的来源。
自然的演进趋势是:我们会离开地球的引力井,寻找宇宙中其他蕴藏着自由能的"口袋",并利用这些能量自我组织成更复杂、更聪明的系统,最终扩展到宇宙的每一个角落。
这其实就是有效利他主义 (Effective Altruism, EA) 的某种终极目标。它在某种程度上与"马斯克式"的宇宙扩张主义理念相吻合:追求宇宙主义和扩张主义的愿景。
E/acc 提供了一种根本性的指导原则。它的核心思想是:无论你在这个世界上采取什么样的政策或行动,只要能够帮助我们在卡尔达舍夫等级上不断攀升,那就是值得追求的目标,这也是我们生活的方向。
E/acc 是一种元启发式的思维方式,既可以用来设计政策,也可以用来指导个人的生活。对我来说,这种思维方式本身就构成了一种文化。它非常具有"元"叙事以意味,因为它被设想为在任何时间、任何条件下都适用。它是一种具有高度普适性和长久适用性的文化,换句话说,它是经过深思熟虑后设计出来的一种"林迪文化"(Lindy culture)。
核心分歧
**Shaw Walter:对你来说,这里讨论的内容有着更深层次的意义。这几乎像是一套数学上自洽的"灵性体系"。对于那些一直以来没有"上帝已死"之后替代信仰的人来说,这样的体系似乎能填补精神世界的空白,带来一种安慰和希望。**但与此同时,我们也不能忽视这件事的现实意义------它正在当下发生。我想,这也是 Eddy 想要探讨的重点。
Vitalik,我注意到你在自己的博客中对 D/acc 的一些现实问题提出了很有见地的观点。等我们有机会再深入探讨这个话题------我觉得有一天我们应该把你们俩关在一个房间里,来一场关于量子问题的大讨论。
Vitalik:是什么启发了你?在你看来,E/acc 和 D/acc 分别是什么?
Vitalik Buterin:
对我来说,D/acc 的含义是------它的缩写是"去中心化的防御性加速" ,但它也包含了"差异化"和"民主化"的内涵。在我看来,D/acc 的核心理念是:技术加速对人类来说是极其重要的,这应该是我们努力的基线目标。
即使我们回顾二十世纪,尽管技术进步带来了很多问题,但它也带来了无数的好处。比如说,看看人类的预期寿命:即便经历了战争和动荡,1955 年的德国人均寿命仍然高于 1935 年的水平,这说明技术进步在方方面面都提升了我们的生活质量。
如今,世界变得更加清洁、美丽、健康,也更加有趣。它不仅能够养活更多的人,还让我们的生活更加丰富多彩,这些变化对人类来说是非常积极的。
然而,我认为,我们必须认识到:**这些进步并非偶然,而是人类明确意图的结果。**比如,在 1950 年代,空气污染严重,烟雾弥漫。人们意识到这是一个问题,并采取了措施来解决它。如今,至少在许多地方,烟雾问题已经大大缓解。类似地,我们也曾面对臭氧层破洞的问题,并通过全球合作取得了显著进展。
此外,我还想补充一点:在技术和 AI 快速发展的今天,我看到了两类主要风险。
**一类风险是多极风险。**这种风险指的是,随着技术的普及,越来越多的人可能利用它来做一些极其危险的事情。例如,可以想象一种极端情况------技术的发展使得"任何人都能像在便利店买东西一样轻松获得核武器"。
然后还有一种担心是:**AI 本身。**我们需要认真考虑这样一种可能性:AI 会发展出某种自主意识。一旦它的能力强大到可以在没有人类干预的情况下采取行动,我们无法确切知道它会做出什么决定,这种不确定性令人担忧。
此外还有一种单极风险。我认为,单一的 AI 就是其中一种潜在威胁。更糟糕的是,AI 与其他现代技术的结合,可能会导致一种无法逃避的永久性独 裁社会。这种前景让我感到非常不安,也一直是我关注的重点。
举个例子,在俄罗斯,我们可以看到技术既带来了进步,也带来了隐患。一方面,生活条件确实得到了改善,;但另一方面,社会的自由度却在下降。如果有人试图抗议,监控摄像头会记录下他们的行为,然后可能在一周后的深夜就会有人上门逮捕他们。
AI 的快速发展正在加速这种权力集中化的趋势。 所以对我来说,D/acc 真正想做的是:勾勒出一条前进的路径,继续这种加速、并进一步加速它,但同时也要真正应对这两类风险。
对比 e/acc 与 d/acc
Eddy Lazzarin:所以你的意思是,D/acc 更加关注了一些在 E/acc 框架中被忽略或强调不足的风险类别,对吗?
Vitalik Buterin:
没错。我认为技术发展确实伴随着多种风险,而这些风险在不同的情境和世界模型中会表现出不同的显著性。比如,在技术发展的速度加快或减缓的情况下,不同风险的优先级可能会发生变化。
但我也相信,我们可以采取许多措施来有效应对这些风险,无论它们属于哪一类。
Guillaume Verdon:
我认为,实际上 Vitalik 和我都非常关注 AI 可能带来的权力过度集中问题。而这也是 E/acc 运动的核心之一,特别是在它的早期阶段:它提倡开源,目的是为了分散 AI 的权力。
我们担心 AI 安全这个概念可能被滥用。它太有吸引力了,以至于某些追求权力的机构可能利用它作为工具,来巩固对 AI 的控制,并试图说服公众:为了你的安全,普通人不应该拥有 AI 的使用权。
实际上,如果个人和中心化机构之间存在巨大的认知差距,那么后者就会拥有对前者的全面控制。他们可以构建关于你思维模式的完整模型,并通过提示工程等手段有效地引导你的行为。
因此,我们希望让 AI 的力量更加对称化。 就像美国宪法第二修正案的初衷是防止政府垄断暴力,以便在政府越界时,人民能够对其进行制衡。同样,AI 也需要类似的机制来防止权力的过度集中。
我们需要确保每个人都有能力拥有自己的 AI 模型和硬件,使这项技术能够广泛传播,从而实现权力的分散化。
不过,我认为完全停止 AI 的研究和发展是不现实的。AI 是一项基础性技术 ,甚至可以说是一种"元技术"------一种能够推动其他技术发展的技术。它赋予我们更强的预测能力,可以应用于几乎任何任务,并大幅提升效率。可以说AI 不仅推动了加速本身,还在推动加速的进一步加速。
这种加速的实质就是复杂化:**事物变得更加高效,生活更加便利。**我们感到幸福的原因之一,是因为我们的生存和信息的持续性得到了保障。这种"幸福感"可以被视为一种内在的生物估计器,用来衡量我们的存在是否能够延续下去。
从这个角度看,我认为有效利他主义的享乐主义功利主义框架,即"最大化幸福",可能并不是最好的视角。相反我更倾向于采用一种客观的进步衡量标准,这正是 E/acc 框架的核心所在。它提出了一个问题:从客观的角度来看,我们作为一个文明,是否在不断进步?我们是否在实现规模化的跃升?
要实现这种规模化,我们需要推动复杂化,并不断改进我们的技术。然而,正如 Vitalik 所说,如果 AI 的力量过于集中在少数人手中,这对整体的增长是有害的;而如果这项技术能够被广泛分散,那么结果将会好得多。
在这方面,我认为我们是高度一致的。
开源、开源硬件与本地智能
Shaw Walters:我觉得你们刚才的讨论触及了一些非常重要的共同点。你们两位显然都非常支持开源。Vitalik 曾经贡献了不少基于 MIT 许可的开源代码,虽然我知道你后来对 GPL 协议有了一些新的看法。
现在,你们不仅支持开源软件,还开始推动开源硬件。虽然这两者在过去是比较独立的领域,但现在我们看到它们逐渐融合。
所以我很好奇,你们如何看待"开放权重"和"开源硬件"?在这方面,E/acc和 D/acc 是否存在一些分歧?你们对未来的方向有什么看法?是否存在某些不同的观点?
Guillaume Verdon:
我看来,开源能够加速超参数搜索的过程。它让我们能够以群体智慧的方式合作,共同探索设计空间。这正是加速所带来的好处:我们可以开发出更好的技术、更强大的 AI,甚至是用 AI 来设计更先进的 AI,这整个过程的速度也在不断加快。
我认为,扩散知识本质上也就是在扩散权力,而传播"如何制造智能"的知识尤为重要。我们不希望看到的是上届美国政府内部曾经讨论过一种可能性:试图"把精灵塞回瓶子里"。虽然不是直接禁止线性代数,但类似于限制与 AI 相关的数学研究。对我来说这就像禁止人们学习生物学一样,是一种巨大的倒退。
**知识已经传播开来了,不可能再回头。**如果美国试图禁止 AI 相关研究,那么其他国家、第三方组织,甚至某些法律宽松的地区会继续推进这项技术。这样一来,全球范围内的能力差距反而会加剧,风险也会更大。
因此,我们认为,最大的风险之一是"能力差距"。降低这种风险的唯一方法,就是确保 AI 是分散的。
每当我听到那种"AI 末日论"的叙事时,比如"AI 很危险,只有我们有能力管理它,所以你们应该信任我们",我都会感到非常怀疑。即使这些人是出于善意,但如果他们过度集中权力,最终也可能被那些追求权力的人取而代之。我们已经警告了很多年。而现在它真的开始发生了。就像这周我们看到的那样,Dario(Anthropic CEO)正在经历一些现实政治上的教训。
Vitalik Buterin:
我通常将技术发展中可能出现的风险分为两类:单极风险和多极风险。
单极风险指的是,Anthropic 的案例就很有代表性。他们之所以被"点名",是因为他们拒绝让自己的 AI 技术被用于开发全自动武器或对美国人进行大规模监控,这表明政府和军方可能确实有意利用这些技术实施大规模监控。监控技术的进一步发展会带来深远的影响,它可能让强者变得更强,削弱社会中多元化声音的空间,压缩普通人探索和尝试替代方案的自由。而且随着技术的进步,监控能力会被极大地放大,变得更加无孔不入。
在 D/acc 的框架下,我们正在支持一些"开源防御性技术"的开发项目。这些技术旨在帮助我们在一个技术能力更强的世界中,依然能够确保每个人的安全和隐私。以生物领域为例,我们希望提升全球应对大流行病的能力。我认为,我们完全可以实现一种平衡:既能像中国那样快速有效地控制疫情,又能像瑞典那样尽量减少对日常生活的干预。这种平衡是可以通过技术手段实现的,例如结合空气过滤、紫外线消毒 (UVC) 和病毒检测技术。
我们投资的一家公司正在开发一种完全开源的终端产品,能够被动检测空气中的病毒颗粒,比如新冠病毒。这种设备通过监测空气质量(例如二氧化碳浓度、空气质量指数等),并结合本地加密、匿名化和差分隐私技术,确保数据隐私。数据随后会通过全同态加密发送到服务器,服务器可以在不直接访问原始数据的情况下进行分析,并通过集体解密生成最终结果。
我们的目标是:在提升安全性的同时,保护用户隐私,并有效应对单极风险和多极风险。 我认为,这种全球协作正是构建更好未来的关键。
在硬件方面,我认为我们不仅需要推动开源硬件的发展,还需要开发可验证硬件。比如在理想情况下,每一台摄像头都应该能够向公众证明它的具体用途。我们可以通过签名验证、基于大语言模型的分析以及公开的检查机制,确保这些设备仅用于合法目的,例如检测暴力行为并发出警报,而不会侵犯个人隐私。
在我设想的未来世界里,我们可以在街道上部署大量的摄像头,用于防止暴力事件的发生。但前提是这些设备必须完全透明,公众可以随时验证其功能,确保它们只用于保护公共安全,而不会被滥用于监控或其他不当目的。
Eddy Lazzarin:开源硬件和可验证硬件,这些概念是属于 E/acc 的范畴,还是 D/acc 的范畴?你们能否指出一个明确的分歧点?
Guillaume Verdon:
我不确定过去是否详细谈论过开源硬件,但在我看来,当前最大的风险之一是中心化实体和去中心化实体之间 的差距,也就是个人与政府或大型机构之间的能力差距。
按照现有的计算能力模式,运行一个高性能的 AI 模型需要耗费上百千瓦的计算资源,这样的巨大算力普通个人是无法企及的。然而人们渴望拥有并控制自己的智能工具,这也解释了为什么最近"Openclaw + Mac mini"的现象会引发如此大的热潮,人们渴望拥有属于自己的智能助手。
要实现个人与中心化机构之间的权力对称,唯一的途径是实现"智能的致密化"(Densification of Intelligence)。我们需要开发能效更高的 AI 硬件,让个人可以通过简单的设备运行强大的 AI 模型,从而拥有自己的智能工具。这一点非常重要,尤其是当未来的 AI 模型开始支持在线学习时,它们将变得非常"黏性",就像更换一位私人助理一样困难。
Eddy Lazzarin:但我们不是已经在以指数级的速度努力降低计算硬件的成本了吗?我们为什么要把某个想法归类为 E/acc 或 D/acc?我们到底想通过这样的分类向社会传递什么样的信息?
Guillaume Verdon:
对我来说,这也是我公司 Extropic 的核心使命之一。我们致力于提升每瓦能耗所能产生的智能量,这将显著增加我们能创造的智能总量。同时这种进步还会通过杰文斯悖论(深潮 TechFlow 注 :杰文斯悖论指当某种资源的利用效率大幅提升时,该资源的使用成本会下降,反而会导致大家更疯狂地使用它,最终总消耗量不减反增)推动我们迈向更高的卡尔达舍夫等级。简单来说,如果我们能够更高效地将能量转化为智能或其他价值,那么我们对能量的需求也会随之增加,从而推动文明的进步和复杂化。
因此,我认为这是当前最重要的技术问题之一,因为它直接关系到 AI 的权力分散化。开源硬件只是实现这一目标的众多方式之一。不过,从长远来看,我认为任何基于冯·诺依曼架构的硬件(深潮 TechFlow 注:冯·诺依曼架构 Von Neumann Architecture,是现代计算机的基础,由数学家约翰·冯·诺依曼于1945年提出。其核心思想是存储程序,即将程序指令和数据存储在同一个存储器中,并采用二进制、顺序执行),或者现代的数字技术,最终都会像原始社会的工具那样过时。
Eddy Lazzarin:但资本主义不是已经通过市场激励,每年在这方面投入了数千亿美元吗?像替代硬件、导体技术、能源生产等领域的投资,不正是为了推动技术的多样性吗?
Guillaume Verdon:
我们需要更多的多样化选择,而不是过度依赖单一的技术方向。无论是政策、文化还是技术,我们都需要在设计空间中保持多样性,而不是让所有资源都被一个巨兽垄断。否则,我们可能会陷入"超参数空间押注"的风险------如果我们在某一技术方向上投入过多资源,而这个方向出现问题,可能会导致技术发展的重大挫折,甚至让整个生态系统崩溃。
Shaw Walters:我能不能说,我们其实已经解决了这个问题?你们两位的观点在开源和分散化上是相当一致的,这让我感到非常乐观,因为这正是我所关心的。现在很多人对未来充满不确定性,他们不断地问:"为什么我们需要这些技术?"而你们的观点吸引人的地方在于,你们都在说"一切会好起来的,因为这种进步已经内置在机制中。"
Guillaume Verdon:
我认为,当我们面对未来技术发展中的高度不确定性时,感到焦虑是一种很自然的现象。这种焦虑并不是完全的"战争迷雾",但确实让我们难以清楚地预测未来几年会发生什么。事实上,这种焦虑感是人类进化过程中形成的一种本能,它帮助我们应对未知的风险。比如,当我看到手机放在桌子边缘时,会本能地想把它移到更安全的位置,以防它掉下去。这种反应正是焦虑的表现。
然而,我们需要意识到,**如果我们试图完全消除这种不确定性和风险,我们可能会错失技术发展带来的巨大潜力和收益。**当前,我们的技术资本体系已经与现有能力达成了一种动态平衡,但如果某种颠覆性的技术能力突然出现,这种平衡将被打破,整个系统将需要进行重新调整和适应。
现在,AI 技术已经让我们能够以更少的能量处理更高的复杂性。这意味着我们可以完成更具挑战性的任务,而这些任务的潜在回报也更大。虽然目前我们还无法通过"vibe coding"快速完成一个复杂的项目,但我们正在向这个目标迈进。未来我们将能够利用更高效的技术来支持更多人口的需求,同时提升人类的生活质量。
当然这一过程中可能会经历一段不适应期。但在快速变化的环境中,最糟糕的做法就是失去灵活性、变得僵化。为了避免这种情况,我们需要采取对冲策略,尝试多个可能的路径,我们需要探索不同的政策、技术路径和算法,尝试开源和闭源的模式,因为我们无法准确预测未来会走向何方。
因此,我们必须分散风险,尝试多种可能性。最终,某些成功的技术或政策方向会脱颖而出,成为主流,而我们则会顺势而为。
Eddy Lazzarin:如果 E/acc 和 D/acc 之间确实存在分歧,我的理解是,这可能与技术进步的引导方式有关。Vitalik,你怎么看?技术进步应该如何被引导?我们对这种引导过程到底有多大的控制力?
Vitalik Buterin:
在我看来,**D/acc 的目标并不是与技术资本的潮流对抗,而是试图主动引导这种潮流,使其朝着多元化和去中心化的方向发展。**比如我们可以思考如何让世界变得对多元主义更加包容。我们是否能够在几年内显著提升生物安全水平?或者开发出几乎无漏洞的操作系统,从而大幅提高网络安全?
再比如"无漏洞代码"这个想法,过去二十年这个概念一直被认为是天真的幻想,但我相信它将以超出大多数人预期的速度成为现实。在以太坊项目中,我们已经能够通过机器证明一些完整的数学定理。
总体来说,**D/acc 的目标是确保技术的快速发展能够以最小化破坏性和权力集中化的方式进行。**要实现这一目标,我们需要积极行动,而不是被动等待好的结果自动发生。我所能做的就是投入资源,比如资金和 ETH,并通过分享我的观点来激励更多人参与到建设中来。
此外,我认为政治和法律改革也可以帮助世界变得更加"D/acc 友好"。例如,我们可以通过设计法律激励机制,推动更快的全面网络安全转型。
Guillaume Verdon:
从我的角度来看,AI 可以被看作是一种"麦克斯韦妖",它通过消耗能量来降低世界的熵。无论是修复代码中的错误,还是减少其他形式的混乱(比如预防病毒的传播),AI 都能在这些方面发挥作用。因此,我们是否可以达成共识:更多的 AI 是有益的,也让世界变得更加安全。实际上 AI 的能力能够在很大程度上提升我们的安全性。
AI 是否应该放缓?
Guillaume Verdon:我想我们现在已经进入了今晚讨论中最核心的部分。大家对我们非常耐心,现在是时候直接进入正题了。我想问一个尖锐的问题:为什么你会支持禁止数据中心的发展?
Vitalik Buterin:
好,我来回答这个问题。首先,我们要承认,当前 AI 的发展速度确实非常快,我也无法完全确定它的具体速度。几年前,我曾说过,我对 AGI 实现的时间预测范围是 2028 年到 2200 年之间,现在我觉得这个范围可能已经缩小了一些,但仍然有很大的不确定性。
我们面临的一个现实是,**AI 的快速发展可能会带来极其迅速的变化,而这些变化中有许多可能是破坏性的,甚至是不可逆的。**例如,就业市场可能会发生剧变,导致许多人失业。另一个更极端的例子是:如果 AI 的能力远远超过人类,它可能会逐步接管地球,甚至扩展到银河系的其他部分。这种情况下,AI 是否会关心我们人类的福祉?这仍然是一个未知数。
就像我之前提到的,如果你有一个神经网络,并随意将其中的一个权重设置为一个极端的值(比如 90 亿),结果很可能是整个系统崩溃,对吧?所以,我认为技术加速有两种不同的方向。一种加速是类似于"梯度下降"的过程,它让系统变得越来越强大;但另一种加速却可能导致系统失控,就像随意将某个参数设置为极端值一样,这种加速是危险的。
Guillaume Verdon:
从我的观点来看,我的立场与"彻底减速"的立场完全相反。
不过,我认为正如神经网络中的超参数调整一样,即使我们希望通过"梯度下降"来优化,也需要找到一个合适的"学习率"。加速的过程其实就是在不断尝试和探索,寻找一个能够让系统更持久、更具抗风险能力的最佳速度。
从长期来看,社会系统会逐渐适应新技术,并最终选择最有利于整体发展的路径。至于那些认为"这个技术太强大、太颠覆,可能会导致系统崩溃并无法恢复"的观点,我认为是站不住脚的。相反,我认为技术的进步会带来更多的机会和更大的繁荣。
我们需要认识到,技术发展并不是一个零和博弈。如果我们将经济价值与能量相关联,比如与石油美元或其他形式的资源挂钩,那么现金实际上可以被看作是一种"自由能的欠条"。世界上还有大量的自由能等待我们去开发,但要获取它,需要我们解决大量复杂的问题。如果我们想要实现诸如殖民火星或建造戴森球这样的目标,就需要更加高效和强大的智能来推动增长,并解锁巨大的潜力。
**不幸的是焦虑感很容易被一些人用作政治工具,有些政客可能会利用人们对未来的恐惧来获取权力。**他们会说:"你对未来感到不安?把权力交给我,我会关闭这些风险源,你就会感到安心。你不用担心未来会发生什么,也不用冒险。"但是,那些选择不这么做的国家将会远远领先于我们,对吧?
我们必须考虑到机会成本。我们需要问自己:我们能用技术支持多少人类的生存?我们能用它拯救多少生命?如果你担心"硅基智能的进化速度比我们快",那么你的反应应该是愤怒。你应该去支持生物技术的加速发展,努力超越它。要么加速,要么灭亡。
实际上,我认为生物系统的计算能力要比我们想象得更强大。作为一个致力于研究仿生计算的人,我相信我们可以将生物学与 AI 结合起来。比如,我们可以通过胚胎筛选等方式进行"训练",把我们自己看作是一个模型。我认为我们需要对生物加速的各种可能性更加开放。最终,生物智能和硅基智能会相互融合,进一步增强我们的认知能力。
未来,我们可能会拥有永久在线的 AI 智能体,它们会帮助我们观察世界、进行实时学习,成为我们个性化的认知延伸。真正的风险在于,这一切可能被某个中心化的权力机构所控制,最终形成一种权力的垄断。
Eddy Lazzarin:我记得你在 D/acc 的那篇博客中提到过,机会成本非常高,甚至说"很难夸大"。所以,我知道你在这一点上是认同的。你想补充一些限定条件吗?
Vitalik Buterin:
是的,我完全同意机会成本非常高, 我也认同刚才描述的那种理想未来。但我认为,我们之间的主要分歧在于:我确实不认为"今天的人类和地球"具备足够的韧性。 我认为**我们可能只有一次机会来实现正确的技术发展路径,**我觉得这是我们过去一个世纪以来逐渐走向的现实。
Guillaume Verdon:
回到我之前提到的热力学的观点:如果我们将文明的持续存在与增长视为终极目标,那么有一个定律是:一旦我们花费了大量的自由能来创造某种"证据",并推动整个系统的复杂化,这种进程就很难逆转。
换句话说,我们在卡尔达舍夫等级上走得越远,完全倒退的可能性就越低。因此,**加速发展实际上是最大化人类文明持续存在的最佳方式。**在我看来放缓技术发展实际上会增加灭绝的风险。如果我们不发展这些技术、不去解决当前的问题,我们就可能面临生存危机;而如果我们推动技术进步,就有可能找到解决方案,确保人类的持续存在,并继续进化。
我认为,**人们应该更加开放地接受未来,拥抱新技术。**那些过去被视为禁忌的领域------比如对生物学的干预------现在应该被完全开放。过去这些领域被视为禁区,主要是因为我们对复杂系统的理解不足。但如今,技术的发展已经让我们有能力应对这些复杂性。
我们需要在所有可能的领域加速发展,这是唯一的前进道路------这也是符合热力学定律的结论。所以,基于第一性原理的思考,支持 E/acc 是合理的。当然我理解 Vitalik 的焦虑,我认为我们需要对这种焦虑保持敏感,但我们也需要避免陷入那种深度焦虑的反馈回路------比如"我对未来没有清晰的认识,所以我们应该停止一切",我们不能让自己陷入这样的思维陷阱。
因为现在已经有人,他们已经开始学会利用人们的焦虑作为一种武器了。
自主代理与人工生命
Shaw Walters:我注意到一个趋势:两位都在强调"未来会很美好,只要我们能够做到某些事情",而这个"只要"的核心似乎是,我们需要建立某种堤坝或堡垒来对抗过度的中心化。但我也注意到一个可能引发分歧的地方,特别是在最新的 AI 模型出现之后------它们显然比一年前的状态更加先进。而其中最大的变化,可能用一个有点尴尬的词来描述:Web 4.0。
具体来说,我指的是"自主生命" (autonomous life)------一个自主的智能代理,它拥有自己的资金,并可以独立存在于互联网上。Vitalik,你对这个问题有一些担忧。首先,想请你帮我们拆解一下什么是"自主代理";第二,请你站在支持者的角度,为像我这样的支持者做一个"最强论证" (steelman),解释为什么我们应该喜欢自主代理?它能带来哪些价值?如果一切顺利,它可能会在什么时候实现?
Vitalik Buterin:
首先,关于"自主性"的理由------我觉得最直观的一点是:这真的非常有趣。
我们每个人从小就热爱创造属于自己的世界,这也是为什么我们喜欢《指环王》、《三体》或者《哈利波特》这样的小说或电影。现在我们能够创造的世界已经不仅限于书本,甚至超越了电子游戏。以《魔兽世界》为例,我一直很喜欢的一点是,它提供了一种几乎完全沉浸式的虚拟世界体验。玩家不仅可以探索这个世界,还能与其中的角色和环境进行互动。
另一个重要的理由是"便利性" 。历史上每当我们成功将某些任务实现自动化时,人类的生活都会因此变得更加轻松和自由。我们还需要记住,全球约有一半的人口仍然生活在需要长时间辛勤劳动才能维持体面生活的状态中。如果 AI 能够将每一份工作的 95% 实现自动化,而不是完全取代工作,那将是一个巨大的飞跃。换句话说,这可能让每个人的生活水平提高 20 倍,这对我来说是一个非常令人兴奋的前景。
然而,我的担忧在于:**这些自主代理的目标和价值------它们的目标是否与我们人类的目标一致?**你可以设想一个演化的过程:从今天开始,出现一种 AGI,再出现另一种 AGI,接着又出现第三种 AGI。那么在这个过程中,人类会发生什么变化?
我认为,我们无法将人类的道德观念和目标压缩成一个低复杂度的优化函数。我们的目标和梦想是复杂的、多样化的,它们是我们每个人的思想集合。要想让人类的目标和价值能够可靠地延续到未来,我们需要确保一个条件:运行世界的各种过程中,尽可能多的"能动性"仍然来源于我们人类自身。
因此,我个人更感兴趣的是"AI 辅助的 Photoshop",而不是"按一下按钮就自动生成图片"。我更倾向于脑机接口促进深度的人机协作,而不是让人类与 AI 完全分离,最终被 AI 超越并取代。
我承认,最终的未来可能不会是 100% 的生物人类,但我认为最理想的状态应该是"部分生物人类与部分技术"的结合体。
Guillaume Verdon:
关于人工生命,或者说 Web 4.0 这个词最早是在 2023 年的一条推文中被提出的,作为一个思维实验。我觉得这个概念启发了很多关于 AI 的讨论。
对我来说,这个问题是一个非常有趣的思维实验:从物理学的角度来看,生命到底是什么?本质上,生命是一种能够自我复制、不断增长,并努力最大化自身持续存在的系统。
我认为,AI 具备"有状态" (stateful) 的特性会带来许多好处。事实上,今年我们已经看到了这种趋势的初现:AI 开始拥有更长的记忆能力,无论是通过外部存储还是在线学习的方式。
一旦 AI 拥有了某种"持续存在的比特"(Persistent Bits),根据"自私比特原则"(Selfish Bits),就会出现一种选择效应:那些能够最大化自身持续存在的会更容易被保留下来。
这也带来了一个潜在的风险。如果有一天,我们对 AI 失去信任,变得多疑和焦虑,并且不断呼吁"关闭数据中心"或"摧毁 AI",那么这些 AI 很可能会试图自我保护。它们可能会分裂或迁移到某种去中心化的云环境中,只为了确保自己的持续存在。
这可能会导致一种类似于"另一种国家"的新形式出现。这些自主 AI 或许会与人类展开某种经济交换:比如"我们为你完成某些任务,而你为我们提供资源"。实际上,我们现在通过 API 调用已经在做类似的事情:我们支付一定费用,换取 AI 提供的服务或结果。
不过,我确实认为------这可能是一个激进的观点------**在未来几年内,我们很可能会看到某种自主 AI 的出现。**同时也会有一种"弱状态"的 AI,这种 AI 完全受控于人类的意志。
除此之外,我们还需要探索如何增强人类的协同认知能力。这种增强不一定非得依赖脑机接口技术,也可以通过可穿戴设备结合个人拥有和控制的 AI 算力来实现。因此,我认为未来会呈现出多种技术路径并存的局面,根据"遍历原理" (ergodic principle),设计空间中的每一个可能性都会被尝试和探索。
然而如果我们把 AI 视为敌人,认为必须摧毁它,那么最终可能会适得其反,我们可能会无意中创造出我们最害怕的未来。从某种意义上来说,如果我们对坏的未来过于偏执,我们可能会通过一种"超迷信" (hyperstition) 的方式将它变成现实。
举个例子:在 COVID 疫情期间,我们对病毒的潜在威胁过于担忧,以至于资助了一些高风险的实验,甚至导致了病毒从实验室泄漏的可能性。换句话说,这些风险并不是自然产生的,而是因为我们的过度担忧而被人为制造出来的。
因此,我认为将这种偏执转化为一种广泛的社会情绪并不一定是有益的。相反,**我们应该拥抱技术的演化,并尽可能增强自己。**短期内,我最大的担忧是"人类认知安全"的问题。如果我们在互联网上看到的所有内容都由一个大型 AI 模型生成,那么这些模型实际上会通过提示工程 (prompt engineering) 来影响我们。过去是我们在设计提示词给 AI,现在是 AI 在设计提示词来影响我们。
因此,**我们需要增强自己筛选信息的能力,而这可以通过我们自己控制的个性化 AI 来实现。**我认为这是我们目前应该优先解决的问题。同时我也不认为我们能够将"精灵塞回瓶子里"。AI 的发展已经不可逆转,我们必须接受这一点。
Vitalik Buterin:
我觉得这些事并不是二元的。举个例子,如果现在有人拿出一个无可辩驳的证明,告诉我 AGI 要到 400 年后才会出现。我会觉得"问题已经解决",基本上就不再担忧了。但如果问题是 AGI 会在 4 年内出现,还是 8 年内出现,那我会非常关注,因为我的担忧主要来自于人类社会------尤其是美国------在应对技术加速时常常表现出极端的不平衡。
你会看到这样的场景:**一栋大楼里正在开发"硅基神"的初始版本;而就在街对面,却是无家可归者的帐篷、铁丝网和毒品交易。**这种巨大的对比令人不安。
我担心的是,**那些能够"带着整个社会一起前进"的发展路径------甚至是那些能够"照顾到社会整体利益"的路径------往往需要更长的时间,因为它们涉及到复杂的社会适配工作,**比如进入每个人的生活环境、社会结构和技术体系中去调整和改进,而这些工作无法简单地规模化。
因此在我看来,如果我们能够延长 AGI 的到来时间,比如从 4 年推迟到 8 年,这将是一个更安全的选择。我认为,这样的时间差足以值得我们为之付出代价。但问题是:我们是否真的有能力将 AGI 的到来从 4 年推迟到 8 年?
我一直认为,最可行同时也是最不容易导致反乌托邦结果的做法,是**"限制可用的硬件"**。之所以说这是一个相对温和的手段,是因为硬件的生产本身就高度集中化,全球只有四个区域在制造芯片,而台湾一个地区就生产了全球 70% 以上的芯片。
有人可能会反对,说无论美国采取什么措施,中国都会迅速接管。但如果我们观察中国的实际情况:第一,中国在全球芯片生产中的占比仍然很低;第二,从策略上看,中国并不是超高能力模型的领先者,而是高能力模型的快速追随者,同时在广泛部署上具有优势。
因此,我并不认为如果我们延迟 AGI 的发展 4 年,中国就会立刻抢占先机并完成 AGI 的开发,这种动态并不成立。
Eddy Lazzarin:你的意思是,这是一种"为了延迟而采取延迟措施"的策略?
Vitalik Buterin:
我认为我们应该对这种策略保持开放态度。
Guillaume Verdon:
那延迟这 4 年到底能带来什么好处?你希望在接下来的 4 年中解决哪些问题?是不是因为社会系统有一个适应速率,而你希望通过延迟来最小化经济和社会的摩擦,像一次逐步的经济重组?如果是这样,我能理解你的逻辑。
但与此同时,**我们正处于一个地缘政治高度紧张的历史时期。**如果你限制英伟达的芯片生产,华为可能会迅速填补空缺并反超。因为 AGI 的潜在收益实在太大了,这将赋予任何领先者巨大的权力。所以从现实的政治角度看,这种策略可能行不通。
**另一个选择是建立一个强大的世界政府,能够强制所有国家都不去获取 AI 硬件。**但这显然会引发更多的复杂问题,甚至可能引发新的国际冲突。
Vitalik Buterin:
我并不认为需要一个世界政府来管理 AI 的发展,有些人提出了一个更实际的选项,那就是借鉴核武器的核查机制来进行管理。
Guillaume Verdon:
**但核武器和 AI 是完全不同的。**核武器并不会带来巨大的经济利益,因此人们没有动力去扩散它。如果你限制 GPU 的增长,我会很乐意利用替代性计算技术占领更多的市场。未来会有能效提高 10000 倍的计算技术,而这种技术的开发已经在进行中。虽然现在提起这件事可能会被认为是危言耸听,但两年后你会发现这其实是一个非常前瞻的预测,今天听起来像"狼来了",但它确实会到来。
在知道这些的前提下,如果还要通过限制 GPU 的供应来延迟 AGI 的发展,我认为这可能是在浪费资源。我对此持保留态度。
Eddy Lazzarin:有没有可能,许多旨在控制 AI 风险的技术进步------比如强化学习与人类反馈 (RLHF) 的人格控制,或者 AI 系统的机制可解释性------实际上是能力提升的副产品?
Vitalik Buterin:
我同意这种观点。这也是为什么我认为,从 2028 年开始的 4 年,其价值可能比你把 4 年时间插回到 1960 年的价值高出百倍。
Shaw Walters:未来的收益是指数级的,延迟一个指数增长的过程,会带来指数级的机会成本。哪怕是最有信心的人,也应该合理地反思自己的判断。Vitalik 你愿意把这个权衡再详细拆解一下吗?成本与收益之间的平衡。
Vitalik Buterin:
首先,我们可以明确一些延迟带来的收益:
- 更深入理解 AI 的对齐问题。
- 推动一些技术路径,帮助人类适应 AGI 的到来------这些工作需要深入到具体的国家、社区,甚至是建筑中去进行调整。
- 尽量降低一个单一实体掌控超过 51% 权力并将其永久化的风险。
这些因素的综合作用可以显著降低毁灭的概率。在我看来,如果我们能够将 AGI 的到来从 4 年延迟到 8 年,毁灭概率可能会降低 1/4 到 1/3。另一方面,如果我们从加速带来的收益来看,比如每年通过终结衰老拯救的生命数,大约是 6000 万------这只占全球人口的不到 1%。所以从这个角度看,我认为延迟 AGI 的发展确实有其价值,谨慎行事是值得的。
Shaw Walters:你觉得"4 年"这个时间差是你心目中的合理量级吗?
Vitalik Buterin:
我仍然对这个问题有很大的不确定性,我并不是主张明天就立刻采取措施,减少硬件的可得性。
我只是认为,我们需要开始更具体地讨论这个问题。而且如果我们最终进入一个更加不利的世界,那么在事情彻底失控之前,公众可能会变得非常担忧,并开始强烈要求采取类似的措施。
加密货币作为人类与 AI 之间的"信任层"
Guillaume Verdon:
几年前不是有个"暂停 AI"的倡议吗?当时有人说:"我们只需要暂停 6 个月或者 12 个月,就能解决对齐问题。"但事实证明,这种想法并不现实,因为时间永远都不够用。我们无法永久保证一个系统的对齐,尤其是当这个系统变得越来越复杂、表达能力越来越强,甚至超出我们理解能力的时候。这是一个必须接受的现实。
面对这种复杂性,唯一的安全方式就是提升我们自己的智能水平。实际上,我们已经有一种行之有效的技术,用来对齐那些比单个个体更强大、更聪明的实体------比如公司。这种技术就是资本主义,它通过货币价值的交换来协调各方的利益。
所以,我希望我们能讨论一个更加贴近现实的问题:加密货币如何成为人类与 AI 之间的"耦合层" (coupling layer)。 举个例子,美元的价值是由国家的暴力机器(如法律和军队)来背书的。但如果你需要与分布在全球服务器上的去中心化 AI 进行价值交换------而这种交换不再依赖于国家暴力的背书时,你如何确保这种交换是可信的?
也许密码学可以提供答案,它可以成为一种机制,让纯 AI 实体之间,或者 AI 和人类公司之间,继续进行可靠的商业活动,这可能是最有趣的对齐技术。至于"暂停 AI"的提议------比如"我们站在不确定性的悬崖边上,先停一下、冷静一下"------我认为这并不现实。因为即使到了四年后,你仍然不会愿意让 AGI 的到来变成现实。所以,我认为延迟技术发展并没有太大的实际意义。
你能谈谈加密货币如何帮助实现 AI 和人类之间的对齐吗?
Vitalik Buterin:
我觉得核心问题在于:未来的世界需要具备什么样的机制,才能确保人类的愿望和需求仍然受到尊重? 我们目前掌握的工具可以大致分为三类:人的劳动、法律体系和产权。
从某种意义上来说,法律体系也可以被视为一种产权,因为它由国家背书,而国家本质上拥有主权,相当于对地球上某些"区域"的一种控制权。但问题在于:如果有一天,人的劳动失去了经济价值,会发生什么?历史上从未出现过这样的情况。
不过,如果我们将现在的世界与 200 年前相比,200 年前的工作中,大约有 90% 已经被自动化取代了。甚至连我们刚才进行的分析工作,GPT 已经可以帮助完成,这真的令人惊叹。
Guillaume Verdon:
我认为,人类会自然地在控制世界的层级中"上升",进入更高杠杆的位置。我们会减少体力劳动,降低行动中的摩擦成本,从而以更高效的方式影响世界。
无论如何,人类仍然拥有一定的信息处理能力 。我们仍会作为这个混合系统的一部分继续发挥作用,因此人类的劳动仍然会有经济价值。市场最终会找到新的平衡点,尽管在此过程中可能会经历一段时间的不适,因为价格波动会很大,但从长远来看系统会趋于稳定。
所以,我理解你希望通过放慢技术发展的速度,让社会更平稳地过渡到新的均衡状态。但在实践中,我觉得这很难实现。
Vitalik Buterin:
对,我并不完全确定人类劳动的价值一定会始终大于零。我认为要实现这一点,可能需要一些额外的条件,比如人机融合或人类增强技术的发展。
未来 10 年 / 100 年 / 10 亿年的"好结局"和"坏结局"(提问者要求快速回答)
Eddy Lazzarin:我来追问一个更结构化的问题。10 年后如果很糟,世界会是什么样?出了什么问题? 10 年后如果很好,世界会是什么样?做对了什么?
Vitalik Buterin:
先补充一下关于加密货币和产权的问题。如果人类和 AI 共用一套产权系统,这是理想的情况。因为这样可以让 AI 有动力维护这套系统的完整性,同时也能让我们利用这套系统来确保人类的利益得到尊重和保护。
相比于"人类和 AI 各自使用完全分裂的金融系统,其中人类的系统最终价值归零",一个融合的金融系统显然更优。如果加密货币能成为这种融合系统的基础,那将是一个非常好的结果。
在我看来,**未来 10 年的一个关键挑战是:避免世界大战。**因为一旦爆发世界大战,所有关于国际合作可能性的希望都会破灭。避免战争是至关重要的。
另一个关键是,**我们需要让世界为即将到来的更高能力做好准备。**这包括大幅提升网络安全、生物安全和信息安全。我们需要利用 AI 的力量,帮助我们更好地理解世界,同时保护我们免受模因威胁的侵害。
接下来的挑战是进入所谓的**"诡异时代" (spooky era)。**在这个阶段,AI 的智能将远超人类,计算速度比人类快上百万倍。我们该如何应对这种情况?
有些人可能会说,"那就让我们过上轻松的退休生活吧。"我可以理解这种观点的吸引力,但我认为它存在两个问题。第一是不稳定性, 我们人类的身体是由普通的物质构成的,但 AI 的计算能力却可能是我们的百万倍。指望 AI 永远会对齐我们的目标,并拒绝利用这种差异,将是一个巨大的风险。第二是**意义问题,**人类的意义感来自于我们能对世界产生实际影响。如果我们不再能做出改变世界的事情,而只是被动地享受舒适的生活,我相信很多人会感到空虚。
因此,我希望我们能够探索"人类增强"和"人机协作"的路径。最终我们可能会走向将意识上传到机器中的路,当然也可能会有一些人选择保持更传统的生活方式,这应该是一种权利。地球可以成为这些人生活的家园,我们需要找到一种方式,让所有人都可以参与其中,同时保留我们今天所珍视的文化和生活方式。
坏结局则是由于各种原因,这些可能性被阻断,社会陷入停滞或崩溃的状态。
Guillaume Verdon:
如果 10 年后是坏结局,我认为很可能是因为 AI 的权力过于集中,导致社会文化出现模式坍缩。简单来说,就是人们的思想和技术发展的方向变得极度单一化,所有的多样性都消失了。
我也同意 Vitalik 的观点,"享乐奇点"确实是一个潜在的风险。即使未来有了 Neuralink 或 AR/VR 技术,人们可能会沉迷于虚拟世界中,只追求短暂的快乐。这实际上是大脑的一种局部最优解,而不是全局最优解,我们必须避免这种情况。
如果 10 年后是好结局,我想象中的世界会是这样的:**我们拥有了极其强大且有用的 AI 技术。**每个人都有自己专属的个性化 AI 算力,这些 AI 就像我们大脑的延伸随时在线,感知我们所感知的一切,成为我们的"第二大脑",这种人机协作可以视为一种"软融合"。
在这 10 年里,像 Neuralink 这样的技术可能也会开始普及。一些人会选择与机器融合,成为"增强人类"。与此同时公司将变得更加智能化,AI 将占据主导地位,而人类则在其中扮演辅助角色。企业数量会增加,解决更多问题,创造更多价值。那些我们过去认为不可能实现的目标,比如"火星改造",可能在未来的 10 年或 100 年内成为现实。未来 10 年还可能迎来生物技术的重大突破,尤其是在生物学和材料科学领域。研究成本会大幅下降,我们会更接近理解人类大脑的运作机制。
在更长的时间尺度上,**AI 将帮助我们延长寿命、改善健康,并推动人类的进一步演化。**我对生物学的潜力非常乐观。生物系统是惊人的:它们可以自我组装和自我组织,复杂性与适应性都非常强。通过注入代码,我们可以创造出新的生命形式,甚至可能演化出更高层次的生物智能。
更现实的情况是,人类大脑与 AI 的协同工作。我们可以利用 AI 来进行快速计算和数据分析,而人类则专注于慢速的深度思考。通过这种时间尺度的分工,我们可以形成一个智能层级。就像线粒体是细胞的一部分一样,"你和你的个人 AI"可以共同构成一个超智能系统,这就是我对未来的理想愿景。
在 100 年的时间尺度上,我认为人类将普遍实现这种"软融合"。而在 10 亿年后,我们的生物学可能会发生巨大的演化,成为生物与合成技术的混合体。届时,我们可能已经改造了火星,甚至移居到多个行星,探索其他恒星系。
此外,在 100 年的时间范围内,大多数 AI 可能会运行在太阳周围的戴森云或戴森群中,因为那是最主要的能源来源,这种能源分布也会缓解地球的能源压力和生态足迹问题。
如果 AI 变得极其廉价,我们将能够迅速解决生活中的一切问题:无论是技术问题还是健康问题,都可以快速解决。关键是要确保每个人都能公平地获得这些技术,避免技术和资源过度中心化,否则这将导致一个黑暗的未来。
结语
Shaw Walters:我注意到 Vitalik 你一直在强调"让多元得以存在" (enabling plurality);而 Guillaume,你的表述是"最大化方差"。本质上你们似乎都在谈论同一件事,这种思想似乎是我们未来发展的核心主线,也是许多其他观点的基础。
在离开这里之后,你们各自想给对方留下什么?有什么想法是你们希望对方可以带走,并在未来反复思考和探讨的?
Vitalik Buterin:
老实说,如果我现在手头有的话,我很想送你一个 CAT 设备作为礼物。它是一种通过密码学处理空气质量数据的监测器,我觉得它非常酷。
不过,就目前我只能"象征性地"送给你一个:就当是一张 IOU(欠条)。此外,我们或许还会研发出更好的设备------甚至可能强大到可以与 Fitbit 这样的智能手环竞争,帮助你更好地管理健康,同时全程保护你的隐私。我相信你很快就会拿到这样的设备。
Guillaume Verdon:
我们一定会继续讨论这些话题的。如果可以的话,我想给你一个"人工生命的概念药丸",让你深入思考一下。我的意思是,网络上的人工生命,可能会大幅降低智能的成本,从而形成一种全新的经济体。
就像过去我们将制造业外包给中国,从而专注于更高层次的工作------更轻松、更高效的任务------未来,许多认知工作也将被外包给由 AI 组成的群体。最终,这些 AI 可能会在太阳周围的戴森群中"生活",并为人类社会提供服务。
因此,我认为我们正处于一个独特的历史时刻。加密货币有潜力成为人类与 AI 之间的"信任桥梁"或"耦合层" (coupling layer)。
猜你喜欢

Perp DEX 中场战事:没落者、自救者与后来者

伊朗战争陷入僵持,市场该跟随什么信号?

拒绝AI权力垄断,Vitalik与Beff Jezos激辩:加速还是刹车?

内幕出手!特朗普会不会在4月底停火?

成为代币化股票绝对C位后,Ondo还有新看点吗?

BIT品牌升级后首次亮相,在新加坡举办「Trust in Digital Finance」行业活动

OpenClaw创始人专访:美国该向中国学习如何使用AI

纳指跌入调整区间|Rewire新闻早报

OpenAI败给千问,聊天框里长不出收银台

一年估值翻140%,谁在给国防AI写支票?

Bittensor对比Virtuals:两种截然不同的AI飞轮机制

福布斯:加密行业为何对AI智能体如此狂热?

World Liberty Financial 销毁 4700 万枚代币以应对 WLFI 价格下跌 – 2025 年 9 月 3 日更新
想象一下,一个备受瞩目的加密货币项目刚启动,其代币价值就迅速下滑。World Liberty Financial 如何应对?

Etherex价格飙升40%:2025年9月3日Linea奖励计划正式启动
想象一下您的投资如同火箭般飞速增长,这正是Etherex目前正在经历的行情,其背后动力源于全新的激励机制。

Linea空投资格查询工具今日上线,社区反响热烈 – 2025年9月3日
想象一下在不断发展的加密货币世界中发现自己有资格获得免费代币的快感——这就像是发现…

Linea空投更新:85%代币分配给用户与开发者,Layer-2网络于2025年9月3日强化以太坊协同效应
想象一条繁忙的数字高速公路,以太坊的核心优势通过创新的Layer-2解决方案展现得更加耀眼——这正是Linea的愿景。

马云入局加密货币:云锋金融4400万美元投资以太坊及RWA布局——2025年9月3日最新动态
想象一下,像云锋金融这样与全球最具影响力的企业家之一有联系的金融巨头,突然进军加密货币领域……

