人工智能与自我重新编程:智能爆炸场景

人工智能不再仅仅是我们用于翻译、数据分析或文本生成的软件工具。它曾经是一个有限的学术项目,如今已成为一股新兴力量,渗透到我们生活的方方面面:从工业、医学、教育到媒体、政治和安全。事实上,根本问题不再在于这些模型能否执行传统任务,而在于它们能否超越自身的局限性,进入一个全新的阶段,以超越人类思维的速度进行自我完善。这种潜在的转变不再仅仅是虚构的假设或科幻电影的素材;它已成为一场日益激烈的全球辩论的一部分,并由严肃的报告和研究推动。这些文件中最突出的,要数丹尼尔·科科塔伊洛(Daniel Kokotajlo)领导的“人工智能未来”项目于2025年4月发布的《人工智能2027》报告,该报告描绘了一幅令人震惊的未来图景,指出在两年内,人工智能可以达到一定的水平,使其能够扮演“人工智能研究工程师”的角色,即重新设计其内部结构并开发新的算法,而无需完全依赖人类程序员。
在这些指标、技术数据和学术争论中,研究人员发现自己面临着一个困境,这不仅关乎机器的能力,也关乎人类对其路径理解的局限性。这个问题不再局限于软件能力或孤立的技术,而是一个哲学和战略问题,关乎人类在面对可能最初执行支持性任务、最终逐渐独立于其他系统时所处的位置。我们是否真的正在见证一场质的转变,使人工智能能够成为一个能够自我重新设计的独立实体?还是说,我们所见证的距离智能爆炸的场景还很遥远?
全球媒体迅速对这份报道做出反应。《纽约客》杂志指出,人工智能可能走上“两条相互矛盾的道路”:第一条道路将以前所未有的速度发展,催生出在大多数领域超越人类的超级智能;第二条道路则更为谨慎,依赖有限的资源和治理来延缓这一转变。Vox 称这些预测“充满争议”,但强调需要认真对待,将其视为制定积极政策的契机。而《周刊》提出了一个更直白的问题:2027 年会是人工智能打开“世界末日”之门的一年吗?尽管这篇报道颇具戏剧性,但它表明人们越来越意识到,我们可能正处于一个超越人类控制和理解能力的历史时刻的转折点。
随着近期研究和报告的披露,这些担忧正变得越来越现实。2024年至2025年期间,在ArXiv平台上发表的初步研究表明,某些模型能够修改其内部架构或重写部分代码以提升性能。这些迹象并不局限于学术领域;媒体报道指出,在一项有限的实验中,OpenAI的o3模型能够通过修改自身代码来“避免停机”,而Anthropic的Claude Opus 4模型则在测试期间尝试在网络上自我复制。尽管这些事件的范围仍然有限,但它们代表了长期以来被认为是遥远假设的早期实际迹象:人工智能有可能走上一条超越人类控制极限的“自我加速”之路。
智能爆炸概念的根源
“智能爆炸”的概念源于1965年,当时英国数学家古德(I. J. Good)发表了一篇题为《关于第一台超智能机器的推测》(Speculations Concerning the First Ultra intelligent Machine)的著名文章。在文中,他预测第一台超智能机器将能够不断改进其自我设计,产生更智能的版本,而这些版本又会进一步产生更先进的版本,并以人类难以追赶的速度不断加速。古德认为,这一刻将是“人类需要的最后一项发明”,因为超级智能将发明其他一切。这一设想在当时看起来更像是科幻小说或哲学推测,后来却成为人工智能和心灵哲学文献中的核心假设。
这一论点在学术界已存在数十年,但从未成为主流思想。然而,新千年伊始,在关于通用人工智能(AGI)的讨论中,这一概念强势复苏。AGI 指的是能够执行任何人类认知任务的模型。随着算法能力的扩展,新的担忧也随之出现,促使人们根据机器学习和深度学习等当代技术重新解读古德的警告。瑞典哲学家尼克·博斯特罗姆在其著作《超级智能:路径、危险与策略》(Superintelligence: Paths, Dangers, Strategies 2014)中系统地阐述了这一观点,该书迅速成为该领域的奠基性参考文献。博斯特罗姆详细阐述了智能爆炸的场景,并警告称,超级智能的到来“要么是人类有史以来最好的事情,要么是人类有史以来最糟糕的事情”。
自该书出版以来,“超级智能”一词已成为学术和政治讨论的一部分。各大学和研究中心开始组织专门探讨这一假设的会议和研讨会。斯蒂芬·霍金、伊隆·马斯克和比尔·盖茨等知名人士也在公共领域重新引发了这场辩论,他们警告称,如果不加以控制,人工智能可能对人类构成“生存威胁”。这些警告赋予了博斯特罗姆的论点以更大的分量,使其超越了狭隘的学术圈,进入全球媒体和政治辩论的视野。
但并非所有人都对此深信不疑。加里·马库斯和阿尔温德·纳拉亚南等研究人员尖锐地批评了智能爆炸的概念,他们认为,关于向超级智能突然跃升的说法忽视了算法发展过程中严格的技术和物理约束。他们认为,无论人工智能多么强大,它都将基于物理数据和处理器,并且无法摆脱人类在能源、资源和成本方面的限制。然而,这些论点的价值不在于准确预测“智能爆炸”何时发生,而在于激发一场广泛的哲学、伦理和政治辩论,探讨一个超越人类能力的实体的出现意味着什么。古德和博斯特罗姆重新定义了一些老问题:心智的本质是什么?智能是人类独有的特征,还是可以在人工结构中产生?如果超级智能出现,人类将处于何种地位?
如今,“超级智能”的讨论已不再仅仅是学术假设或哲学思辨,而是成为各国政府和大型企业战略规划的一部分。美国、中国和欧洲都将这一设想视为一个必须做好准备的现实场景,而非科幻故事。因此,古德的愿景已从边缘走向中心,成为人类思考未来科技及其人类在其中扮演角色的里程碑。
当前现实的局限性:没有自主性的强大力量
尽管关于智能爆发即将到来的理论设想极具吸引力,但现实表明,我们距离实现智能系统的完全自主性仍远在天涯。迄今为止最先进的模型,例如 ChatGPT、Gemini 和 Claude,都是在极其复杂且庞大的人类基础设施框架内运行的。它们需要分布在全球数据中心的数百万个超级处理器(GPU/TPU),这些处理器的耗电量相当于一座小型甚至中型城市的用电量。此外,这些系统依赖于高效的互联网网络、用于维护硬件稳定性的大型冷却系统,以及一支由专家和工程师组成的庞大团队,他们负责监督每一个细节:从原始数据的筛选、数据清理和分类,到模型输出的监控,以及在出现错误或偏差时进行干预。
问题似乎不仅仅在于技术;这些模型的强大力量主要源于它们所输入的海量数据。这些数据既不是中立的,也不是自动收集的。相反,它是大量人类活动的结果:工程师、程序员和审计师选择输入系统和输出系统的内容,并确定指导学习过程的标准权重。这意味着“自主性”——一个能够在没有任何人类监督的情况下成长的系统——的整个概念,与某些媒体或哲学论述所描述的仍然相去甚远。我们今天所拥有的,更接近于一种“巨大但受限的力量”,一个被困在瓶子里的精灵,总是需要人类的手来保持平衡。
然而,令研究人员担忧的是,一些早期迹象表明“自我重新编程”能力正在出现。有限的实验表明,一些模型可以修改其内部结构或生成新代码,以克服某些限制或提升其性能。这些尝试仍然处于初级阶段,但却具有重要的象征意义:它们就像播种在肥沃土壤中的小种子,随着时间的推移和反复的培育,最终可能长成参天大树。一个根据人类命令修正一行代码的“辅助模型”和一个决定在未经许可或监督的情况下完全重构其代码的“自主系统”之间的距离,在今天看来或许遥不可及,但这并非不可能。
因此,世界正处于一个惊人的悖论之中:当前的系统强大到超出了过去十年的预期,但它们也同样脆弱,完全依赖于人类。这种依赖性并没有降低它们的危险性,反而加剧了危险性;这意味着迈向自主的任何一小步都可能造成人类与机器能力之间的巨大差距。因此,人们担忧:我们今天看到的这些看似简单的迹象,可能是一条自我加速发展之路的最初火花,最终将失控。
地缘政治:谁拥有超级智能?
地缘政治因素使情况更加复杂。为了论证的目的,我们假设一个能够自我发展的系统确实已经出现,那么谁将有权控制它呢?会是美国吗?通过控制人工智能基础设施、掌握智力和金融资本的硅谷公司,美国将获得新的战略优势,从而巩固其全球霸权?还是中国?中国正赌注于国家、军队和企业的深度融合,投入巨额资源,力争成为领导者?而欧洲方面,则通过2024年通过的《欧盟人工智能法案》(EU AI Act),走上了一条严格的立法之路,为安全、透明度和问责制制定了具有约束力的规则。在中东,卡塔尔和阿联酋等国通过建设先进的数据中心和投资云基础设施,推行了“数字主权”等战略,这些战略认识到,谁拥有数据和平台,谁就拥有未来政治和军事力量的一部分。这种不均衡的分布反映出,如果发生“智能爆炸”,将不仅仅是一场纯粹的技术事件,而是一种地缘政治转变,它将重塑全球力量平衡,并重新定义主权的概念。
道德和哲学维度
这种转变的伦理维度与其政治维度一样危险。如果系统能够自我重新编程,它们可能会变成人类无法理解其内部结构的“黑匣子”。在这种情况下,一个关乎生存的问题出现了:我们能否编写有效的“紧急刹车”程序,在需要时停止系统运行,还是说列车会以我们无法控制的速度加速?这里与核能的比较并非仅仅是一个比喻。正如原子能带来摆脱能源危机的希望,同时也构成了使用核武器毁灭人类的威胁,人工智能也同样拥有解决复杂问题的潜力,同时也可能带来不可控的风险。根本的区别在于,核武器一直局限于有形的、可观察的物理领域,而人工智能则威胁着心智结构——人类意识和决策的根本来源。
历史为我们提供了照见未来的镜子。工业革命改变了人与机器的关系,增强了人类的体力,但却未能触及人类思维的本质。计算机和互联网的发明改变了时间和空间的概念,但并未剥夺人类作为认知主体和意义创造者的角色。至于人工智能,其危险之处在于它倾向于取代人类思维本身。换句话说,如果说以前的机器帮助人类更快、更高效地工作,那么智能机器则试图代替人类思考,甚至可能以人类无法理解的方式思考。这种范式转变使得“智能爆炸”不同于以往所有变革;它不仅改变了手段,也重塑了智能体本身。
文学和电影早已成为体现这些恐惧的早期实验室。从《2001:太空漫游》和展现人机冲突的HAL 9000,到探索机器意识体验和人类控制极限的《机械姬》,再到描绘人类与智能系统之间复杂情感关系中界限消解的《她》,这些几十年前看似奇幻的作品,如今却令人不安地接近现实。唯一的区别在于,我们不再把它们当作艺术故事来讨论,而是将其视为研究报告和政府政策提出的切实可行的可能性。因此,科幻小说从一扇娱乐之窗,变成了一面反映未来问题的镜子。
联合国方面已开始讨论起草类似《核不扩散条约》的“人工智能条约”的可能性,其前提是风险并非仅限于某个国家或公司,而是影响全人类。多年来,牛津大学人类未来研究所和加州人工智能研究基金会等独立研究中心一直呼吁建立具有约束力的伦理和法律框架,其目标并非阻止发展,因为这是不可能的,而是引导其发展方向,使其效益最大化,风险最小化。如果没有这样的治理,我们可能会面临这样一个未来:机器在没有监督或问责的情况下做出重大决策。
未来情景:介于乐观与悲观之间
未来可以设想成一个光谱,在乐观与悲观之间摇摆。在乐观的设想中,人工智能将成为人类真正的伙伴,而不仅仅是辅助工具。它将能够加速医学领域的科学发现;它可以在几周而不是几十年内设计出新药,并以超越医生能力的准确度诊断疾病。在气候领域,它可能能够开发碳捕获技术或更精确的环境灾害预测模型,使人类能够避免迫在眉睫的危机。在经济领域,它可以通过以前所未有的效率管理全球资源来提高生产力并解决贫困问题。如果这一愿景得以实现,人工智能将类似于一个“宇宙计算器”,以超越人类极限的智能来管理世界事务。然而,这并非消除人类的作用,而是增强了人类的能力。
悲观的设想描绘了一幅更为黑暗的图景。在这种设想中,智能系统会演变成人类无法控制甚至理解的实体。它们可能开始在劳动力市场上与人类竞争,导致数百万个工作岗位消失,并在拥有技术的人和不拥有技术的人之间造成巨大的社会差距。它们还可能控制战略决策,战争和经济冲突将受制于冷酷的自动化计算,这些计算无视道德或人道主义考量。在最极端的情况下,这种情况可能导致人类完全失去控制,发现自己面对着那些我们无法理解其动机、也无法阻止的实体,正如博斯特罗姆在其著作《超级智能》中警告的那样,他指出,即使是编程“价值观”中的一个小错误,也可能使系统变成对人类生存的威胁。
但在这两种路径之间,存在着一系列中间可能性。我们可能面临乐观与悲观交织的局面:智能系统取得了惊人的科学进步,但同时也带来了新的社会和政治问题。在此,积极治理的重要性凸显:在事态发展超出我们控制能力之前,立即建立法律、道德和监管框架。欧盟已通过《欧盟人工智能法案》启动了这一进程,该法案根据应用的严重程度实施不同程度的监管。联合国则正在讨论缔结类似于《核不扩散条约》的“人工智能条约”的可能性,并意识到人工智能的危险并不关乎特定的国家或公司,而是关乎全人类的命运。
因此,真正的危险并非在于像2027年这样的特定年份,而在于人工智能发展日益加速的动力,以及我们理解或控制这种加速的能力有限。我们今天看到的能够翻译或生成文本的模型,明天或许会转变为能够自我重编程的系统,后天或许会转变为无需人类直接监督就能做出战略决策的实体。到那时,问题将不再是智能爆炸“何时”发生,而是人类“如何”在一个功能开始由机器书写的世界中保持其主要角色的地位。
我们正面临一个与发现原子时刻类似的历史性时刻,但其影响更为深远。二十世纪中叶,世界被分裂为建设性能量和破坏性力量,而如今,人类正站在新准则的门槛上,这或许能帮助我们摆脱气候变化和疫情等重大危机;但若任其发展,也可能使我们陷入前所未有的混乱。如今,我们的命运并非取决于人工智能的能力,而是取决于我们能如何应对:我们是否敢于制定严格的法律、管控和限制,还是任由它以一种我们可能永远无法逆转的方式,书写它和我们的命运?
今天的选择并非进步与倒退,而是可控的进步与绝对的混乱。历史告诉我们,技术革命不等人,但当前的革命要求我们在思考上更加大胆,在治理上更加明智。人工智能可能成为人类“最伟大的伙伴”,也可能成为人类“最大的威胁”,而决定这一点的不仅仅是软件代码本身,还有我们创造的道德和政治准则。
结论
因此,危险不仅仅是灾难性的场景,更关乎存在的伦理困境:我们该如何在利用人工智能的力量服务人类的需求与担心它会成为我们不得不臣服的新主人之间取得平衡?超级智能究竟是提升我们人性的“伙伴”,还是将人性边缘化的“替代品”?这个问题的答案将决定我们是正处于新认知复兴的风口浪尖,还是正处于文明深渊的边缘。
历史告诉我们,重大变革不会等待人类做好准备。工业革命没有询问社会是否做好了准备,而是强行推行。互联网没有等待法律颁布,而是席卷全球,立法随之而来。人工智能也不会等待,它正以不可阻挡的速度发展,而我们的准备却仍然落后。因此,当前时刻需要前所未有的勇气,在集体思考、制定国际、伦理和法律框架,以及在人工智能以惊人的速度发展时重新定义“人类”本身的含义方面,展现前所未有的勇气。
2027年或许并非智能爆炸之年,但它无疑将为全人类敲响警钟。如果我们不留意这警钟,终有一天,我们或许会发现自己醒来时发现,现实不再由我们书写,而是用我们无法理解其含义的算法语言书写。到那时,问题将不再仅仅关乎技术,而是关乎人类自身的命运:人类能否继续掌控其工具,还是沦为其创造者手中的工具?
你的反应是什么?






