专访黃裕舜:DeepSeek 及中美人工智能竞争

 专访黃裕舜:DeepSeek 及中美人工智能竞争

【在本次采访中,我们对香港大学哲学系助理教授黃裕舜(Brian Wong)进行了专访。Brian Wong是 罗德学者(Rhodes Scholar),并担任牛津全球学会(Oxford Global Society)战略顾问。黄教授分享了他对 DeepSeek的发布对全球科技市场及中美人工智能竞争影响的见解。他探讨了出口管制带来的挑战、国家安全问题,以及中国在人工智能发展与信息控制之间的平衡。此外,黄教授还回应了有关 DeepSeek 侵犯知识产权的指控,并就人工智能创新的地缘政治和伦理层面进行了深刻反思。】

DeepSeek 的发布如何影响全球科技市场及中美技术竞争格局?

黃裕舜:在深入探讨中美技术竞争之前,我想说清楚的是 DeepSeek 的突破首先惠及的主要是那些从开源创新中获益的利益相关者——中小企业和开发者、希望获取价格可负担的 AI 模型的普通家庭用户,以及全球范围内的教育工作者、教师、学生和有志于学术研究的人。地缘政治话语和相关考量不应挤占或削弱我们关注更大问题的能力。这对那些主张降低获取技术门槛和壁垒的人来说,是一个相当令人印象深刻的胜利。

此外,如果我们相信 DeepSeek 的官方说法,那它的成功便验证了一些人长期以来持有的观点:扩大规模并非推动 AI 进步的唯一路径。算法效率的提升、涉及事实上的范式转变或飞跃的功能改进(例如自主 AI 或能够随时间积累长期记忆的 AI),以及应用效率的增强,都能在很大程度上提高 AI 在我们日常生活中的实用性。虽然DeepSeek表示, 其在整个开发过程中可能投入的资金远超 560 万美元,但即便如此,他们的成就仍旧让许多人感到惊讶,即DeepSeek 设法以较低的成本破解了 AI 领域中极其昂贵的难题。这一点对那些缺乏硅谷庞大资金支持的 AI 竞赛参与者而言,预示着积极的前景。

DeepSeek 的发布在美国引发了关于美国政府的技术出口管制是否成功或足够严格的广泛讨论。您对此问题有何看法?

黃裕舜:要回答这个问题并不容易,因为“成功”到底意味着什么并不明确。这是一个不断变化的目标,同时也是一个政治化的流行词。人们在讨论和评估出口管制时,往往缺乏对其具体目标的明确或严谨界定。对世界而言的“成功”,未必能直接等同于对中国或美国的“成功”。同样,对少数美国科技巨头和公司的“成功”,也未必符合全球南方国家的利益。

如果我们从美国的角度来分析这个问题,是否应该将“成功”定义为符合美国人民、公众,还是政治精英的利益?如果是政治精英的利益,那么“成功”是否意味着彻底阻止中国在前沿芯片(7nm 以下)领域赶超美国?如果这一目标能够实现,并假设美国能在中国之前率先实现通用人工智能(AGI),那么美国确实可能获得地缘政治上的主导地位。但“成功”是否也可以被解读为通过出口管制来迫使中国在地缘政治或领土问题上作出让步?考虑到当前美国政府的状况,这种可能性似乎越来越渺茫。

简而言之,我认为“成功”这个概念本身模糊不清,甚至可能具有潜在的危险性。毫无疑问,中国企业确实在一定程度上受到了《芯片与科学法案》和最近出台的人工智能扩散限制的影响。中国长期以来依赖外部硬件供应,特别是 GPU 和芯片,以推动本国的人工智能发展。然而,最近的事件表明,中国企业——与所有受到制裁和出口管制的国家企业一样——正在坚定地寻找新的发展路径。

这些路径可能包括:依赖成熟制程芯片,同时提升模型效率,以规避对算力的限制;推动 7nm 甚至更先进工艺的突破(正如中芯国际所展现的);或是大力扶持基层和自下而上的创业创新——这种模式在中国半导体行业的成功中一直发挥着关键作用。中国科技行业仍然有诸多优势,我们必须认识到,任何认为其“无可挽回”的悲观论调都可能在未来被证明是错误的。无论是美国还是中国的科技产业,都不能被轻易地判定成败。

一些国家出于国家安全考虑已经禁止了 DeepSeek,美国也在考虑类似的立法。您如何看待这些安全问题?政府应如何在安全与开放合作之间取得平衡?

黃裕舜:我们生活在一个日益安全化的世界。事实上,在我看来,安全化不仅体现在安全威胁的增加,还体现在以“安全”之名制定的各种政策,可以称之为“安全”的修辞政治化和武器化,以实现地缘政治目标,例如压制健康、有机的竞争。

当然,各国完全有理由担心潜在或实际的国家安全风险,比如数据泄露、对用户敏感信息的操控,以及开源数据被滥用的破坏性行为。理想情况下,没有人希望看到一个恐怖分子可以随意获取 AI 源代码并将其用于邪恶目的的世界。我们也不应接受这样一个世界——在这个世界里,别有用心的国家和大型企业可以不受限制地运行 AI 模型,缺乏监督和透明度。

然而,这正是我们今天所处的世界。开源 AI 这只“精灵”已经被释放出来。美国的大型科技公司已经在利用个人用户数据为其股东或利益相关方谋取私利。我们无需凭空想象剑桥分析公司(Cambridge Analytica)式的方法与高效的生成式 AI 模型结合,会如何制造高度操控性的舆论引导和破坏性虚假信息宣传。后门(Backdoors)与定制化、面向消费者的 AI 应用一样普遍存在。

没有理由认为 DeepSeek 比美国、欧盟、英国或中国的主要 AI 公司更容易或更不容易受到国家力量的操控。尽管中国的治理方式在体制和结构上明显不同于美国,我们需要思考的问题是——这种制度上的不透明性是否真的是一个需要我们特别关注的、过度担忧的问题?还是说,我们应该直面事实,承认当前对 DeepSeek 的封禁和取缔,本质上是全球不确定性和国家间普遍不信任背景下的经济保护主义和安全化行为?

考虑到中国对信息的严格管控,中国的 AI 发展是否会遇到无法克服的固有困难?

黃裕舜:我认为内容限制确实带来了一些明显的问题,尤其是在中国本土私营企业开发的 AI 模型方面,这些企业必须谨慎避免触碰政治敏感的红线。禁忌话题很可能会被过滤掉——无论是在输入/训练阶段,还是在输出/应用阶段。

这种对输入和输出的限制可能在面向消费者的产品中最为明显,而在仅供国有企业内部开发和评估的模型中则相对较少。话虽如此,DeepSeek 的开源特性以及近期的一些草根创新,可能会使个人用户能够根据自身需求调整和优化模型——无论是用于训练模型的输入数据,还是可以修改和实验的权重参数,以获得不同的结果。

从长远来看,我并不认为这些困难是不可克服的。大多数 AI 功能并不依赖于完全没有内容过滤的环境。虽然在 Chat-GPT 等模型上,人们可能需要仔细辨别某些在政治敏感问题上的“中立”或“客观”回答,但许多商业化的中国 AI 模型在实际应用中确实采取了选择性讨论某些敏感话题的策略。在某种程度上,这种明显的限制反而让信息管控变得更加易于察觉。

如何看待对 DeepSeek 作弊的指控,即使用蒸馏方法(distillation技术)训练自己的 AI 模型,这是一种不同形式的知识产权盗窃?DeepSeek 声称其训练仅使用了约 2000 片芯片,成本不到 600 万美元,这一说法可信吗?

黃裕舜:我们对 DeepSeek 的完整训练过程仍知之甚少,因此无法有把握地断言它是否采用了不当手段来训练其模型。需要明确的是,其“不到 600 万美元”的成本,DeepSeek 明确表示是指最终的训练运行费用,该公司从未声称 R1 模型的总成本仅为这一金额。

至于蒸馏是否算作“作弊”的指控,我认为现代 AI 发展历来依赖于各公司相互参考他人的模型,以优化自身的输入和权重。尽管 OpenAI 的服务条款确实限制用户利用其模型训练其他大型语言模型(LLM),但从根本上来说,在 AI 研究的成果能够被更广泛的群体共享和高效利用的前提下,这种技术共用的方式并没有什么本质上的非法或不道德之处。

您主张中美在人工智能领域开展合作。如果两国在该领域持续对抗,长期后果会是什么?

黃裕舜:正如已故的亨利·基辛格博士所指出的,在中美之间因人工智能(AI)引发的对抗或军事冲突中,不会有真正的赢家。他非常精准地指出,最严重的风险之一——甚至可能是最大风险——是两个AI超级大国陷入一场实质性或半实质性的战争。这正是基辛格在生命的最后几年里,仍然致力于促成中美领导层对话的原因。我对他在这一方面的远见卓识和不懈努力深表敬意。

如果中美继续在AI领域对抗,长期后果可能会非常严重。首先,地缘政治紧张局势将进一步加剧,深化两国之间原本就存在的怀疑和不信任。这种紧张关系可能会波及国际关系的其他领域,增加冲突风险,破坏全球和平稳定。

其次,全球AI标准的碎片化将导致一个割裂的格局,美国和中国可能采取不同的监管方式。这种分歧将阻碍国际合作,妨碍全球AI治理框架的统一构建,使得解决跨国AI问题(例如网络犯罪、AI驱动的信息战等)变得更加困难。

第三,数据的碎片化将加剧,因为两国可能越来越多地将本国数据与外界隔离。AI系统在不同的数据集上训练,可能会发展出截然不同的价值观和判断方式,这不仅会加剧偏见,还会导致全球AI应用中的互操作性问题。这种数据割裂将削弱AI推动全球进步的潜力。

第四,科技脱钩将成为现实,美国和中国可能会各自发展独立的AI生态系统。这种脱钩将限制知识和创新的交流,不仅会减缓全球AI技术的发展,还会阻碍AI在全球南方国家的普及,使其无法真正造福于世界各地的普通民众。

中美在AI领域的竞争不仅关乎技术领先地位,更影响全球治理和社会发展。因此,这一问题的利害关系再大不过了。

两国应采取哪些措施来促进合作,同时防止AI军备竞赛?

黃裕舜:在中美AI合作方面,我认为在两个领域可以比较容易地进行合作。

第一,双方应共同建立涵盖私营部门和官方代表的双边AI委员会。这些“1.5轨”委员会应包括高级特使,类似于气候变化领域的特使,专门负责AI事务。这些委员会的目标应当聚焦于两国能够达成共识的领域——例如,无需执着于围绕半导体出口管制的争论,而是集中精力在伦理、安全和监管这些易于合作但影响深远的领域。同时,我们需要在国际机构(如联合国)的框架下,推动建立多边AI治理机制,以明确AI开发和应用的指导方针和标准。我不确定2025年2月在巴黎召开的AI峰会是否真正解决了长期AI风险或AI与人类利益不对齐的问题,但至少它是一个正确的方向,就像2023年在英国举行的AI峰会一样。

第二,推动在相对中立的“第三方”国家或地区建立AI伦理、影响和监管的联合研究机构和合作项目,这可能有助于打破当前的僵局。尤其是华盛顿方面,对跨越太平洋的学术合作持高度怀疑态度。在第三国设立联合研究中心和资助计划,鼓励中美大学和研究机构共同开展AI项目,有助于促进知识交流,并推动内嵌伦理和安全考量的AI技术发展。一个重点方向可以是鼓励两国的大型科技公司履行企业社会责任,在AI伦理方面采取最佳实践,例如加强数据隐私保护、避免算法偏见,并确保AI系统的可解释性。

通过这些合作项目,我们能够建立起足够的善意、人际联系和机构关系,为未来更大规模的合作打下基础。但要实现这些目标,需要最高层的坚实支持和清晰的授权。

最关键的是,两国应对军事AI应用设定明确限制。就AI在军事领域的使用达成一致,包括对自主武器系统设定红线,可以有效防止技术误用和冲突升级。建立AI在国防领域的使用规范,确保其应用符合伦理原则和责任要求。最近中美对AI在核武器领域的应用限制是一个积极的进展,但我隐隐担忧,特朗普政府若上台,可能需要额外的游说才能维持这一(相对理性的)政策底线。希望这些努力能够持续下去!

 

作者

相关内容

Leave a Reply

Your email address will not be published. Required fields are marked *