布莱奇利公园峰会:世界开始构建人工智能全球法律框架
来源:路透社 作者:约书亚·杜普伊

2024 年 1 月 5 日 - 在破解纳粹德国的恩尼格玛密码并加速第二次世界大战结束近十年后,英国计算机科学家艾伦·图灵早在我们依靠计算机来回答许多问题之前就提出了一个问题:“机器可以思考吗?”
图灵用计算逻辑进行了实验,以探索机器是否可以令人信服地模拟人类思维。他的开创性努力为数字计算机奠定了基础,他的“模仿游戏”最终演变成了我们现在所知的图灵测试。他的问题“机器能思考吗?”的意义何在?本尼迪克特·康伯巴奇 (Benedict Cumberbatch) 在 2014 年的电影《模仿游戏》中将这一概念变为现实,并预示着人工智能将成为我们日常生活中无处不在且不可或缺的一部分,远远超越最初的景象。
如今,随着人工智能与医疗保健、金融和法律事务等不同领域错综复杂地交织在一起,我们的焦点从质疑人工智能的感知能力转向了对其监管。从版权到隐私等等,挑战在于如何在不阻碍创新的情况下有效管理人工智能。人工智能的崛起需要一种微妙的平衡:培育技术进步,同时确保这种进步与强大的框架相匹配,以防止这些数字创造超出我们的监管范围。
OpenAI 的 ChatGPT 于一年多前广泛推出,集中体现了人工智能的快速发展和复杂挑战。在公开发布后的两个月内,该聊天机器人就获得了 1 亿用户,这是 Instagram 花了两年时间才达到的里程碑。这种快速增长不仅使 OpenAI 的估值跃升至 860 亿美元,而且凸显了该技术的重大且不断扩大的影响力。
人工智能日益融入全球关键领域,凸显了人们几乎一致认识到需要建立法律框架来管理其负责任的使用。尽管目前的监管反应各不相同,但全球对于建立人工智能全面治理的重要性正在形成共识。
探索监管方法的迷宫
全球人工智能格局展示了广泛的监管策略,反映了该技术的早期阶段以及协调创新与道德问题的复杂挑战。欧盟 (EU) 去年 12 月就开创性的人工智能法案达成了临时协议,这是同类中的第一个综合框架。
在等待欧盟议会正式批准的同时,该法案准备根据人工智能系统的潜在影响对其进行分类。在基于风险的范例上运行,对高风险应用程序的新的、更严格的要求将为以风险为中心的方法树立先例。
尽管全文尚未公布,但议会简报概述了如何禁止人工智能系统带来不可接受的风险,例如用于认知行为操纵或社会评分的系统,执法部门除外。
影响安全或基本权利的高风险人工智能系统将分为两类:欧盟产品安全立法下的产品中使用的系统以及执法等特定领域中需要在欧盟数据库中注册的系统。ChatGPT 等生成式 AI 必须满足透明度要求,而 GPT-4 等更强大的 AI 模型则需要接受严格的评估和事件报告。
在美国,拜登政府于 10 月发布了一项全面的人工智能行政命令,几乎涉及美国政府的各个部门。该命令强调了安全、安保和公平的重要性,倡导透明度和负责任的发展,同时大力支持国际合作。然而,作为一项行政命令,它缺乏具有约束力的联邦立法的力量,并造成了潜在的监管空白。这种情况呼应了过去十年关于网络中立性的争论以及事前和事后监管模式之间持续紧张的关系。
这些方法的多样性凸显了实现全球协调所面临的挑战。然而,在这些差异中,出现了共同点。
布莱奇利公园呼吁国际合作
首届全球人工智能安全峰会在图灵位于英国乡村的密码破译基地布莱奇利公园举行,来自包括中国在内的 28 个国家的代表齐聚一堂,讨论管理人工智能风险和机遇方面的全球合作需求。
美国、英国、欧盟和中国等主要参与者签署了《布莱奇利宣言》 ,这是国际团结的适度但引人注目的表现。这标志着朝着合作人工智能治理的方向迈出的一步,承认人工智能风险的全球性,并倡导建立能够应对人工智能全球挑战的法律框架,适应不同的政治观点,实现有效和和谐的监管。

超越单纯的模仿:人工智能的法律视角
尽管 ChatGPT 拥有先进的语言模型,表现出高水平的表观智能,但它缺乏自我意识或感知能力。在考虑图灵测试时,这种区别至关重要,图灵测试最初是为了评估人工智能表现出智能行为的能力而设计的。但随着人工智能技术的进步,我们认识到需要超越图灵测试的单纯模仿标准。
《人工智能法案》、《人工智能行政命令》和《布莱奇利宣言》等文件中提出的当代法律框架强调对人工智能更加细致入微的理解。这些框架主张确保人工智能符合人类价值观和道德原则,而不仅仅是机器是否思考。这种方法旨在促进人工智能有益地融入社会,确保其服务于更大的利益,同时承认其在意识和感知方面的局限性。
这三者都在以市场为导向的对技术进步的关注与维护基本权利和人类尊严的道德法律框架之间取得了平衡。这种平衡确保了整个人工智能生命周期的透明度和问责制,解决了潜在的偏见和不可预见的后果,从而培育了一个更加公平和值得信赖的人工智能生态系统。它标志着向更认真的人工智能开发模式的转变,并为负责任的人工智能管理奠定了基础。
国际共识正在围绕基于五个关键支柱的多管齐下的方法达成:全球合作、建立在现有框架的基础上;优先考虑透明度和问责制;减少偏见和歧视并确保人类控制和监督。人工智能增强人类能力的潜力是巨大的,人们几乎一致认为控制和监督应该牢牢掌握在人类手中。
法律框架将为人类干预人工智能驱动的决策建立清晰的渠道,作为防止算法越权和潜在危害的堡垒。这一观点与在技术开发中优先考虑以人为本的方法这一更广泛的共识是一致的。
人类控制与“有效加速主义”
确保人类控制面临着有效加速主义(e/acc)这一新兴理念的挑战,该理念由一些技术领导者(包括风险投资家马克·安德森(Marc Andreesen)和加里·谭(Garry Tan))倡导。E/acc 优先考虑快速的技术进步,有时会牺牲严格的监管。
这种方法的倡导者主张加快技术开发步伐,减少对监管限制的重视。任何支持负责任约束的人都会被视为阻碍进步,并被称为“减速”。这种立场,尤其是其更激进的形式,愿意接受重大风险,包括潜在的人类灭绝,作为无节制技术进步的权衡。
e/acc 理念与更加谨慎、以监管为中心的方法之间的鲜明对比凸显了人工智能和技术领域的根本性辩论:创新与安全之间的平衡。我们如何驾驭这一鸿沟将塑造人工智能及其融入社会的未来轨迹。
前进之路:从布莱切利的蓝图到首尔和巴黎的法律框架
全球政策制定者在布莱奇利公园峰会上齐聚一堂,与拜登总统的行政命令和欧盟的人工智能法案保持一致,标志着人工智能全面法律框架形成的一个具有开创性的时刻。这个新生的框架是由国际人工智能监管观点融合而成,为后续峰会铺平了道路,首尔和巴黎可能成为下一届峰会的主办国。这些聚会有望进一步完善人工智能治理复杂的法律和道德结构。
韩国计划于 2024 年 5 月推进实施框架,深入研究人工智能操作的可解释性、稳健的数据治理实践以及人工智能系统中微妙的责任问题等关键领域。到 2024 年 11 月,焦点将转移到法国,讨论将集中在道德层面,特别是人权影响、减少偏见的策略和提高算法透明度。
这些峰会的成果预计将有助于围绕全球人工智能监管格局达成共识。首尔峰会强调将原则转化为可行的政策,将为监管实体提供宝贵的指导。与此同时,巴黎峰会对伦理探索的奉献预计将为人工智能领域的未来立法工作提供信息和塑造。
当我们驾驭人工智能治理的错综复杂的交响曲时,世界领导人将被要求记住图灵的持久问题,并在不牺牲道德责任的情况下找到促进创新的平衡点。《布莱切利宣言》表明,合作不是一个抽象概念,而是必不可少的。人工智能超越国界,有偏见的数据或孤立的道德法规可能会损害全球范围内的应用程序。
但协调并不需要统一。每个国家的方法都为负责任的人工智能开发和部署的全球标准贡献了独特的价值,呼应了回答图灵最初询问的永恒追求。


