图片来源:Unsplash
来源 arstechnica.com、机器之心等
编译 科研圈
本月早些时候,OpenAI 发布了新一代多模态预训练大模型 GPT-4,准确性较 GPT-3.5 有明显提升,并在多项专业考试中横扫人类考生。尽管这一说法仍有待更多研究和评估,但 GPT-4 和其衍生出的 ChatGPT、Bing Chat 在功能上的进步令一些专家感到忧虑。
信中这样写道:“具有人类智能水平的 AI 系统可能对社会和人类带来极大的风险,这一点已经得到顶级 AI 实验室的认同。正如广泛认可的 Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。”
因此,该信呼吁所有人工智能实验室应立即暂停训练比 GPT-4 更强大的 AI 模型,为期至少 6 个月。在暂停期间,公开信的作者建议实验室和独立专家合作,针对 AI 的设计和开发建立共享的安全协议,并由独立的外部专家监督,确保 AI 系统“安全、无可置疑”。
公开信网页截图
公开信译文
大量研究[1]表明:具有人类智能水平的 AI 系统可能对社会和人类带来极大的风险,这一点已经得到顶级 AI 实验室[2]的认同。正如广泛认可的 Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。不幸的是,目前尚无这种级别的规划和管理。最近几个月人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但是没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能。
当代 AI 系统现在在一般任务[3]上表现与人类相当,我们必须扪心自问:
· 我们是否应该让机器用宣传(尤指褊狭、误导的)和谎言充斥我们的信息渠道?
· 我们应该自动化所有的工作,包括令人满意的工作吗?
· 我们是否应该发展最终可能超越我们并取代我们的非人类思维?
· 我们应该冒险失去对我们文明的控制吗?
我们不应该将此类决定交给未经选举产生的技术领导者。只有当我们确信 AI 大模型的影响是积极的并且风险是可控的时,我们才能开发强大的 AI 系统。而且,这种判断必须有充分的理由,并随着系统潜在影响的大小而跟进。OpenAI 最近关于人工智能的声明指出:“在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的工作来说,人们应该在合适的时间点限制用于创建新系统的计算增长率。”我们认为,现在已经到了这个时间点。
因此,我们呼吁所有人工智能实验室立即暂停训练比 GPT-4 更强大的 AI 系统,为期至少 6 个月。这种暂停应该是公开的和可验证的,并且所有关键参与者也应该暂停相关工作。如果不能迅速实施这种暂停计划,政府机构应介入并暂停。
人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级 AI 设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,无可置疑的[4]。这并不意味着总体上暂停 AI 开发,而是从具有新兴功能的、不可预测的大型黑盒模型的危险竞赛中后退一步。
AI 的研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、可信和可靠。
同时,AI 开发者必须与政策制定者合作,大幅加快强大的 AI 治理系统的开发。这些工作至少应该包括:专门针对人工智能的新的、有能力的监管机构;对高能力的人工智能系统和大型计算能力池的监督和跟踪;帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;强大的审计和认证生态系统;对人工智能造成的伤害的责任认定;对人工智能安全技术研究的强大公共资金;资源丰富的机构,以应对人工智能将造成的巨大经济和政治混乱。
人类可以通过 AI 享受一个繁荣的未来。在成功创造出强大的 AI 系统之后,我们现在可以享受一个“人工智能之夏”。在这个夏天,我们收获了回报,为所有人的明确利益设计这些系统,并给社会一个适应的机会。社会已经暂停了对自身有潜在灾难性影响的其他技术[5]。我们在这个领域也可以这样做。让我们享受一个漫长的人工智能之夏,而不是在毫无准备的情况下冲进秋天(Let's enjoy a long AI summer, not rush unprepared into a fall)。
注释和参考资料: [1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?