服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

马斯克公开信(全文)

日期: 来源:半导体风向标收集编辑:Future of Life


华为盘古大模型






暂停大型人工智能实验:公开信

发布网站:Future of Life Institute

会议时间:2023年3月29日

原文链接:

https://futureoflife.org/open-letter/pause-giant-ai-experiments/


免责声明:本纪要仅供浙商证券的客户使用,本公司不会因接收人收到本纪要而视其为本公司的当然客户;会议纪要由浙商证券科技团队翻译/整理,内容根据官网发布内容翻译而来,或因语法理解、翻译有误、翻译不完整等原因造成含义与公司表述有偏差的风险,仅供参考,准确内容请参见原文链接;会议纪要内容仅供投资者参考,不包含任何浙商证券研究所的投资意见和建议,投资者需自行承担投资决策的风险。


我们呼吁所有人工智能实验室立即暂停对比GPT-4更强大的人工智能系统的培训至少6个月。

大量研究表明,具有人类竞争情报的人工智能系统可能对社会和人类构成深刻风险,并得到顶尖人工智能实验室的认可。正如得到广泛赞同的Asilomar人工智能原理,先进的人工智能可能代表着地球生命史上的一场深刻变革,应该以相应的关心和资源进行规划和管理不幸的是,这种水平的规划和管理并没有发生,尽管最近几个月来,人工智能实验室陷入了一场失控的竞赛,开发和部署更强大的数字思维,没有人——甚至他们的创造者——能够理解、预测或可靠地控制。

当代人工智能系统在一般任务上正变得具有人类竞争力,我们必须问自己:

应该让机器用宣传和谎言淹没我们的信息渠道吗?

应该自动化了所有的工作吗,包括令人满意的工作吗?

应该让我们开发出非人类的思想,最终可能会在数量上超过我们,比我们聪明,被淘汰,甚至取代我们?

应该让我们会冒着失去文明控制的风险吗?

这样的决策决不能委托给未经选举产生的技术领导者。只有当我们确信强大的人工智能系统的影响将是积极的,其风险将是可控的时候,才应该开发它们。这种信心必须有充分的理由,并随着系统潜在影响的大小而增加。OpenAI的最近关于人工通用智能的声明指出,“在某个时候,在开始训练未来的系统之前获得独立审查可能是重要的,对于最先进的努力,同意限制用于创建新模型的计算增长率。”我们同意这一点,就是现在。

因此,我们呼吁所有的人工智能实验室立即暂停至少 6 个月的比GPT-4更强大的 AI 系统的培训。这一暂停应该是公开的和可核查的,并包括所有关键行为者。如果这样的暂停不能迅速实施,各国政府应该介入并实施暂停。

人工智能实验室和独立专家应该利用这段时间,共同开发和实施一套高级人工智能设计和开发的共享安全协议,由独立外部专家进行严格审计和监督。这些协议应确保遵守协议的系统是安全的,排除合理的怀疑。这不是意味着人工智能发展总体上的暂停,只是从危险的竞赛中后退一步,以便向具有突发能力的更大的不可预测的黑盒模型前进。

人工智能的研究和开发应该重新聚焦于使今天强大的、最先进的系统更加准确、安全、可解释、透明、强大、一致、值得信赖和忠诚。

同时,人工智能开发者必须与政策制定者合作,大幅加快开发强大的人工智能治理系统。这些至少应该包括:专门针对人工智能的新的和有能力的监管机构;监督和跟踪高能力的人工智能系统和大型计算能力池;出处和水印系统,以帮助区分真实和合成,并跟踪模型泄漏;强大的审计和认证生态系统;对人工智能造成的伤害承担责任;为人工智能安全技术研究提供强大的公共资金;以及资源充足的机构,以应对人工智能将导致的巨大的经济和政治破坏。

人类可以通过人工智能享受一个繁荣的未来。现在,在成功创造出强大的人工智能系统之后,我们可以享受一个 "人工智能之夏"。在这个夏天,我们收获了回报,为所有人的共同利益设计这些系统,并给社会一个适应的机会。社会已经暂停了对社会有潜在灾难性影响的其他技术,我们在这里也可以这样做。让我们享受一个漫长的人工智能夏季,而不是在毫无准备的情况下匆忙坠入秋季。


公开信原文





AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research,and acknowledged by top AI labs. As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.

Contemporary AI systems are now becoming human-competitive at general tasks, and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system's potential effects. OpenAI's recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now.

Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.

AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt. This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.

AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.

In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.

Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an "AI summer" in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.  We can do so here. Let's enjoy a long AI summer, not rush unprepared into a fall.



往期报告回顾

点击报告标题直达↓

ChatGPT系列报告

ChatGPT研究框架(浙商)

ChatGPT的背后:芯片

ChatGPT算力:研究框架【浙商】

ChatGPT l 一张图【浙商】

ChatGPT:算法/模型(浙商)

GPT 4:一张图(浙商)

ChatGPT与金属行业(浙商)

ChatGPT如何改变银行业?

ChatGPT如何改变算力?

GPT算力:AI芯片全景(浙商)

GPT涨了多少?(浙商)

(滑动查看历史报告)

人工智能AI系列报告

AI的「iPhone 时刻」

AI 能做什么?(浙商)

浙商:AIGC有望引领浪潮

复盘篇:20只十倍科技股(19~21年)

人工智能 l 全景图(浙商)

人工智能 l 一张图

(滑动查看历史报告)

华为系列研究

华为算力·鲲鹏(浙商)

华为盘古·深度(浙商)

华为如何造车?(浙商)

华为战略及破局(浙商)

华为鲲鹏全景图(浙商)

华为战略 l 一张图



(滑动查看历史报告)

固定布局                                                        
工具条上设置固定宽高
背景可以设置被包含
可以完美对齐背景图和文字
以及制作自己的模板


法律声明及风险提示

本公众号为浙商证券新科技团队设立。本公众号不是浙商证券新科技团队研究报告的发布平台,所载的资料均摘自浙商证券研究所已发布的研究报告或对报告的后续解读,内容仅供浙商证券研究所客户参考使用,其他任何读者在订阅本公众号前,请自行评估接收相关推送内容的适当性,使用本公众号内容应当寻求专业投资顾问的指导和解读,浙商证券不因任何订阅本公众号的行为而视其为浙商证券的客户。

 

本公众号所载的资料摘自浙商证券研究所已发布的研究报告的部分内容和观点,或对已经发布报告的后续解读。订阅者如因摘编、缺乏相关解读等原因引起理解上歧义的,应以报告发布当日的完整内容为准。请注意,本资料仅代表报告发布当日的判断,相关的研究观点可根据浙商证券后续发布的研究报告在不发出通知的情形下作出更改,本订阅号不承担更新推送信息或另行通知义务,后续更新信息请以浙商证券正式发布的研究报告为准。

 

本公众号所载的资料、工具、意见、信息及推测仅提供给客户作参考之用,不构成任何投资、法律、会计或税务的最终操作建议,浙商证券及相关研究团队不就本公众号推送的内容对最终操作建议做出任何担保。任何订阅人不应凭借本公众号推送信息进行具体操作,订阅人应自主作出投资决策并自行承担所有投资风险。在任何情况下,浙商证券及相关研究团队不对任何人因使用本公众号推送信息所引起的任何损失承担任何责任。市场有风险,投资需谨慎。

 

浙商证券及相关内容提供方保留对本公众号所载内容的一切法律权利,未经书面授权,任何人或机构不得以任何方式修改、转载或者复制本公众号推送信息。若征得本公司同意进行引用、转发的,需在允许的范围内使用,并注明出处为“浙商证券研究所”,且不得对内容进行任何有悖原意的引用、删节和修改。



相关阅读

  • 120s,读懂华为鲲鹏(浙商)

  • 华为鲲鹏生态以华为自主芯片→鲲鹏芯片→鲲鹏服务器→欧拉操作系统→高斯数据库→行业应用等多个层次向外扩张,形成产品及应用矩阵,以技术生态、伙伴生态、产业生态、开发者生
  • 浙商:站在新一轮牛市的起点

  • 投资要点前序报告:2022年12月6日报告《站在新科技牛市起点 ——复盘篇:2019-2021年十倍股成因盘点》本篇报告:2023年3月15日报告《站在新科技牛市起点——展望篇:AIGC引领创新,三
  • 存储芯片 l 一张图(浙商)

  • 风险提示:AI需求不及预期;存储市场供应链波动风险等。作者:蒋高振 (执业证书号:S1230520050002)联系人:蒋高振/赵洪来源:浙商证券电子团队具体参见2023年4月1日报告《重视存储产业安
  • 浙商·人工智能天团

  • 前序报告固定布局 工具条上设置固定宽高背景可以设置被包含可以完美对齐背景图和文字以及制作自己的模板分析师:陈
  • 生成式AI下个趋势?从信息生成到信息合成

  • A16Z最近又发了一篇有意思的文章,谈到他们认为的生成式AI下一波趋势在哪。我们要注意三件事:第一,代码行数不是衡量工程生产力的好方法;第二,更长的产品内容,不一定就能起到更清楚
  • 马斯克等联名叫停GPT训练!什么原因?

  • OpenAI的GPT大模型日益强大,也引起了关于伦理方面的巨大争议。OpenAI的共同发起人伊隆·马斯克(Elon Musk)和一群人工智能专家及行业高管在一封最新发布的公开信中呼吁,在未来六

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • 120s,读懂华为鲲鹏(浙商)

  • 华为鲲鹏生态以华为自主芯片→鲲鹏芯片→鲲鹏服务器→欧拉操作系统→高斯数据库→行业应用等多个层次向外扩张,形成产品及应用矩阵,以技术生态、伙伴生态、产业生态、开发者生
  • 浙商:站在新一轮牛市的起点

  • 投资要点前序报告:2022年12月6日报告《站在新科技牛市起点 ——复盘篇:2019-2021年十倍股成因盘点》本篇报告:2023年3月15日报告《站在新科技牛市起点——展望篇:AIGC引领创新,三
  • 马斯克公开信(全文)

  • 华为盘古大模型暂停大型人工智能实验:公开信发布网站:Future of Life Institute会议时间:2023年3月29日原文链接:https://futureoflife.org/open-letter/pause-giant-ai-experim
  • 存储芯片 l 一张图(浙商)

  • 风险提示:AI需求不及预期;存储市场供应链波动风险等。作者:蒋高振 (执业证书号:S1230520050002)联系人:蒋高振/赵洪来源:浙商证券电子团队具体参见2023年4月1日报告《重视存储产业安
  • 浙商·人工智能天团

  • 前序报告固定布局 工具条上设置固定宽高背景可以设置被包含可以完美对齐背景图和文字以及制作自己的模板分析师:陈