Elon Musk、苹果联合创始人Steve Wozniak以及Stability AI总裁Emad Mostaque等科技界巨头,连同其他科技业人士和学者一起发出公开信并发起联署行动。他们表示希望所有比GPT-4更强大的AI能够暂停训练至少6个月,以便开发适用于设计和开发高级人工智能的“共同安全协议”,确保AI系统不会对人类造成威胁。
这封公开信表示,许多得到顶级人工智能实验室认可的研究表明,与人类相媲美的智能系统可能会对社会和人类带来深远的危机。最近几个月各大人工智能实验室陷入了一场失控的军备竞赛,每个实验室都争相开发更强、更大型的人工智能模型。但是包括AI创造者在内,没有任何一个人可以完全理解、准确预测或稳定地控制AI。
公开信引用OpenAI内部评估称,在一般任务上GPT-4已经可以与人类媲美,并且具有竞争力。公开信提出,如果继续无序地开发非人类大脑(即AI),最终AI数量和智慧将超过人类,并面临被取代和淘汰的风险。因此我们不应该冒险在不受限制下开发AI, 以免未来 AI 成为领导者而未经选举就失去对文明的控制,并被利用作不实宣传使虚假信息充斥着我们沟通渠道。
当然,科技巨头们联合签署的信并不是完全反对发展人工智能。他们在信中表示,只有当人类可以确定AI系统的影响是积极的,并且能够完全控制风险时,才适合开发更强大的AI系统。
OpenAI上个月(2月)24日也发布声明称,“到了某个阶段,需要先经过独立审查才能够开始训练未来新AI系统,这件事非常重要,并且所有资源应该最优先用于限制新AI系统的运算能力。”( “At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models.”)
这封公开信表示现在是限制人工智能的时候了。他们呼吁全球所有的人工智能实验室立即停止训练比GPT-4更强大的AI系统,为期至少6个月,并利用这段时间共同开发一套共同安全协议,限制设计及开发高级人工智能系统,并由外部独立专家进行审核和监督,以确保AI系统安全可控。如果不遵守暂停令,则建议政府介入强制暂停开发工作。
公开信重申,不是要求彻底停止一切人工智能开发,而是希望开发者能够临崖勒马,停止现在这种危险的军备竞赛式无序开发工作,因为现在连AI的创造者也不能透彻了解及肯定自己能够完全控制AI。
公开信建议人工智能开发人员与政府合作,并最少需要跟从以下规定:
1.设立专门负责AI监管的新部门;
2.严格监督及追踪高性能AI及具有大型运算能力的机构;
3.在AI生成的作品加入出处和水印等识别系统,以区分该作品孰真孰假及追踪模型泄漏;
4.设立强大的审核和认证系统;
5.为人工智能安全技术研究设立大额公用资金;
6.设立资源充足的机构以应对AI可能造成的经济和政治破坏(尤其针对民主方面)。
暂无评论内容