德卤爱开车

德卤爱开车

关注
环形隧道

2023-03-29

关于暂停 AI 实验的,这封信其实还是比较明确的。 这是理想主义和现实主义在现实中的一次碰撞,Sam 这些人对技术是有信仰的,对是技术信仰,他们试图探索未知,但似乎没有做好未知到来时应对失控的准备。 AI 可以造福人类,但同时也可以毁灭。 一封公开信: 大量研究表明并得到顶级 AI 实验室的认可,具有人类竞争能力的智能 AI 系统可能对社会和人类构成深远的风险。 正如广泛认可的Asilomar AI 原则中所述,高级 AI 可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。 不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人甚至他们的创造者都无法理解和预测或可靠地控制。 当代人工智能系统现在在一般任务上变得比人类更具有竞争力,我们必须扪心自问: - 我们是否应该让机器用宣传和谎言充斥我们的信息渠道? - 我们的所以工作都应该交给 AI 吗? - 我们是否应该发展可能超过我们、超越我们、并取代我们的非人类思维? - 我们应该冒险失去对我们文明的控制吗? 只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统,这种信心必须有充分的理由,并随着系统潜在影响的大小而增加。 OpenAI 最近关于通用人工智能的声明指出:「在某些时候,在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的技术来说,同意限制用于创建新系统的计算增长率模型。」 因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月的训练比 GPT-4 更强大的 AI 系统。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。 如果不能迅速实施这种暂停,政府应介入并暂停。 人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。 这些协议应确保遵守它们的系统是安全的,这并不意味着总体上暂停 AI 开发,只是从危险的竞赛中倒退到具有紧急功能的更大的不可预测的黑盒模型。 人工智能研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。 与此同时,AI 开发人员必须与政策制定者合作,以显着加快开发强大的 AI 治理系统。 这些至少应包括: - 专门负责 AI 的新的和有能力的监管机构; - 监督和跟踪高性能人工智能系统和大量计算能力; - 出处和水印系统,以帮助区分真实与合成并跟踪模型泄漏; - 强大的审计和认证生态系统;人工智能造成的伤害的责任; - 为技术人工智能安全研究提供强大的公共资金; - 以及资源充足的机构来应对人工智能将造成的巨大的经济破坏 人类可以享受人工智能带来的繁荣未来,设计这些系统以造福所有人,并为社会提供适应的机会,社会已经暂停其他可能对社会造成灾难性影响的技术,我们可以在这里这样做,让我们享受一个漫长的 AI 夏天,而不是毫无准备地陷入秋天。
环形隧道

2023-03-29

评论 · 0

0/3
大胆发表你的想法~

相关推荐

德卤爱开车

德卤爱开车

评论
德卤爱开车

德卤爱开车

1
德卤爱开车

德卤爱开车

7
3
德卤爱开车

德卤爱开车

1
评论
德卤爱开车

德卤爱开车

1
评论
德卤爱开车

德卤爱开车

评论
德卤爱开车

德卤爱开车

1
评论
德卤爱开车

德卤爱开车

1
评论
德卤爱开车

德卤爱开车

8
7
德卤爱开车

德卤爱开车

评论

更多