人工智能路线图,如果有人愿意听的话

虽然华盛顿与Anthropic的分手暴露了管理人工智能完全缺乏任何连贯的规则,但两党思想家联盟已经组建了政府迄今为止拒绝制定的东西:负责任的人工智能开发实际上应该是什么样子的框架。

《亲人类宣言》是在上周五角大楼与Anthropic对峙之前最终确定的,但这两个事件的碰撞并没有让任何参与者忽视。

“就在过去四个月里,美国发生了一些非常了不起的事情,”帮助组织这项工作的麻省理工学院物理学家兼人工智能研究员马克斯·泰格马克 (Max Tegmark) 在接受本编辑采访时说道。 “民意调查突然显示,95% 的美国人反对不受监管的超级智能竞赛。”

这份新发表的文件由数百名专家、前官员和公众人物签署,文件一开始就严肃地指出,人类正处于一个岔路口。宣言称之为“替代竞赛”的一条路径,导致人类首先作为工人被取代,然后作为决策者被取代,因为权力被不负责任的机构及其机器所积累。另一个导致人工智能大规模扩展人类潜力。

后一种情况取决于五个关键支柱:让人类掌控、避免权力集中、保护人类体验、维护个人自由以及追究人工智能公司的法律责任。其中更强有力的条款之一是彻底禁止超级人工智能的发展,直到达成科学共识才能安全和真正的民主支持;强大系统上的强制关闭开关;并禁止能够自我复制、自主自我改进或抵抗关闭的架构。

该宣言的发布恰逢一个更容易理解其紧迫性的时期。 2月的最后一个星期五,国防部长皮特·赫格斯 (Pete Hegseth) 将Anthropic(其人工智能已经在机密军事平台上运行)指定为“供应链风险”,因为该公司拒绝允许五角大楼无限制地使用其技术,这一标签通常是为与中国有联系的公司保留的。几个小时后,OpenAI与国防部达成了自己的协议,法律专家表示该协议很难以任何有意义的方式执行。这一切都暴露了国会对人工智能不采取行动的代价有多大。

正如美国创新基金会高级研究员迪恩·鲍尔(Dean Ball)后来告诉《纽约时报》的那样,“这不仅仅是合同纠纷。这是我们作为一个国家第一次就人工智能系统的控制进行对话。”

← 上一篇文章 推动40美元智能手机势头强劲,但仍面临成本障碍

← 返回列表