近日,美国政府与谷歌 DeepMind、微软以及 xAI 等科技公司签署协议,在这些公司的新人工智能模型向公众发布之前,进行早期版本的审查。此项合作由美国商务部下属的人工智能标准与创新中心(CAISI)推动,旨在确保新型强大 AI 模型的能力与国家安全之间的平衡。

安全 黑科技 未来 程序

CAISI 在一份新闻稿中表示,这项审查过程对于理解前沿 AI 技术及其对国家安全的潜在影响至关重要。CAISI 主任克里斯・福尔指出,独立且严格的测量科学能够有效识别与网络安全、生物安全及化学武器相关的风险。这些合作协议的签署将帮助联邦政府在关键时刻更好地推进为公共利益而开展的工作。

此外,CAISI 还强调,开发者与政府分享未发布 AI 模型的信息已成为一种常见做法,这有助于政府全面评估与国家安全相关的能力与风险。近年来,随着对新一代 AI 模型(如 Anthropic 公司的 Mythos)可能带来的危险的担忧加剧,这类协议的重要性愈发凸显。

与此同时,科技行业的 AI 安全专家和政府官员对这些强大模型可能被黑客利用的风险表示关注。因此,Anthropic 公司决定限制 Mythos 的推广范围,并发起名为 “玻璃之翼” 的合作项目,旨在联合多家科技公司共同保护全球关键软件的安全。

对于 AI 的监管,特朗普政府曾考虑制定行政命令来加强对这些工具的监督,但该政府对此表示否认。与此同时,微软也在英国宣布与政府支持的人工智能安全研究所达成类似协议,强调国家安全与公共安全风险的测试需要与政府的紧密合作。

划重点:

1️⃣ 美国政府与谷歌 DeepMind、微软及 xAI 达成协议,审查 AI 模型的国家安全风险。

2️⃣ CAISI 强调独立的测量科学对于理解 AI 模型的能力与风险至关重要。

3️⃣ AI 安全专家对强大模型被黑客利用的潜在风险表示担忧,科技公司正联合保护关键软件安全。