拜登政府于周一对其人工智能AI行政令的进展进行了概述,重点放在了AI模型的安全性和国家安全上。以下是此次公告的四个重要要点:
AI开发者需向政府报告测试结果。云服务提供商需报告恶意活动。重要联邦机构采取措施确保关键基础设施的AI安全。AI人才激增正在进行中。拜登的行政令使用了《国防生产法》的权力,要求AI开发者向商务部报告AI安全测试结果。有关公司必须分享有关最强大的AI系统的信息,并报告大型计算集群的情况,这些集群能够训练这些系统。
如果商务部在原行政令中提案的内容得到最终确认,云服务提供商则需在外国客户训练潜在用于“恶意”活动的强大AI模型时及时警告政府。
包括国防部、交通部、财政部和卫生与公众服务部在内的九个联邦机构向国土安全部提交了风险评估报告,旨在确保美国在将AI安全融入关键基础设施方面处于领先地位。
拜登行政令下成立的AI和技术人才工作组正在积极招聘AI人才。例如,人事管理办公室已授予联邦机构灵活的招聘权限以招聘AI技术人才。同时,诸如总统创新开发者、美国数字队伍以及美国数字服务等组织也在加大招聘AI人才的力度。
在过去90天中,政府还推出了EducateAI计划,旨在为K12及大学生提供教育机会,并推进国家科学基金会的工作,以满足国家对劳动力的需求。
“看到国家专注于在K12中发展本土人才是件好事,”SentinelOne的首席安全顾问摩根赖特表示。
赖特指出,在他之前为SC Media撰写的文章中,他提到开始弥补知识差距的最佳时机是20年前,而下一个最佳时机则是今天。
小火箭节点购买“为AI提供监管清晰度是另一个良好目标,这是联邦政府迄今为止未能实现的,”赖特补充说。
尽管AI公司和云服务提供商已经开始执行新的指令,其他行业人士依然对行政令中的语言表示疑虑。
Checkmarx的公共部门总监约翰艾利森希望看到政府会如何处理行业提交的额外信息。
“我还希望能定义什么样的外国AI活动属于“恶意”以便AI提供者可以准确生成报告,”艾利森说。“像AI的很多事情一样,变化在以光速发生,安全与合规都在追赶这项技术。没有人会否认,如果AI的开发不安全,后果可能会是灾难性的。我们已经看到坏人使用AI,没有理由认为这种现象会停止。”
Inversion6首席信息安全官克雷格布尔兰表示,尽管我们距离真正控制AI还有一段距离,但政府已在这条道路上增加了一个新的推动点。布尔兰表示,政府从国家安全和关键基础设施入手毫不意外这是他们可以直接影响的领域,而不会引来大量诉讼。
“然而,测试要求仅限于对国家安全、国家经济安全或国家公共健康与安全构成严重风险的模型,这缩小了谁将受到新规限制的范围,”布尔兰解释说。“这是一个相对主观的范围,可能导致身穿黑西装、戴墨镜的特工出现在大堂,也可能完全错过下一个OpenAI。AI依然是一把双刃剑,承诺带来创新、设计和效率的好处,但也带来了滥用和混乱的严重潜力。”
BlueVoyant的产品管理高级总监莫娜贾迪里表示,让国家标准与技术研究所NIST负责AI安全测试框架是有意义的,因为他们已经制定了网络安全框架。还有许多可以借鉴其他测试实践,以