最重要的,是在AI安全监管方面,政策从风险前置、预防性管控走向安全跟跑发展、监管服务创新,形成“轻触式(light touch)监管”。一是回调AI风险、弱化管控。持续减少对AI在CBRN、武器化使用中的风险、以及不可控风险等“假想性风险”的描述,对模型本身的风险聚焦在deepfake和儿童保护,而AI的行业应用未发现额外风险,通过现有的行业规则和企业层面的AI治理可以有效管控。二是清除各州的“碎片化”监管立法。在联邦尚未出台综合性人工智能立法的前提下,近两年美国各州已积极采取行动,在透明度披露、高风险AI系统安全保障、AI影响评估及报告等基础义务,以及在选举诚信、数字肖像、医疗就业自动化决策等关键场景专项监管上,开展了步调不一致、颗粒度各异的立法探索,以加州、科罗拉多州为代表采取了强监管模式,其他各州则各有侧重,对此企业遵守各州不同的监管制度将非常困难。通过在“美丽大法案”(One Big Beautiful Bill Act)中打包AI监管联邦优先权(federal preemption)条款,禁止各州在十年内立法监管人工智能,不得出台任何 “限制、约束或以其他方式监管AI的法律或法规”,以建立统一的联邦标准水位并消除对技术发展的监管阻碍。三是推动安全合作,满足企业诉求。例如NIST需要将更多地采纳(Adopt)产业侧的成熟经验和共识方案,不是单方面地制定(Make)标准,而是采纳产业事实标准,并向全球推广(Promote)。