政策简报 AI治理的启用原则 作者OwenJ.DanielsDeweyMurdick July2024 Introduction 如何治理人工智能(AI)的问题理所当然地成为美国立法者和政策制定者的首要考虑。高性能大型语言模型(LLMs)如ChatGPT/GPT-4、Claude、Gemini以及微软小助手Copilot的发展进步展示了AI可能对社会产生的潜在变革性影响,既充满机遇也伴随着风险 。与此同时,欧洲的国际合作伙伴和竞争对手如中国也在自行采取措施推进AI治理。1在美国及全球范围内,关于人工智能潜在影响的公共分析和推测大致沿着一个从乌托邦到反乌托邦的光谱分布——一端是认为人工智能对社会极为有利,另一端则是视为存在性风险,这种风险可能导致人类文明终结,并且在两者之间存在许多复杂多样的观点。 大型语言模型(LLMs)在2023年吸引了公众的关注,并引发了对AI风险的担忧,但其他模型和应用,如预测模型、自然语言处理(NLP)工具以及自主导航系统,也有可能带来多样化的危害与益处。面临的挑战包括基于不良或偏差输入数据的歧视性模型输出 、AI赋能的军事武器系统的风险,以及AI驱动的自主系统引发的事故。 鉴于人工智能的多方面潜力,在美国,灵活的AI治理方法是最有可能的成功之路。各种AI系统的不同发展轨迹、风险和危害使得一刀切的监管方法变得不切实际,甚至不可能。监管机构应从应对当前挑战的繁重工作中开始建立实力。即使早期的监管努力需要频繁修订,循环的重复和反馈将导致改进的记忆能力,这对于治理未来更为先进且其风险尚不完全理解的系统至关重要。 拜登总统于2023年10月发布的关于人工智能安全、安全和可信赖开发与使用的行政命令 ,以及提议的两党人工智能监管框架,为在美国建立全面的人工智能治理方法提供了有益的起点。2这些建立在联邦机构(如美国司法部、联邦贸易委员会以及美国平等就业 机会委员会等)现有声明和政策的基础上。3 为了使未来的AI治理努力更加有效,我们为美国政策制定者提出了三条原则。我们从这些主题原则中得出了这些建议。 从普适公司技术中心(CSET)广泛原创且深入的研究中,以及在整个报告中引用的关于人工智能不同方面的详细发现和具体建议中。它们包括: 1.了解AI风险和危害的地形:使用跨行业、学术界和政府的事件跟踪和前瞻性扫描来了解人工智能风险和危害的程度;收集支持性数据以指导治理努力并管理风险。 2.让人类利用AI:提升政策制定者和公众的AI素养,以便他们在有效、负责任且合法地应用AI技术的同时,能够认识到AI带来的机会、风险和危害。 3.保持适应性和敏捷性:制定可以随着AI技术的发展进行更新和适应的政策,避免出台负担沉重的监管措施或技术进步后变得过时的监管规定;确保立法不会通过监管捕获使得现有AI企业挤兑新兴竞争对手。 这些原则相互关联且相辅相成:不断更新对人工智能landscape的理解将有助于立法者保持灵活并及时响应最新的进展,并为evolving风险计算和共识提供信息。 1.了解AI风险和危害的地形 随着人工智能的Adoption进程推进,将需要更多的数据来更好地理解各种公共和社会风险和危害的类型及程度。美国监管机构应优先收集关于人工智能事件的信息,以指导政策制定并采取必要的纠正措施,同时保留该技术的利益,不扼杀创新。理想情况下,一种有效的多管齐下的人工智能治理方法应结合事件报告、评估科学和情报收集。 通过事件报告捕获有关AI危害的数据。AI系统在部署前及其每次更新时都应进行严格的测试,但在与测试条件差异较大的环境中,它们可能会出现漂移或故障,并可能表现出开发者未预见的行为。4恶意行为者也可以利用AI故意造成危害,例如使用生成式AI创建深度假照片或视频以perpetuate诈骗。.5在构思从最小风险到存在风险的连续光谱上的危害时,立法者可以考虑四种类型的危害暴露:1)已证明的危害;2)可能的危害,涉及已部署AI系统中的已知风险;3)隐含的危害,研究可能揭示已部署系统中的新弱点。 4)投机危害,包括生存风险.6这四个基于风险的桶为监管机构可以在AI治理中使用的不同危害提供了结构。 事故数据收集将涉及从AI系统造成危害的事故和事件中收集数据,依赖于强制报告、自愿报告以及公民报告风险和危害。7一个公共事件报告系统将不涵盖军事或情报AI事件 ,对于敏感的AI事件,可能需要通过独立的渠道进行报告,并受到安全enclave的保护 。强制性报告和自愿性报告很可能需要由具有明确监管角色且与AI开发者保持一定距离的联邦机构进行监督,例如美国联邦航空管理局或证券交易委员会。8公民报告可以作为政府投诉报告系统的一部分进行收集,也可以由非政府组织如UL研究机构、经济合作与发展组织或新闻媒体outlets进行公开消费。最初,事件报告可以优先考虑那些能够产生实际危害并影响政治意愿的事件,包括伤亡、重大财产损失或儿童安全问题。CSET研究已经探讨了这些风险收集方法的优缺点。9 通过事件报告获得的知识将有助于实现几个目标。 首先,这有助于提高公众对现有实际AI风险和危害的认识。通过更清晰地了解当今最紧迫的AI挑战,监管机构和立法者可以更好地制定相关法律法规并解决公众利益相关的责任问题。 其次,随着AI事件模式在不同行业中的发展,监管机构可能根据特定危害的普遍性优先考虑某些AI治理措施。例如,如果对模型进行迭代改进,监管机构可能会要求某些AI系统重新测试和重新认证,类似于美国食品药品监督管理局(FDA)对如起搏器等高风险医疗设备进行持续评估的做法。.10事件收集将为监管机构提供更多详细的數據,以便更好地识别新的或更为严重的危害,并迅速制定稳健的应对措施。11 第三,建立事件报告系统是具体的行政步骤,可能促使政府采取更多措施应对AI带来的危害。这将需要确定强制性和自愿性报告事件收集机构在美国政府中的位置,以及不同的报告要求标准。还需要制定行动计划和实施流程来建立该系统,并设立预算决策过程。 资源分配。建立这一机构的过程将产生动力并培养解决更为棘手的AI治理问题的经验和习惯。 最终,事故报告可能有助于在美国建立全球人工智能治理领导地位。构建一个强大的事故监控和报告中心的典范,可以促进与其他国家的合作、交流和最佳实践分享。孵化国际合作关系可以使美国更加意识到并做好准备应对其他国家可能更为普遍的人工智能风险,并帮助与其他国家共同建立监测和传播共享人工智能风险的基础。 投资评估和测量方法,以加强我们对尖端AI系统的理解。测量人工智能系统属性的科学,尤其是基础模型的能力,这些模型可以适应许多不同的下游任务,目前仍处于早期发展阶段。需要增加对如何评估人工智能模型和系统的基础研究的投资,并开发人工智能开发者和监管者可以使用的标准化方法和工具包。政策制定者要创建适当的治理机制以管理人工智能,取决于他们理解人工智能系统能做什么和不能做什么的能力,以及这些系统在诸如稳健性、公平性和安全性等信任属性方面的表现如何。在美国国家标准与技术研究院内建立美国人工智能安全研究所是朝着这个方向迈出的有希望的一步,尽管它目前可能在资源上不足,无法在2023年的人工智能行政命令和其他政策指导下的任务中取得预期成果。 构建稳健的horizon扫描能力以监测国内外新的和新兴的人工智能发展。alongside事件收集,保持信息意识并避免技术惊喜(意外发现竞争对手已开发出先进能力),将使美国立法者和监管机构能够在应对风险和潜在危害方面更具适应性。12 地平线扫描能力将与一系列机构和机构相关,并可以承担独特的相关重点领域。 例如,一个开源的技术监控中心对于美国来说将是至关重要的。它可以通过建立一个核心能力来跟踪商业行业、学术界和政府在各种人工智能领域的进展,从而帮助美国情报机构和其他联邦机构。这不仅能使社区保持充分的信息更新,还能增强开源知识的整合 。 通过使用分类来源,从而改进整体情报收集和解读过程——尤其侧重于美国境外。13对于情报机构的机关而言,这种监控很可能会集中在增强军事系统的特定技术上;而情报机构之外的其他机构则可能将视野扫描的重点放在可能对美国的经济竞争力和社會福祉产生重大影响(尽管影响不太明确)的人工智能应用上。通过扫描新兴能力和新技术,可以确保监管者能够应对来自国外的新挑战。这在与中国的竞争或与其他发展对民主社会有负面影响能力的威权国家的竞争中尤为重要,例如大规模surveillance用的人工智能或用于生成和传播政治misinformation的人工智能。强大的美国视野扫描能力可以提高政策制定者对人工智能领域最新威胁的响应能力。14 2.准备人类利用AI 人工智能最终是一种工具,与其他工具一样,熟悉其优势和局限性对于有效使用它是至关重要的。如果没有经过充分教育和训练的人类用户,社会将难以安全且可靠地实现人工智能的潜力。本节提出了几个观点,说明监管者和政策制定者如何为新兴的人工智能政策挑战做好人类方面的准备。 在决策者中培养人工智能素养。政策制定者对人工智能的理解是有效理解并治理人工智能带来的风险的关键。至少,政策制定者应该在基本层面上了解不同类型的AI模型。他们还应掌握AI在某些任务上的当前优势和局限性,认识AI模型的输出结果,并承认由于偏见或数据问题等因素带来的技术和社会风险。政策制定者必须敏锐地意识到,人工智能系统可能存在缺陷,容易出现意外且有时令人费解的失败,通常缺乏透明度或可解释性。他们需要了解在何种情境下使用特定的AI模型是合适的,以及机器输入如何影响人类决策。基于这些及其他关于人工智能系统的细节,对于理解新的人工智能与现有模型之间的差异以及预见新的监管挑战至关重要。15培养政策岗位人员的培训和课程开发有助于当今提升人工智能素养,而投资人工智能教育则将惠及未来的政策制定者以及社会各界。16 在公众中培养AI素养。建立公众人工智能素养,从尽可能早的阶段开始并贯穿整个成年期,可以帮助公民理解人工智能。 人工智能对社会带来的机遇、风险和危害。例如,人工智能素养可以帮助各个领域(从工业制造到医疗保健和金融)的工作者更好地理解已开始应用智能系统的局限性,从而更好地完成工作。了解何时依赖人工智能系统输出结果,以及在决策过程中保持怀疑态度将是重要的。向其他领域的工作人员认识到提升技能项目和认证的可能性,可能会创造超出人工智能前沿领域的就业机会,特别是在计算机和信息科学等领域。人工智能素养对于未来经济中工人和消费者参与至关重要。推广人工智能素养还可以帮助公众正确使用类似大型语言模型(LLM)系统的输出结果,提高生产力,并识别潜在的剽窃或版权侵权风险。美国可以借鉴已经尝试实施本国公共人工智能素养计划的国家(如芬兰)的最佳实践和经验教训,以提供公民所需的数字技能。17 更广泛地,通过提醒公众注意由可信AI生成的虚假信息的风险,包括可能操纵公众意见的文本、图像、视频和其他多媒体内容,有助于市民保持对人工内容风险的警觉。18这可能是防范恶意行为者利用AI危害民主进程和社会的第一道防线。AI开发者也应警惕将模型集成到不同产品中可能带来的风险,并熟悉这些风险。 3.保持适应性和敏捷性 最后,鉴于人工智能研究、开发、部署和采用的动态性质,政策制定者必须能够将新知识纳入治理努力中。允许在技术变化时逐步构建和更新政策的空间,并将学习纳入政策制定过程,可以使人工智能治理更具灵活性和有效性。 考虑在解决某些实施缺口后,现有流程和权限如何already帮助治理AI。AI很可能需要一些新的类型监管和创新性的政策解决方案,但并非所有针对AI的监管都需要从头开始制定。利用现有法规可以为立法者提供速度和熟悉度上的优势,并且能够在联邦机构之间 (与现有的机构相比,新设立的AI治理机构可能需要通过诉讼来界定重叠的权力)重新利用已划分的权力范围。政策制定者需要区分真正新颖的问题和相对熟悉的问题。 人工智能系统可能引发的问题中,现有的保护措施,如《联邦贸易委员会法》和《1964年民权法案》,在涉及版权侵权或歧视等问题时已经