Introduction 如何治理人工智能(AI)是理所当然的首要问题 U.S.立法者和政策制定者。ChatGPT/GPT-4o,Clade,Gemii和MicrosoftCopilot等高性能大型语言模型(LLM)的开发取得了长足的进步,证明了AI可能对社会产生的潜在变革影响,充满了机遇和风险。与此同时,欧洲的国际合作伙伴和中国等竞争对手正在朝着AI治理迈出自己的步伐。1在美国和国外,公众对人工智能潜在影响的分析和猜测通常涵盖一个范围,从一端的乌托邦——人工智能对社会非常有益——到另一端的反乌托邦——一种可能导致人类终结的生存风险——以及两者之间许多细微差别的立场。 LLM在2023年引起了公众的关注,并引发了人们对人工智能风险的担忧,但其他模型和应用程序,如预测模型、自然语言处理(NLP)工具和自主导航系统,也可能导致今天的无数危害和好处。挑战包括基于不良或扭曲输入数据的歧视性模型输出,启用AI的军事武器系统的风险,以及启用AI的自主系统的事故。 鉴于AI的多方面潜力,在美国,灵活的AI治理方法提供了最有可能的成功之路。各种人工智能系统的不同发展轨迹、风险和危害使得一刀切的监管方法的前景令人难以置信,即使不是不可能 。监管机构应该开始通过应对当今挑战的繁重工作来增强实力。即使早期的监管工作需要定期修订,重复和反馈的循环也将导致肌肉记忆的改善,这对于管理风险尚未得到很好理解的更先进的未来系统至关重要。 拜登总统于2023年10月发布的关于人工智能的安全、安全和可信开发和使用的行政命令,以及拟议的两党人工智能监管框架,为在美国建立全面的人工智能治理方法提供了有用的起点。2这些是美国司法部,联邦贸易委员会以及美国平等就业机会委员会等联邦机构的现有声明和政策之上的。3 为了使未来的AI治理工作证明最有效,我们为美国决策者提供了三项原则。我们已经制定了这些主题原则 来自CSET广泛的原始,深入的研究,以及关于AI不同方面的精细发现和具体建议,我们在本报告中引用了这些建议。它们是: 1.了解AI风险和危害的地形:使用跨行业、学术界和政府的事件跟踪和横向扫描来了解人工智能风险和危害的程度;收集支持数据,为治理工作提供信息并管理风险。 2.让人类利用AI:在政策制定者和公众中培养AI素养,以了解AI的机会,风险和危害,同时有效,负责任地和合法地使用AI应用程序。 3.保持适应性和敏捷性:制定可以随着人工智能的发展而更新和调整的政策,避免繁琐的法规或随着技术进步而过时的法规;确保立法不允许现有的人工智能公司通过监管捕获排挤新的竞争对手。 这些原则是相互关联和自我强化的:不断更新对人工智能格局的理解将有助于立法者保持敏捷和对最新进展的响应,并为不断发展的风险计算和共识提供信息。 1.了解AI风险和危害的地形 随着人工智能应用的进展,支持数据将是必要的,以更好地了解各种公共和社会风险和危害的类型和程度。U.S.监管机构应优先收集有关人工智能事件的信息,为决策提供信息并采取必要的纠正措施,同时保留技术的好处,而不是扼杀创新。理想情况下,一种有效的、多管齐下的人工智能治理方法将融合事件报告、评估科学和情报收集。 通过事件报告捕获有关AI危害的数据。人工智能系统应该在部署之前进行严格的测试,包括每次更新,但它们可能在与测试条件不同的环境中容易出现漂移或故障,并且可能以系统开发人员无法预见的方式运行。4恶意行为者还可以使用AI造成故意伤害,例如使用生成AI通过创建深度伪造的图像或视频来延续欺诈行为.5在概念化最小到存在风险的范围内的危害时,立法者可以考虑四个方面的危害:1)已证明的危害;2)可能的危害涉及已部署的AI系统中的已知风险; 3)隐含的危害,研究可以发现部署系统中的新弱点; 4)投机危害,包括生存风险.6这四个基于风险的桶为监管机构可以在AI治理中使用的不同危害提供了结构。 事件收集需要从人工智能系统造成伤害的事故和事件中收集数据,依靠强制性、自愿性和公民报告风险和危害。7公共事件报告系统不会涵盖军事或情报AI事件,并且可能有一个单独的渠道来报告敏感的AI事件,并保护在安全飞地内。强制性和自愿性报告可能需要由联邦机构监督,这些机构具有明确的监管角色和与人工智能开发者的距离,如联邦航空管理局或证券交易委员会。8公民报告可以作为政府投诉报告系统的一部分收集,也可以由UL研究机构,经济合作与发展组织,甚至新闻媒体等非政府组织收集供公众消费。最初,事件报告可以优先考虑产生有形伤害和改变政治意愿的事件,包括死亡,重大财产损失或儿童安全。CSET研究探索了这些风险收集方法的利弊。9 通过事件报告获得的知识将有助于实现几个目标。 首先,它可以帮助提高公众对现有现实世界AI风险和危害的认识。通过对当今最紧迫的AI挑战的更清晰的见解,监管机构和立法者可以更好地制定法律并解决公共利益的责任问题。 其次,随着人工智能事件的模式在不同行业发展,监管机构可能能够根据某些危害的普遍性对某些人工智能治理行动进行优先排序。例如,监管机构可能会为某些人工智能系统创建基于风险的要求 ,以便在对模型进行迭代改进时进行重新测试和重新认证,类似于U.S.食品和药物管理局对起搏器等高风险医疗设备进行持续评估。.10事件收集将为监管机构提供更精细的数据,以更好地识别新的或更严重的危害,并迅速制定强有力的应对措施。11 第三,开发事件报告系统是一个具体的官僚步骤,可能会引起更多的政府行动来解决人工智能的危害。这将需要确定强制性和自愿性报告事件收集机构将在美国S.政府,以及不同报告要求的标准。它还需要一个行动计划和实施过程来支持它,并建立一个预算编制和决策过程。 资源分配。建立这个机构的过程将产生势头并建立肌肉记忆,从而延续到更棘手的AI治理问题上。 最后,事件报告可以帮助建立美国在全球人工智能治理方面的领导地位。建立一个强有力的事件监测和报告中心范例可以促进与其他国家的合作、交流和最佳实践共享。 培育国际合作可以使美国更加意识到并更好地准备应对可能在世界其他地区更普遍的人工智能危害,并有助于与其他国家建立共同的基础,以监测和传播对共享人工智能风险的认识。 投资评估和测量方法,以加强我们对尖端AI系统的理解。测量AI系统属性的科学,特别是可以适应许多不同下游任务的基础模型的能力,目前正在早期开发中。需要投资来推进如何评估AI模型和系统的基础研究,并开发AI开发人员和监管机构可以使用的标准化方法和工具包。 政策制定者为人工智能创建适当的治理机制取决于他们理解人工智能系统可以做什么和不能做什么的能力,以及这些系统如何对可靠性、公平性和安全性等可信性进行评价。美国的成立S.国家标准与技术研究所的人工智能安全研究所是朝着这个方向迈出的有希望的一步,尽管它目前可能缺乏足够的资源来完成2023年人工智能行政命令和其他政策指导下设定的任务。 建立强大的地平线扫描功能,以监控国内外新兴的AI发展。除了事件收集,保持信息意识和避免技术意外(意外地发现竞争对手已经开发出先进的能力)将使美国立法者和监管机构能够适应应对风险和潜在危害。12地平线扫描能力将与一系列机构和机构相关,并可以承担独特的相关重点领域。 例如,一个开源技术监控中心将对美国起到重要作用。它可以帮助美国S.情报界和其他联邦机构通过建立核心能力来跟踪整个商业行业,学术界和政府的各种AI领域的进展。这不仅可以使社区充分了解情况,还可以增强开源知识的整合。 与机密来源,从而改善整体情报收集和解释过程-特别是集中在美国以外。13对于情报界机构来说,这种监控可能会集中在增强军事系统的特定技术上;情报界以外的机构可能会把他们的视野扫描集中在可能对美国经济竞争力和社会福利产生重大影响(尽管定义不明确)的人工智能应用程序上。扫描新的和新兴的能力可以帮助确保监管机构准备好应对来自国外的新挑战。在与中国或其他专制国家的竞争中,这可能是有价值的,这些国家发展对民主社会具有负面影响的能力,例如用于大规模监视或产生和传播政治虚假信息的人工智能。健壮的U.S.地平线扫描功能可以提高决策者对AI领域和应用程序的最新威胁的响应能力。14 2.准备人类利用AI AI最终是一种工具,与其他工具一样,熟悉其优势和局限性对于其有效使用至关重要。如果没有受过充分教育和培训的人类用户,社会将难以安全地实现AI的潜力。本节介绍了监管机构和政策制定者如何为新兴的人工智能政策挑战做好准备的几点观点。 在决策者中培养人工智能素养。政策制定者的人工智能素养是有效理解和控制人工智能风险的关键。至少,政策制定者应该在基本层面上理解不同类型的人工智能模型。他们还应该掌握人工智能在某些任务中的当前优势和局限性,识别人工智能模型的输出,并承认偏见或数据问题等因素带来的技术和社会风险。 政策制定者应该敏锐地意识到人工智能系统可能不完美,容易出现意想不到的,有时是奇怪的故障,通常透明度或可解释性有限。他们需要了解在什么情况下使用某些人工智能模型是合适的,以及机器输入可能会如何影响人类决策。 针对AI系统的这些和其他细节,对于理解新的AI与当前模型的不同之处以及预测新的监管挑战至关重要。15为那些处于政策立场的人开发培训和课程可以帮助培养今天的人工智能素养,而投资于人工智能教育将有利于未来的决策者和整个社会。16 在公众中培养AI素养。建立公共AI素养,尽早开始并持续到整个成年,可以帮助公民掌握 人工智能给社会带来的机遇、风险和危害。例如,人工智能素养可以帮助已经开始应用智能系统的领域的工人——从工业制造到医疗保健和金融——更好地理解帮助他们完成工作的系统的局限性。知道何时依赖人工智能系统的输出或行使怀疑态度,特别是在决策环境中,将是重要的。提醒其他领域的工人提高技能计划和认证的可能性,可以在计算机和信息科学等能力方面创造超越人工智能前沿的就业机会。人工智能素养将是工人和消费者参与未来经济的关键。提高人工智能素养还可以帮助公众适当地使用LLM等系统的输出,以提高生产力,并掌握可能存在抄袭或侵犯版权的风险。美国可以向那些试图实施自己的公共人工智能扫盲计划的国家,如芬兰,寻求在试图为公民提供数字技能方面的最佳实践和经验教训。17 更广泛地说,提醒公众注意说服人工智能生成的虚假信息的风险,包括文本、图像、视频和其他可能操纵公众舆论的多媒体,可以帮助公民对人造内容的风险保持警惕。18这可能是针对恶意行为者利用人工智能伤害民主进程和社会的恶意企图的第一道防线。人工智能开发人员还应警惕并精通将其模型集成到不同产品中可能造成的伤害风险。 3.保持适应性和敏捷性 最后,考虑到人工智能研究、开发、部署和采用的动态性质,政策制定者必须能够将新知识纳入治理工作。随着技术的变化,允许空间迭代地构建和更新政策,并将学习纳入政策制定,可以使人工智能治理更加灵活和有效。 如果解决了某些实施差距,请考虑现有流程和当局已经可以帮助管理AI的地方。人工智能可能需要一些新类型的法规和新的政策解决方案,但并非所有的人工智能法规都需要从整体上削减。使用现有法规为立法者提供了速度和熟悉度的好处,并且能够依靠联邦机构之间先前划定的权限(与现有机构和新创建的AI治理机构之间的重叠权限进行诉讼相比)。政策制定者需要区分真正新颖的问题和相对熟悉的问题。 人工智能系统可能会提高。现有的保护措施,如联邦贸易委员会法案和1964年民权法案,可能已经涵盖了侵犯版权或歧视等问题。其他AI应用程序以熟悉的方式混合了公司活动,产品开发和商业化,这些方式已经受到联邦贸易委员会或美国等机构的保护。S.食品和药物管理局。19 为了进行有效的人工智能治理,政策制定者必须确定法律结构和权限中存在的差距,以及可能缺乏实施基础设施的领域。在已经存在适用法律的情况下,重要的是要考虑机构需要哪些新资源来分析AI系统和应用程序,例如相关专业知识,沙箱和其他评估工具。鉴于人工智能的广泛应用及其在当前实践和程序中的紧张点,可能需要新的指导和实施法规,以确保现有法律有效。在某些情况下,执