您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[ITIF]:为 AI 问题选择正确的政策解决方案 - 发现报告
当前位置:首页/行业研究/报告详情/

为 AI 问题选择正确的政策解决方案

金融2024-05-20ITIF等***
为 AI 问题选择正确的政策解决方案

为AI问题选择正确的政策解决方案 作者:HodanOmaar和DanielCastro|2024年5月20日 INTRODUCTION 政策制定者发现自己在要求他们迅速采取行动应对人工智能(AI )风险的呼声中。人们的担忧涉及一系列社会和经济问题,从人工智能取代工人和助长错误信息到威胁隐私、基本权利甚至人类文明。有些担忧是合理的,但有些则不是。有些人需要立即采取监管措施,但许多人没有。一些需要专门针对AI的法规,但大多数没有。识别哪些问题值得回应,以及它们需要采取哪些类型的政策行动,才能制定有针对性、有影响力和有效的政策,以应对人工智能带来的真正挑战,同时避免扼杀创新的不必要的监管负担。 本报告涵盖了对人工智能的28个普遍关注,对于每一个关注,描述了关注的性质,这种关注是否以及如何是人工智能特有的,以及什么样的政策回应(如果有的话)是合适的。可以肯定的是,还有一些可能被纳入的担忧,还有一些将在未来提出的担忧,但从对人工智能文献的回顾和人工智能监管行动的不断增长的语料库来看,这些都是政策制定者必须应对的主要担忧。本报告将28个关注的问题分为8个部分 :隐私,劳动力,社会,消费者,市场,灾难性情景,知识产权以及安全与保障。每个问题都可以提出自己的报告,但这里的目标是提炼每个问题的实质,并提供务实,清晰的回应。 对于每个问题,我们将适当的政策响应分类如下: 追求监管是… AI-specific:对AI的一些担忧最好通过制定或更新专门针对AI系统的法规来解决 。这些法规可能会禁止某些类型的AI系统,创建或扩大对AI系统的监管,或对AI系统的开发人员和操作员施加义务,例如要求审核,信息披露或影响评估。 一般:对人工智能的一些担忧最好通过制定或更新法规来解决,这些法规不是专门针对人工智能,而是创建适用于各个行业和部门的广泛法律框架。这些法规的示例包括数据隐私法,政治广告法和复仇色情法。 追求非监管政策是... AI-specific:对AI的一些担忧最好通过实施针对AI的非监管政策来解决。这些政策的例子包括资助AI研发或支持AI特定行业标准的开发和使用。 一般:对人工智能的一些担忧最好通过实施非监管政策来解决,这些政策不是针对人工智能,而是关注人工智能系统运行的更广泛的技术和社会背景。这些政策的例子包括就业错位政策,以减轻劳动力市场更加动荡的风险,或改善联邦政策 数据质量。 不需要政策 一些担忧最好通过现行政策或允许社会和市场随着时间的推移而适应来解决 。政策制定者目前不需要实施新的监管或非监管政策。 CONTENTS 1.隐私 1.1.AI可能会在数据泄露中暴露PII。 1.2.AI可以揭示训练数据中包含的PII。 1.3.人工智能可以实现政府监控。 1.4.AI可以实现工作场所监控。 1.5.AI可以推断敏感信息。 1.6.AI可能会帮助不良行为者骚扰和公开羞辱个人。 2.劳动力 2.1.AI可能导致大规模失业。 2.2.AI可能会使蓝领工人流离失所。 2.3.AI可能会使白领脱臼。 3.Society 3.1.AI可能有政治偏见。 3.2.人工智能可能会在选举中助长深度造假。 3.3.AI可能会操纵选民。 3.4.AI可能会助长不健康的个人附件。 3.5.人工智能可能使歧视长期存在。 3.6.AI可能会做出有害的决定。 4.消费者 4.1.AI可能会加剧监控资本主义。 5.Markets 5.1.人工智能可能使拥有关键投入的公司能够控制市场。 5.2.AI可能会强化技术垄断。 6.灾难性情景 6.1.人工智能可能会使建造生物武器变得更容易。 6.2.AI可能会创造出新颖的生物反应器。 6.3.AI可能会变成像上帝一样的“超级智能”。 6.4.人工智能可能导致能源使用失控。 7.知识产权 7.1.AI可能会非法训练受版权保护的内容。 7.2.AI可能会创建侵权内容。 7.3.大赦国际可能侵犯宣传权。 8.安全和安保 8.1.AI可能会导致欺诈和身份盗窃。 8.2.AI可能会导致网络攻击。 8.3.AI可能会产生安全风险。 AI担忧的政策需求概述 需要AI特定法规的担忧: 1.3.人工智能可以实现政府监督。 3.6.AI可能会做出有害的决定。 8.1.人工智能可能导致欺诈和身份盗窃。 8.3.AI可能会产生安全风险。 需要遵守一般规定的担忧: 1.1.AI可能会在数据泄露中暴露PII。 1.5.AI可以推断敏感信息。 1.6.AI可能会帮助不良行为者骚扰和公开羞辱个人。 3.2.AI可能会在选举中助长深度造假。 6.1.AI可能使建造生物武器变得更容易。 7.3.大赦国际可能侵犯宣传权。 需要AI特定非监管政策的担忧: 1.4.人工智能可以实现工作场所监控。 3.3.AI可能操纵选民。 3.5.大赦国际可能使歧视长期存在。 6.2.AI可能会创造出新颖的生物反应器。 6.3.AI可能会变成像上帝一样的“超级智能”。 6.4.人工智能可能导致能源使用失控。 7.1.人工智能可能非法培训受版权保护的内容。 8.2.AI可能导致网络攻击。 需要采取一般非监管政策的担忧: 1.2.AI可以揭示训练数据中包含的PII。 2.2.AI可能会使蓝领工人流离失所。 2.3.AI可能会使白领脱臼。 3.1.大赦国际可能存在政治偏见。 7.2.AI可能会创建侵权内容。 不需要新政策的担忧: 2.1.AI可能导致大规模失业。 3.4.AI可能会助长不健康的个人附件。 4.1.AI可能会加剧监控资本主义。 5.1.人工智能可能使拥有关键投入的公司能够控制市场。 5.2.AI可能会强化技术垄断。 #风险政策需要政策解决方案 1.隐私 1.1 AI可能会在数据泄露中暴露个人身份信息。 AI可能会揭示敏感将军 一般规定 政策制定者应要求公司发布安全政策 ,以提高消费者的透明度。国会应通过联邦数据泄露通知立法。 政策制定者应该资助隐私和安全增强技术的研究,应该支持行业主导 1.2信息非监管性包括在政策培训数据中。 的负责任的网络抓取标准。 1.3 人工智能可以实现政府监控 。 特定于AI的法规 国会应指示司法部(DOJ)制定指导方针,以供州和地方执法部门在调查中使用,概述具体的用例和能力,包括何时需要使用逮捕令,以及何时通知公众使用人工智能执法的透明度准则。 1.4 AI可以实现工 作场所监控。 特定于AI的非 监管政策 政策制定者应帮助设定工作场所使用 的AI技术的质量和性能标准 1.5 AI可以推断敏感信息。 一般规定 政策制定者应该制定和制定全面的国家隐私立法,以技术中立的方式解决数据驱动推理的风险。 1.6 AI可能会帮 助不良行为者骚扰和公开羞辱个人 。 国会应禁止非自愿分发所有色情图像 ,包括在色情图像中复制个人肖像的深度假货,并制定一项联邦法规, 一般规定 禁止复仇色情,包括带有计算机生 成图像的色情内容。 问题1.1:AI可能在数据泄露中暴露个人信息 问题:当有人未经授权访问数据时,就会发生数据泄露。例如,攻击者可能会规避安全措施以获取敏感数据,或者内部人员可能会不适当地访问机密信息。用户可以与人工智能系统(如聊天机器人)共享个人身份信息(PII),提供法律、金融或健康服务。如果发生数据泄露,这些对话的记录可能会被曝光和不当访问,从而泄露敏感信息。数据泄露的一个例子是2023年3月OpeAI的ChatGPT聊天机器人发生的大量报道事件。由于系统使用的开源库中的错误,一些用户能够从其他用户的聊天记录中看到标题。1 虽然人工智能系统确实可能遭受数据泄露,就像任何IT系统一样,但它们并没有造成或加剧潜在的隐私和安全风险。在过去的二十年中,数据泄露一直是不幸但经常发生的事情。2022年,美国有近1800起数据泄露事件影响了数亿美国人。2 解决方案:政策制定者应该解决更大的数据泄露问题,而不是只关注涉及AI系统的数据泄露。国会可以做的一件事是要求公司发布安全策略,以提高消费者的透明度。大多数公司发布隐私政策,为监管机构创建透明和负责任的机制,以确保公司遵守其既定政策。但是,对于信息安全实践,这种做法并不存在,这导致了模糊的标准,流行语的监管以及市场中的信息不对称。通过发布安全策略,公司将有动力描述他们已经采取的安全措施的类型,而不仅仅是声称采取了“合理的安全措施”。“这是政策制定者可以采取的改善私营部门安全做法的具体步骤。3 此外,国会应该通过数据泄露通知立法,优先于相互冲突的州法律。4所有50 个州以及哥伦比亚特区、关岛、波多黎各和维尔京群岛都有数据泄露法律;然而 ,每个司法管辖区都有自己的一套规则,规定如何快速报告数据泄露或安全事件应报告给谁。这种不同要求的拼凑被子为消费者提供了明显的不平衡保护,并为公司创造了不必要的复杂局面,这些公司必须花费更多的时间来浏览这个模糊的法律领域,而不是实际保护消费者数据。5 训练数据 问题:当AI系统揭示训练数据中包含的私人信息时,就会发生数据泄漏。例如,根据机密用户数据(如私人合同或医疗记录)训练的AI模型可能会无意中向用户透露这些私人信息。一个很好的例子是,流行的聊天机器人ChatGPT似乎揭示了一些在研究人员提示它永远重复随机单词时训练过的数据。6同样,AI系统可能会在无意中包含在训练数据中时披露私人信息,例如从公共网站上抓取的个人信息。7 虽然数据泄露是一个合法的隐私问题,但它们并不是人工智能所独有的。数据泄露也是搜索引擎的早期担忧,因为攻击者可以利用搜索引擎发现大量敏感数据,如信用卡信息、社会安全号码和密码,这些数据分散在互联网上,通常没有受影响的个人的意识。8互联网搜索引擎还广泛部署了网络爬虫,这些爬虫是对网页内容进行索引的自动化程序,过去为了解决这一领域的风险,非政府组织对抓取公开可用数据所带来的风险的解决方案已经取得了成功。 解决方案:政策制定者可以帮助最大限度地减少或消除对支持AI的服务处理机密数据的需求,同时通过投资于隐私和安全增强技术的研究来保持这些服务的优势。这些并非特定于AI,但它们将对AI具有重要用途。例如,政策制定者应该支持关于安全多方计算、同态加密、差分隐私、联合学习、零信任架构和合成数据等主题的其他研究。9他们还应该资助研究探索使用“数据隐私库”来隔离和保护人工智能系统中的敏感数据。10在这种情况下,任何PII都将被替换为未识别的数据,以便大型语言模型(LLM)无法访问任何敏感数据,从而防止在训练和推理过程中数据泄漏,并确保只有授权用户才能访问PII。关于收集公开可用数据的人工智能系统,政策制定者应该支持已经新兴的行业主导的网络抓取标准。11私营部门已经在采取措施,让网站运营商更好地控制人工智能网络爬虫是否抓取他们的网站。12事实上,许多网站可以使用现有的机器人排除协议来限制来自流行AI公司的网络爬虫。 在某些情况下,当PII最终出现在公共网站上时,人工智能系统会刮擦,消费者不希望在那里获得这些信息。联邦数据隐私立法将为组织如何收集和使用个人数据创建一组消费者权利的基线。该立法应优先考虑州法律,确保可靠的执法,简化监管,并最大程度地减少对创新的影响。13 问题是:人工智能使分析包括个人在内的大量数据变得更加容易,这可能会导致政府监控的增加。例如,政府可以通过面部识别技术等方式跟踪公共场所的个人,或者根据不太敏感的数据推断有关个人的敏感信息。 这种担心可能有合理的理由。某些国家的政府有令人不安的侵犯其公民私生活的历史 ,许多人担心他们将来可能会恢复这种活动。一些国家,例如中国,大大限制了其公民的人身自由,并利用监视来威胁人权。 事实上,批评人士指出,中国使用人工智能跟踪和情感识别技术作为其国内监控活动的一部分,尤其是针对维吾尔族人口,并认为民主国