您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[ITIF]:人工智能法案应该是技术中立的 - 发现报告
当前位置:首页/行业研究/报告详情/

人工智能法案应该是技术中立的

信息技术2023-02-01ITIF九***
人工智能法案应该是技术中立的

人工智能应该采取行动技术无关 由帕特里克·格雷迪|2023年2月1日 欧盟旨在实施世界上第一个人造智能(AI)监管、人工智能法案、旨在让人们和企业“享受 人工智能的好处而感觉安全和保护。”1 不幸的是,《人工智能法案》对人工智能的广义定义惩罚了不构成小说的技术风险。2为了解决这个问题, 政策制定者应该将人工智能的定义修改为仅适用于创建重要内容的特定AI方法 挑战。 政策制定者长期以来一直重视技术中立原则,即认为法律法规应避免对某人进行特权或处罚 的一组技术。3技术中立不 必然要求完全相同的规则适用于不同的 技术。例如,如果政策制定者认为人工智能系统存在 在非人工智能系统中没有的新风险,他们可以而且应该解决这些问题。风险。 这份报告显示,尽管《人工智能法》的意图不是欧盟委员会,技术中立。而不是解决唯一的 对不可解释的机器学习(ML)系统的担忧-一个子集 人工智能系统——该法案将适用于更广泛的人工智能系统,这些系统是不需要监管干预。4结果是立法 对欧盟的人工智能生态系统造成重大的过度扩张和潜在危害。一个更好的定义将把拟议法律的范围限制在那些 技术带来新的风险。 人工智能的发展不是线性的——它已经并将继续经历繁荣(“春天”)和停滞(“冬天”)的各个时期。这去年“AI寒冬”已过,但欧盟却落后于全球 中国和美国在人工智能研究、投资和 采用。如果欧盟的人工智能法案限制了创新,那么当前版本的比尔很可能这样做,下一个AI冬天可能是严格的欧洲。5 人工智能的定义 人工智能的定义至关重要,因为它决定了人工智能法案的范围。不幸的是,在 从业人员、研究人员和开发人员。6人工智能是一个移动的目标:约翰创造“人工智能”的计算机科学家麦卡锡说, “一旦它起作用,就没有人再称它为AI。7事实上,的定义 人工智能已被证明是《人工智能法案》中最具争议的部分之一。 在其初始提案中,欧盟委员会使用以下描述: “人工智能系统”(AIsystem)是指 使用列出的一种或多种技术和方法开发 在附件一中,并且可以针对一组给定的人类定义目标,生成输出,例如内容、预测、建议或 影响他们与之交互的环境的决策。8 《人工智能法案》附件一列出了以下技术和方法: (a)机器学习方法,包括有监督、无监督和强化学习,使用多种方法,包括 深度学习; (b)基于逻辑和知识的办法,包括知识表示、归纳(逻辑)编程、知识库、 推理和演绎引擎,(符号)推理和专家系统; (c)统计方法、贝叶斯估计、搜索和优化方法。 通过使用一系列技术来定义人工智能,欧盟有可能捕获得太少,不考虑未来的人工智能方法,太多,包括人工智能 与决策者的关切几乎没有关系的方法。 的机会成本 《人工智能法案》规范了人工智能的“高风险”使用,并确定了八种“高风险”人工智能系统必须进行合格评定的类别, 并满足透明度要求和上市后监控 义务。合规性将很昂贵:仅合格评定 可能花费高达400,000欧元,最终将由消费者承担,并且欧盟企业在全球市场竞争。9 委员会承认,它不知道有多少申请落下 属于“高风险”类别。其影响报告估计高达15% 在所有人工智能应用中,但支持这一估计的研究承认 “实际比例未知,将取决于高AI系统风险。”10 人工智能法案将使人工智能系统退出欧盟市场,并阻碍其他人的到来。在表1中考虑以下“高风险”用例: 已经改善——或承诺改善——欧洲人的生活。 高风险类别 (附件三) 现有的用例 潜在的用例 表1:现有和潜在的“高风险”AI用例 “生物识别年龄估计目光检测, 识别和 技术验证 确定的水平 分类的自然人” 客户的年龄在零售业,警觉性的司机12和社会的年龄 媒体用户11 “管理和 操作的关键基础设施” 使用人工智能来管理城市 交通动态, 速度限制和调整 定价在高速公路上13 自主机器人舰队 能够完成检验和维护 水、气和电力设施,降低成本和 提高安全性14 “教育和教育机构虚拟现实在 职业培训”(例如,皮尔森)使用人工智能 co-grade论文;大规模网络公开课程(例如,汗 学院,Coursera)使用探索古代 教室检查古老的工件,沟通 历史人物, “就业, 工人管理和 获得自我就业” 招聘人员使用人工智能 屏幕上大量 CVs;演出平台使用AI和招聘会找到并促进招聘,分配工作为自由职业者17 AI-powered虚拟 招聘平台 新员工培训, 培训18 人工智能在教育和文化16自适应学习工具15 “访问和享受 必要的私人服务和公共服务和 好处” 公共服务用AI先紧急提高交付和响应系统 通过Web的辅助功能利用高级语音门户网站、数字识别20应用程序和机器人, 并通过优化内部工作流程 指导社会工作者19 高风险类别 (附件三) 现有的用例 潜在的用例 “执法” 执法当局深learning-enabled 使用人工智能应对欺诈计算机视觉,和性犯罪者自动化监控 防止恐怖分子和分析22攻击21 “迁移,庇护和边境控制管理” 超过10亿e- 护照依靠人工智能 显着改善检查人员,而他们的效率边界 控制23 机场安全 “智能隧道” 穿过它24 “管理 正义和民主过程” 律师使用人工智能 自动化数据提取和主题建模25 深度学习能 支持法官和加速情况下决议26 人工智能的批评者经常忽视这项技术是如何悄悄但戏剧性的。改善消费者生活的许多方面,例如保护他们 从欺诈,在线过滤有害内容,提供路由服务随时随地,以任何方式翻译世界语言,确保 通过面部识别、跟踪健康数据和福祉进行支付,诊断疾病和疾病,改善客户服务,优化 交付、推荐新音乐以及改进语音和视频通话。 如果《人工智能法案》按提议通过,许多新的用例可能永远不会到来。因为创新者将面临繁重的要求。作为欧盟 体验所谓的“数字十年”,独角兽和最有前途 AI初创公司已经转向别处。27欧盟可能会进一步阻碍投资并休眠其AI生态系统,度过漫长的AI寒冬。要避免 这种命运,欧盟应该重新审视其对人工智能的定义,即技术——中性。 技术中心调节人工智能方法 人工智能将在未来十年推动数字经济的显着增长,和欧盟的危险会落在后面。28人工智能行为,介绍了对失控技术潜在影响的担忧的反应 社会,威胁要阻止研究和投资。而不是屈服面对最新技术恐慌,欧盟应采取技术中立 监管人工智能的方法,在两者之间创造一个公平的竞争环境使用AI和不使用AI的进程。这样做不应该 有争议:委员会在其提案中解释说,定义 人工智能“旨在尽可能保持技术中立和面向未来”。29但是, 正如草案一样,它威胁到最基本的技术概念中立。 技术中立的法规避免不公平地偏袒一种技术 另一个,尤其是当它们之间没有相关差异时。这欧盟委员会关于监管数字技术的指令定义 “技术中立”是“既不强加也不强加”的监管歧视有利于使用特定类型的技术“,但指出技术中立“并不排除采取 促进某些特定服务的相称步骤(如果这是)例如,有理由将数字电视作为增加频谱的手段效率。”30 技术特定法规的问题在于它们很快就会变成过时,未能预测未来的创新并要求 永久修改以保持相关性。例如,政策制定者试图1960年代的晶体管或集成电路调节永远不可能有想象这些技术将如何产生个人电脑, 移动设备和互联网。通常针对特定技术的法规采用先进的技术。 有些人总是会滥用新工具。但与其过度限制最新的技术,从而抑制积极和消极 使用,政策制定者应专注于正确使用它的人为自己的行为负责。31 立法对话缩小了该法案的范围,但效果不佳 足够。政策制定者应修改《人工智能法案》,使其保持技术中立尽可能。在这种情况下,它应该只适用于不可解释的ML,因为 这些唯一的系统引入了新的风险,因此可以证明一项技术是合理的。具体的方法。 为了了解原因,本报告的下一部分将评估一组AI人工智能法案范围内的技术——统计、搜索和优化方法;人工智能;毫升;和无法解释的毫升。 统计、搜索和优化方法 几千年来,人类依靠算盘进行计算。机械计算器在17世纪问世(并遇到了 熟悉的道德恐慌[见方框1]),然后被数字取代 20世纪下半叶的计算器。计算器从那以后彻底改变了数学、物理、化学、工程学和 天文学。但是想象一下,如果政府制定了一项法律,限制其在 “高风险”案件,包括建筑和会计。此类禁令会削弱其发展和使用。 箱1:计算器恐慌 理查德•桑顿的编辑原始的解释者19世纪,一个美国杂志,抨击机械计算器 预言: “[S]uch机器,学者可以通过转动曲柄来研磨解决问题,没有心理应用的疲劳, 会通过引入学校,造成无法估量的伤害。但是谁知道这样的机器在达到更大的完美时,可能会 没有想出一个计划来补救自己的所有缺陷,然后磨练出来思想超越凡人的肯介意!”32 然而,与卑微的算盘相比,计算器引入了 造成巨大伤害的能力。它大大加剧了错误并有助于金融罪犯、洗钱者和掠夺性贷款人的规模 和速度否则不可能。考虑对荷兰欺诈的批评 风险评分工具(fraudescorekaart).33它大致分配的人最多例如,如果他们是单身,处于低 有偿工作,或受教育程度低,或住在不太受欢迎的社区。这 工具不是复杂的AI系统,而是一个简单的电子表格-一个很大的计算器。在产生有争议的结果后,几个城市 决定停止使用该系统。34 然而,监管计算器是错误的——所以 它将在《人工智能法案》中纳入统计方法。使用的决定FraudeScoreKaart工具是一项政策决定。人类控制了所有的输入(就业、生活状况、家庭、年龄、教育、欺诈历史、等)和权重(其中一些完全是主观的,而不是 基于统计证实)共同分配了欺诈风险。35 正确的反应是惩罚那些策划并决定使用的人该技术,而不是监管Excel电子表格。 不幸的是,这不是委员会的做法。害怕 欺诈性丑闻的可能性,人工智能法案的初稿 在其范围内包括使用许多基本软件(例如,附件三捕获、基本线性回归模型和统计程序用于 电子表格)涵盖所有八个所谓的“高风险”行业。然而,这种类型的基本软件不会带来新的风险,因此为其创建独特的规则 违反了技术中立的基本原则。 人工智能 有些人在听到先进的机器人和自动驾驶汽车时会想到。术语“AI”,但该术语本身仅指 可以模拟类似人类的动作,例如推理、感知和演技。因此,许多AI系统都是非常基本的。 以澳大利亚的Robodebt案为例,澳大利亚政府 部署了一个人工智能系统来自动化其债务回收流程。36Robodebt 搜索差异,决定是前任还是现任福利 收件人欠债,并着手分发通知。系统已发送 在700,000份债务通知中,有470,000份被证明是无效的。37这场灾难对那些错误地 收到通知和政府,政府继续补偿这些错误。 当人工智能参与决策时,很容易将糟糕的结果归咎于糟糕的结果。在机器上。人工智能工具可能会严重失火。事实上,澳大利亚人政府对人工智能的使用使这场灾难的速度和规模得以提高。但Robodebt不是一个先进的自学或不可预测的人工智能系统。 相反,该系统连接了简单的算法,其中许多是已经使用很长时间了,用决策算法来推断 多付的钱使用收入数据。38员工能够说话人通过系统的过程,甚至代表他们输入收件人的数据 一个电话。39政策制定者选择部署该系统,并完成了控制和监督它,但未能监督或审查其质量 决策。 这场灾难不是人工智能造成的,而是根据澳大利亚联邦 法院大法官伯纳德·墨菲(BernardMurphy),“公众的巨大失败政府。”40除了交付不力和疏忽上诉 过程中,该系统是非法的,因为它违反了几项法律原则,包括“无罪”。41它还使用了一个debt-averaging 此后,澳大利亚政府宣布其为非法。42这种情况下是否没有提供人工智能系统应受到惩罚的证据;相反,它证明了公共部门问责制和可追溯性的重要性 政府流程。对人工智能的关注是一种危险的分心公共政策和决策中的系统性问题。43 起草的《人工智能法案》惩罚在以下几个应用中使用人工智能:大大改善了公民的生活:人工智能交通系统 使道路更安全,使警察免于繁琐的工作;智能加热系统可降低消费者和 燃烧化石燃料;和应急响应分类系统,其 缩短响应时间有助于挽救生命。所有这