2023年2月24日发布 人类的未来 专家们对随着数字系统和人工智能的传播,人们对重要决策的控制权有多 少存在分歧。他们一致认为,强大的企业和政府当局将以有用的方式扩大人工智能在人们日常生活中的作用。但许多人担心这些系统会削弱个人控制自己选择的能力。 通过珍娜·安德森和LeeRainie 媒体或其他调查: LeeRainie,互联网与技术研究总监 JannaAnderson,伊隆大学想象互联网中心主任KelseyBeveridge,通讯助理202.419.4372 建议引用 皮尤研究中心,2023年2月24日。“人类能动性的未来” 皮尤研究中心 皮尤研究中心是一个无党派、无倡导的事实库,向公众通报塑造世界的问题、态度和趋势。它不采取政策立场。该中心开展民意调查、人口研究、计算社会科学研究和其他数据驱动研究。它研究政治和政策;新闻习惯和媒体;互联网和技术;宗教;种族和民族;国际事务;社会、人口和经济趋势;科学;研究方法和数据科学;以及移民和移民。皮尤研究中心是其主要资助者皮尤慈善信托基金的子公司。 对于这个项目,皮尤研究中心与伊隆大学的想象互联网中心合作,帮助构思研究并收集和分析数据。 ©2023年皮尤研究中心 我们如何这样做 本报告涵盖了皮尤研究中心和伊隆大学想象互联网中心共同开展的第15届“互联网的未来”调查的结果,以收集有关重要数字问题的专家意见。这是基于非随机样本的非科学拉票;关于当前趋势在2022年至2035年间可能导致的潜在影响的广泛意见仅代表回答查询的个人的观点。 皮尤研究中心和埃隆的想象互联网中心从专家数据库中抽样,从广泛的领域进行拉票,邀请政府机构、非营利组织和基金会、技术企业和智库的企业家、专业人士和政策人士,以及感兴趣的学者和技术创新者。此处报告的预测是对2022年6月29日至8月8日期间进行的在线拉票中的一系列问题的回应。总共有540名技术创新者和开发人员、商业和政策领导者、研究人员和活动家以某种方式回答了本报告涵盖的问题。有关本次拉票和参与者的更多信息,请参见标题为“关于这次专家拉票”的部分。 表的内容中心 1 这 2 机构 4 1.对人类机构 16 2.生活 27 3.决策 97 4.5.机构 153 专家 165 致谢 172 人类的未来 专家们对随着数字系统和人工智能的传播,人们对重要决策的控制权有多 少存在分歧。他们一致认为,强大的企业和政府当局将以有用的方式扩大人工智能在人们日常生活中的作用。但许多人担心这些系统会削弱个人控制自己选择的能力。 互联网、人工智能(AI)和在线应用的进步使人类能够极大地扩展其能力并提高其解决复杂问题的能力。这些进步使人们能够立即访问和分享知识,并增强他们个人和集体理解和塑造周围环境的力量。今天,人们普遍认为,从现在到2035年,主要由机器学习和人工智能驱动的智能机器、机器人和系统的速度和复杂性将迅速提高。 随着个人更深入地接受这些技术来增强、改善和简化他们的生活,他们不断被邀请将更多的决策和个人自主权外包给数字工具。 一些分析师担心商业、政府和社会系统如何变得更加自动化。他们担心人类正在失去独立于这些系统进行判断和做出决定的能力。 其他人乐观地断言,纵观历史,人类通常受益于技术进步。他们说,当问题出现时,新的法规、规范和素养有助于改善技术的缺点。他们相信,即使自动化数字系统越来越深入地融入日常生活,这些利用力量也会站稳脚跟。 因此问题来了:人类能动性的未来是什么?皮尤研究中心和伊隆大学的想象互联网中心邀请专家分享他们对此的见解;540名技术创新者、开发人员、商业和政策领袖、研究人员、学者和活动家做出了回应。具体来说,他们被问到: 到2035年,由人工智能驱动的智能机器、机器人和系统是否会被设计成允许人类轻松控制与他们的生活相关的大多数技术辅助决策? 这便是游说的结果: 56%这些专家同意这样的说法,即到2035年,智能机器、机器人和系统的设计将不会让人类轻松控制大多数技术辅助决策。 44%表示他们同意到2035年智能机器,机器人和系统将旨在让人类轻松控制大多数技术辅助决策。 应该指出的是,在解释他们的答案时,许多专家表示,这些技术的未来将对人类能动性产生积极和消极的影响。他们还指出,古往今来,人们要么允许其他实体为他们做决定,要么被部落和国家当局、宗教领袖、政府官员、专家甚至技术工具本身强迫这样做。 此外,这些专家普遍认为,数字技术工具将日益成为人们决策不可或缺的一部分。这些工具将为人们提供越来越多的信息,至少将帮助他们探索选择,并在他们驾驭世界时利用专业知识。 与此同时,这个问题双方的专家也一致认为,当前时刻是一个转折点,随着0f数字技术的使用扩展到日常生活的更多方面,它将在很大程度上决定人类的权威,自主性和能动性。总的来说,人们将面临这样的问题:人类真正想要代理的事情是什么?他们什么时候才能放心地转向人工智能来帮助他们做出决定?在什么情况下,他们愿意将决策完全外包给数字系统?一些人概述了利害关系: 阿尔夫雷恩南丹麦大学创新、设计和管理教授指出,“未来显然是双向的。一方面,更好的信息技术和更好的数据已经改进,并将继续改善人类决策。另一方面,黑匣子系统和不透明的人工智能可以削弱人类的能动性,在我们甚至不知道它正在发生的情况下这样做。真正的挑战将在于知道在任何特定情况下哪种动态最强,以及可能产生的长期影响。 巴里ChudakovSertainResearch创始人兼负责人预测,“到2035年,人类与机器、机器人和主要由自主和人工智能驱动的系统之间的关系将看起来像一场争论,一方大喊大叫,另一方沾沾自喜地微笑。这种关系实际上是人类坚决抵制的幻想(“我是独立的,负责的,不,我不会放弃我的代理!”)和旨在破坏这种幻想的技术的诱人力量(“我快速,方便,有趣!注意我! 凯瑟琳Bouskill兰德公司的人类学家和人工智能专家说:“日常生活中一些非常基本的功能现在对我们来说完全难以捉摸。人们几乎不知道我们如何构建人工智能系统,控制它们并修复它们。许多人都在争夺控制权,但这些技术是如何被过度推销承诺的创造者和部署的,这是不透明的。目前,公众和人工智能开发人员之间存在巨大的鸿沟。我们需要点燃真正的公众对话,帮助人们充分了解这些发展的风险。 回答这次拉票的专家在他们的回答中听起来有几个广泛的主题。在那些认为不断发展的数字系统不会让人类轻松控制大多数技术辅助决策的人中,这里引用了主要主题: 到2035年,技术不会旨在让人类轻松控制与其生活相关的大多数技术辅助决策 56%的受访专家同意这样的说法,即到2035年,智能机器,机器人和系统的设计将不会允许人类轻松控制与他们的生活相关的大多数技术辅助决策。他们表达的最常见的主题包括: 强大的利益集团几乎没有动力尊重人类的能动性:公众所依赖的占主导地位的数字智能工具和平台是由强大的精英(包括资本主义和专制)操作或影响的,这些精英几乎没有动力设计它们,以允许个人对他们受技术怂恿的日常活动施加更多控制。这样做的一个结果可能是数字鸿沟的扩大 。 人类重视便利性,并将继续允许黑盒系统为他们做出决定:人们已经允许无形的算法影响甚至有时“决定”他们日常生活的许多方面,如果不是大多数方面- 这不会改变。此外,当他们有机会对其技术工具和活动进行一些控制时,大多数人并没有选择这样做。 人工智能技术的范围、复杂性、成本和快速发展太令人困惑和压倒性,以至于用户无法断言代理:它们专为集中控制而设计,而不是个性化控制。允许将基本决策权交给个人的那种定制并不容易。这些系统甚至对其创建者来说都可能过于不透明,无法进行个人干预。 资料来源:2022年6月29日至8月8日对选定专家进行的非科学拉票。“人类能动性的未来”皮尤研究中心和伊隆大学的想象互联网中心,2023年 以下是涉及这些主题的一小部分专家答案: 格雷格·舍温奇点大学(SingularityUniversity)数字实验的领导者预测,“决策和人类代理将继续遵循迄今为止的历史模式:它将允许一部分拥有和控制算法的人对劳动力、市场和其他人类施加剥削权力。他们还将以有罪推定为基础,缺乏算法标记作为一种机器生成的不在场证明。 j·内森Matias康奈尔大学公民与技术实验室负责人表示:“由于世界在2035年将变得同样复杂,社会将继续将重要决策委托给涉及官僚主义,数字记录保存和自动决策规则的复杂系统。在2035年和2022年一样,社会不会问人类是否在控制,而是问哪些人在控制,这些人是否了解他们所操作的系统的后果,他们是否做了任何事情来减轻其系统的危害,以及他们是否会对失败负责。 艾伦喃喃自语顾问兼前硅谷首席执行官观察到,“连续几代人工智能和应用程序的迭代将改善未来的结果,然而,机器-以及运行它们的人-将控制这些结果。人工智能的好坏取决于算法底层的人和系统底层的数据集。根据定义 ,人工智能为机器提供了使用大型和不完善的数据库做出判断的代理权。由于人工智能系统被设计为或多或少自主运行,因此很难看出公众如何控制这些系统,他们在大多数情况下不太可能知道谁构建了系统,系统如何运行 ,它们依赖哪些输入,系统如何训练以及如何操纵它以产生某些期望的,也许是未知的结果。 克里斯托弗·w·萨维奇华盛顿特区的一位法律和监管问题的主要专家写道:“从理论上讲,部署良好的AI/ML(机器学习)系统可以帮助人们在风险和涉及随机过程的条件下做出符合自己最佳利益的理性决策。但我怀疑,在实践中 ,大多数人可用的大多数AI/ML系统将由那些对鼓励此类决策没有兴趣的实体开发和部署。相反,它们将由有兴趣以特定方式指导人们决策的实体提供。 亚历杭德罗Pisanty互联网名人堂成员、互联网协会的长期领导者、墨西哥国立自治大学互联网和信息社会教授预测,“人类机构获胜有两个障碍:企业和政府。 对技术的控制将越来越多地是这两种力量之间的合作和斗争的结合,公民几乎没有机会影响选择。...这些趋势表明,决策技术的未来设计很可能不会由科学的应用和合理、意图良好的辩论来决定。相反,未来将由商业利益和政府的议程决定,这让我们感到懊恼。 希瑟Roff布鲁金斯学会(BrookingsInstitution)新兴军事技术法律、政策和伦理方面的非常驻研究员、科罗拉多大学博尔德分校(UniversityofColorado-Boulder)高级研究科学家写道:“大多数用户对人工智能或利用人工智能的自主系统如何工作并不那么流利,他们并不真正关心。看看关于人为因素、人体系统整合等方面的研究, 当谈到对技术保持警惕时,人类变得非常懒惰。人类的认知系统只是不适合“像”这些系统一样思考。因此,当一个人缺乏识字率和对使用此类系统的懒惰态度时,往往会发生不好的事情。人们过于信任这些系统,他们不了解这些系统的局限性和/或他们没有意识到他们实际上可能需要比现在更多地参与其中。 保罗·琼斯北卡罗来纳大学教堂山分校信息科学名誉教授说:“自动化如何接管可能是微妙的。将Google搜索与1990年代的CD-ROM数据库进行比较。是的,人类可以覆盖搜索默认值,但所有证据表明他们不会,而且在大多数情况下他们不会。 “在信息科学中,我们已经知道这一点有一段时间了。齐普夫定律告诉我们,最小的努力是行为的有力预测指标-而不仅仅是人类。我们曾经学会了如何形成优雅的搜索查询。现在,我们在整个房间里大喊“Alexa”或“OK,Google”,以一种绝对不优雅的方式,并具有高度简化的查询。我们大部分都拿走我们得到的东西。自动化结果越常令我们满意,我们就越信任自动化。虽然在烹饪、数学、资金管理、驾驶路线、问答等方面提供的这种帮助看似良性,但存在一些显而易见的问题。 正如科里·多克托罗(CoryDoctorow)在《未经授权的面包》(UnauthorizedBread)一书中戏剧化地描述的那样 ,复杂的访问、所有权协议和其他控制将而且确实将即使是最简单的网络技术的用户置于一种集中控制之中,威胁到个人自治