您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[ARL研究图书馆]:ARL / CNI 2035 情景 : 研究环境中 AI 影响的未来 - 发现报告
当前位置:首页/其他报告/报告详情/

ARL / CNI 2035 情景 : 研究环境中 AI 影响的未来

2024-05-04ARL研究图书馆�***
ARL / CNI 2035 情景 : 研究环境中 AI 影响的未来

ARL/CNI2035方案 研究环境中AI影响的未来 五月2024 ARL/CNI2035情景:研究环境中AI影响的未来2024年5月 研究图书馆协会(ARL)网络信息联盟(CNI )StratusInc. 这项工作根据知识共享署名4.0国际许可证获得许可。 CashMacanayaonUnsplash的封面图片 建议引文 TheARL/CNI2035Scenarios:AI-ImpectedFuturesintheResearchEnvironment.Washington,DC,andWestChester,PA:AssociationofResearchLibraries,CoalitionforNetworkedInformation,andStratusInc.,May2024. 目录 致谢4 ............................................................................................................................................15 ...........................................................................................................................................20 ............................................................................................................................................24 ............................................................................................................................................29 结束状态表32 Acknowledgments 该文件反映了来自研究图书馆协会(ARL)和网络信息联盟(CNI)及其他成员的各种人员的集体贡献。方案开发过程由ARL和CNI工作人员与SsaSticley(StratsIc.).CythiaHdsoVitale(ARL),CliffordLych(CNI),JdyRtteberg(ARL)和DiaeGoldeberg-Hart(CNI)共同领导了该项目。 这些方案是通过高度协商的过程开发的,利用了ARL/CNIAI/ML未来方案规划联合工作队的专业知识。在2023年冬季和2024年春季,通过利益相关者与ARL和CNI成员的广泛接触,确定了方案中强调的战略重点和关键不确定性。通过焦点小组、讲习班和一对一访谈提供了投入。ARL和CNI要感谢参与塑造这些场景的300多名ARL和CNI成员。工作队的代表领导人确定了四个方案以及其中的关键要素和动态。此外,工作队成员在编辑过程中对场景提供了有价值的反馈。 感谢以下个人参加工作组: ARL/CNIAI/ML期货情景规划联合工作队 ●DianneBabski(美国国家医学图书馆) ●凯伦·埃斯特隆德(科罗拉多州立大学) ●SalwaIsmail(加州大学伯克利分校) ●BoyhunKim(密歇根大学) ●JamesLee(西北大学) ●LeoLo(新墨西哥大学) ●克里斯蒂·朗(俄勒冈大学) ●伊丽莎白·朗(约翰·霍普金斯大学) ●罗莎琳·梅斯(埃默里大学) ●德文·萨维奇(伊利诺伊理工学院) ●凯瑟琳·斯蒂夫斯(西方大学) ●基思·韦伯斯特(卡内基梅隆大学) ●凯特·兹瓦德(国会图书馆) 尽管由ARL和CNI成员代表开发,但情景叙述是由CythiaHdsoVitale(ARL),SsaSticley(StratsIc.)、克利福德·林奇(CNI)、朱迪·鲁滕贝格(ARL)和黛安·戈登贝格-哈特(CNI)。凯瑟琳 ·克洛塞克(ARL)和肖娜·泰勒(ARL)是项目团队的核心部分。LareHaa(MightyRedBar )共同主持了情景规划研讨会,并就访谈进行了咨询。此外,KaylyGroves(ARL)和AgelaPappalardo(ARL)在整个计划中提供了宝贵的编辑和项目管理支持。 我们非常感谢数字科学提供的慷慨赞助,这使得背景研究成为可能。 Introduction 研究图书馆协会(ARL)和网络信息联盟(CNI)选择应用情景规划来想象受人工智能(AI)影响的未来,并探索研究和知识生态系统中与AI相关的不确定性范围。这些方案是通过与CNI和ARL成员的深入接触从北美的角度开发的。在开发内容时,CNI和ARL工作队。 人工智能(AI)被认为是过去半个世纪开发的各种计算工具和技术的简写,这些工具和技术经历了三个阶段:专家系统,机器学习,目前处于深度学习阶段。 情景规划是一种很好的方法,适用于像人工智能这样的主题,在这个主题中,它在未来几年将如何发展存在巨大的不确定性。 目前,生成AI正在受到广泛关注和关注,而机器学习和预测方法在过去十年中也得到了广泛使用 。人工智能技术经常嵌入在具有更广泛功能的系统中,如聊天机器人或推荐系统。为了确保广泛的未来可能性得到充分解决,我们精心制定了涵盖可能未来的场景,包括人工智能应用的失败和对社会的危险结果。人工智能导致超人的能力,一直到人工智能(AGI)的概念概念,该概念旨在匹配或大大超越人类的分析,推理,计划和创造力,在广泛的领域,有些人认为这是对人类生存的生存威胁。 情景规划的一个核心原则是专注于合理性(而不是概率),并暂停怀疑,以便我们考虑我们可能面临的未来可能性的全部范围。因此,我们不会选择一个情景并为其进行计划,而是专注于一组情景,这些情景提升了我们需要解决的最关键的不确定性。未来 永远不会完全像在任何一个场景中描述的那样,但是未来将由所有创建的场景的组件组成。 情景规划过程的第一阶段是数据收集过程,以澄清ARL和CNI社区希望通过这一努力解决的核心战略问题(战略重点)。基于数据收集阶段,出现了以下战略重点: 我们如何在研究和知识生态系统中充分发挥AI的潜力? ●确保负责任的AI具有数据完整性、出处和持久性。 ●实现公平和包容性的做法。 ●优化定位学习的研究和知识生态系统。 ●明确增加价值的图书馆的战略角色。 这一战略重点是场景设计要告知的问题。为了确保ARL和CNI在未来的想象中超越传统智慧,ARL和CNI方案的最终状态已设定为2035年,即未来约10年。在ARL和CNI社区代表参加的互动研讨会的基础上,创建了以下一组AI场景:。 这组情景由两个关键不确定性构成: 人工智能过程和设计的社会意向-过程和设计是预期的还是有限的?这里的意向选择是超越反应性(主动与反应性),转变为有效性,并关注围绕AI的负责任和预期的过程和设计。 人工智能的社会适应-社会对人工智能的适应是广泛的还是有限的?在这种情况下,适应包括采用水平以及适应和应对不断变化的社会的能力。 两个关键不确定性框架四个不同的场景: 场景1-AI民主化在这个世界中,人机界面和AI技术的非凡融合创造了人类和计算能力的前所未有的集成,并随着日益开放的知识获取而蓬勃发展。AI与人类无缝,负责任地,安全地整合研究,知识开发,协作和交流。 场景2-技术专家AI在这个世界中,人工智能对研究和知识生态系统的影响相对较低,主要的人工智能进步和影响出现在消费者应用程序中,这些应用程序很容易盈利,相对没有争议,门槛较低。科技巨头在个人彼此之间以及在真实,虚拟和混合世界之间的互动中推动创新,这些世界利用AI来创建增强的环境和体验。 场景3-DivisiveAI是一个错失机会、错误决定和无能的世界。围绕人工智能的兴奋和炒作,以及人工智能将成为世界上最棘手问题的解决方案的信念,导致人工智能在消费者生活和专业应用中的过度狂热和仓促采用。部署了包含严重偏见或功能障碍的AI应用程序,导致错误信息验证和加强有缺陷的系统,这些系统排除了许多并加强和丰富了一些。 场景4-自主AI在这个世界中,人工智能正在成为研究和学习领域日益独立的合作伙伴和合作者,利用不断扩大的开放资源和数据。知识的进步远远超出了人类可能的研究进展。社会已经适应了AI在生活和经验的各个方面增强的世界,并且在此过程中,有意识地和无意识地放弃了对AI的越来越多的代理。 这些情景探讨了未来10年的以下关键不确定性: 面向研究和学习的AI生命周期和设计 数字素养 对AI的社会适应(感知和信任) Learning 权力、影响力和人工智能/人类机构 教学与教育 政策环境 劳动力 全局视图 Research 研究和学习的民主化与AI(访问,开放/封闭) 研究型图书馆 数据完整性、来源、持久性 学术记录与交流 偏见,伦理,包容,公平 AI环境影响 文化遗产与记忆 本文档末尾包含了描述每个方案在2035年结束状态的详细表格,供您参考。这些方案将被用于在研究、知识和学习方面围绕人工智能进行战略计划。它们旨在为ARL和CNI成员使用呈现人工智能风险缓解问题集。这允许每个成员 调查每个场景对该成员独特的本地环境的战略影响。在接近这个材料时,暂停你的怀疑,避免选择一个首选的场景,并拥抱这个材料中包含的全套可能性。 请记住,未来不会像任何一个场景中描述的那样,而是由所有四个场景的组件组成。 ~~~ 认识亚历克斯·卢瑟福博士...Alex(她,她)是地平线创新基金会(HIF)的主任,负责审查和授予专注于知识和努力的下一个领域的创新研究的赠款。亚历克斯已经40多岁了,开始了她在R2研究冰川融化机构的研究员生涯。她作为PI为获得资金而不断努力,对资助过程和参与者以及如何为更好的研究人员和知识进步提供资金的兴趣达到了顶峰。六年前,她加入了HIF,并晋升为。 两年前导演。通过Alex的生活和工作在以下四个场景中看到未来。... 场景1:AI民主化 这是一个世界基于增强的增强现实和一系列AI技术的人机界面进步的非凡融合,创造了人类和计算能力的前所未有的集成,随着知识获取的日益开放而蓬勃发展。这一进步与深思熟虑的设计过程以及金融投资相结合,使人工智能能够无缝、负责任地、安全地与人类融合,为广泛的社会目标服务。好奇心和进步的持续动力一直是学术界创新的长期催化剂,但现在扩展到涵盖更广泛,更流畅的创新者和参与者。 许多创新很快被商品化,以造福公众。开发模式高度适应创新和新产品的快速发展和成功与失败。这些新的界面改变了研究,知识开发,协作和交流,从而使AI增强了人类和团队的新能力并增强了人类的代理能力。只有通过公共和私营部门,包括政府,工业,民间社会,科学界和教育机构之间的健康合作,才能实现这种进步。 尽管有时是一场斗争,但社会共同围绕AI的设计和部署创建了一套负责任的准则和标准,以确保工具的安全性和包容性。这些指导方针和政策中的许多都超越了人工智能,涉及隐私、透明度、数据完整性和开放访问等问题,为先进人工智能的发展奠定了基础。随着具有数字素养的公众透明地参与指南和部署计划的制定,以及公众对大型语言模型(LLM)和AI助手的不断扩展的体验,公众对AI的信任正在增长。有限但合理平衡的监管方法,辅之以更多的自愿性最佳实践和协议,已经确立了由价值观和原则驱动的框架和政策的发展,以改善社会和改善生活质量,但当然有些人对增加他们认为进展缓慢的指导方针感到沮丧。 至关重要的是,这些规范、实践和监管框架伴随着系统的投资,以利用人工智能技术来实现大规模的社会目标。 无论如何,这不是一个完美的世界。不良行为者在边缘周围运作 不要遵守非监管协议,也不要仅在绩效上遵守。尽管一些地区和参与者达成了协议和共识,包括美国/加拿大与欧