战略背景 2024年6月 这项工作根据知识共享署名4.0国际许可证获得许可。 https://doi.org/10.29242/report.aiscenarioscontext2024 ARL/CNIAI方案:战略背景2024年6月 研究图书馆协会(ARL)网络信息联盟(CNI )StratusInc. 建议引用:ARL/CNIAIScenarios:StrategicContext.Washington,DC,andWestChester,PA:AssociationofResearchLibraries,CoalitionforNetworkedInformation,andStratusInc.,June2024.https://doi.org/10.29242/report.aiscenarioscontext2024. 目录 Summary2 Focus2 主题4 未来4 在AI中7 AI9 确定整个研究和知识生态系统的战略合作伙伴。12提高技能并成为自适应、持续的学习者.13 社区15 AI16 Processes17 AI22 专注?27 未来29 前言 研究图书馆协会(ARL)和网络信息联盟(CNI)正在进行情景规划过程,以想象未来,并探索与人工智能(AI)相关的广泛动态,这将重塑研究和知识生态系统的格局。情景规划是许多组织和社区用来测试其长期假设并调查其未来环境的不确定景观的战略方法。 ARL和CNI成员和利益相关者的一系列访谈和焦点小组的结果,本文档为 ARL和CNI社区内部的集体智慧和观点范围,涉及与研究和知识生产有关的不确定的未来AI格局,并将重点放在该领域的研究图书馆上。 当未来高度不确定,变化和进步的动态高度复杂时——比如研究和知识生态系统中的人工智能——情景规划是一种理想的方法。通过情景规划,一个小组创建一个框架来跨越相关的不确定性。 ThematerialpresentedinthisdocumentwasaresourcefortheAIscenarioplanningprocessfromstarttofinish.Pleasenotetherearenohardandfastanswersinthisdocument,butatapestryof 问题,观点和见解,将使ARL和CNI社区能够构建其希望在整个过程中回答的核心战略问题。参与者探索的主题包括战略机遇和挑战,核心战略问题,成功的愿景以及错误的假设和错误的步骤。 Thisdocumentwasanimportantpre-readforthescenariodevelopmentworkshopandsessions.Directquotesfromindividualsarepresentedinquotingmarks.Editingofdirectquoteswasminorizedtostaytruetotherespondent’smeaning. 执行摘要 AI的未来潜力和影响尚不清楚,也很难驾驭。如果研究和研究图书馆社区等待确定性,这不仅是一个错误的目标,而且会导致他们失去确定如何最好地倡导 并进一步发展工具,方法和指南,以实现蓬勃发展的未来研究和知识生态系统。在这种情况下,繁荣意味着扩大,负责任和安全,有效,公平,包容,多样化和可访问. ARL和CNI社区在某些方面面临挑战,要利用来自其文化的思想 换句话说,研究图书馆如何更充分地应用和分享他们在数据和知识收集、组织、策划、保存、交流和共享方面的专业知识,以确保负责任和道德的人工智能是转型生态系统的核心? 正如一个人指出的那样,在ARL和CNI社区中,“有很多错误的假设!关于AI在未来15到25年内能够做什么或不能做什么的假设。它是如何工作的。急于规范,关于人工智能“偏见”与人工智能的假设反映了人类偏见和机构。“这种情景规划过程旨在使社区能够深入了解如何最佳地实现未来的研究和知识生态系统,以实现“重塑并大大扩展学术知识的语料库”的理想愿景。." 战略重点 根据数据收集过程中出现的战略主题,制定了以下战略重点: 我们如何在研究和知识生态系统中充分发挥AI的潜力? •确保具有数据完整性、出处和持久性的负责任的AI •实现公平和包容的做法 •优化定位学习的研究和知识生态系统 •明确增加价值的图书馆的战略角色 ThestrategicfocusisthestartingpointforARLandCNI’scommunitiestobegintheirstrategicplanningaroundAIandisthequestionthisprocessisdesignedtoinform.Thisquestionwas 在情景开发研讨会开始时进行了讨论和进一步完善。这些单词是精心选择的。以下是与几个术语/短语相关的操作定义和/或上下文: •We—允许AI方案集的用户以个人机构、组织或部门(研究、高级或其他 )、图书馆员、研究人员或相邻利益相关者的身份集体申请 •研究和知识生态系统-专注于知识创造和研究;图书馆的作用;研究、学习和使用知识 •启用-主动定位(与支持) •值-满足关键需求,需要积极参与 战略主题 研究图书馆在AI未来中展示价值 对于研究图书馆,展示价值需要倡导负责任,道德和值得信赖的研究和知识生态系统的建模和构建。如果图书馆将人工智能作为增强和丰富研究和学习的工具,那么协作 ,收集,组织,保存,交流和共享知识记录的主要作用将继续具有价值。研究图书馆可以成为开发AI研究和学习模型的重要合作伙伴。要在桌子上占有一席之地,研究图书馆需要。 积极倡导数据完整性和值得信赖的研究。为了避免过时和奖学金和图书馆贬值,社区需要克服不愿改变的情绪。确实,图书馆DNA的保守主义允许进行深思熟虑的计划,但是在加速变革的时代,图书馆必须适应于承担计算风险。 “我们如何支持学术界参与企业、政府和军队在过去5年以上关于人工智能的对话?” “作为评估的一部分,评估模型和结果的生命周期。” “研究图书馆是学术研究生态系统中唯一参与研究生命周期每个阶段的参与者。 “图书馆员需要成为研究人员/用户与人工智能之间的联络人。许多旗舰大学在研究人员和用户的素养方面存在强烈问题。它超越了理解,真正影响了它的使用方式。” “图书馆可以利用他们在校园的号召力-将其与开放奖学金联系起来。 主动倡导-在餐桌上获得席位 “沉默是[围绕版权]的一个巨大问题,如果我们现在不积极主动地争取权利 ,而它仍然具有延展性,我们将失败。” “我们在所有这一切中的角色是什么?我们对不受控制的部分是可以的,我们绝对需要在哪里'在桌子上'?” “我们真的想顺其自然还是想积极倡导?作为一个职业,我们在什么时候开始真正尝试将自己融入对话?” “我可以想象一个错误是没有成为开发AI工具的积极合作伙伴而落后。不参与将是最大的错误。我还建议,对于学术图书馆来说,成为围绕AI的校园对话的合作伙伴很重要。” “图书馆可以作为信息科学中心和伦理学家承担更广泛的角色。 “我们如何才能成为有意识地思考和采取行动的领导者,以使我们的个人上级机构和学术企业受益?” “如果我们想成为一个跟随者,那是一个非常危险和危险的立场。我最担心的是我们仍然是一个跟随者,而不是一个领导者。我们需要成为一个拥抱人工智能的领导者,在道德、发现和经验方面。” 避免过时-奖学金和图书馆贬值的风险 “您会发现那些在图书馆担任领导职务的人将在挑战图书馆环境的情况下表现出巨大的抵抗和焦虑。如果我把自己带回10年,那就是我们职业中未来领导者的风险类型 需要从这些场景中学习和应用-今天的下一代领导者。目前的领导者除了应用AI 来改善现有系统外,几乎没有希望。” “许多图书馆领导者都对图书馆的运作方式很感兴趣。我们不再是校园信息的去处。真正有计划的淘汰是要走的路。大学不需要一个满是书籍和期刊的大楼。计划中的过时要求我们宽松地使用术语图书馆员,而不是指图书馆。我们的教师必须拥有图书馆学校的学位。我很少再雇用这种人了。相反,我们正在雇佣一个学科或博士后中擅长处理数据信息的人。." “在大多数地方,作为图书馆和学者,我们已经非常落后了。我们现在如何不陷入生成AI的细节?我们如何进入对话的边缘而不是中间的混乱,并在知识创造方面领先于对话,而不是总是追赶?” “为什么我们似乎不想对AI做出决定?它在我们的DNA中-我们是保守的。” “通过这项工作,一定要强调冒险-我们对风险如此不利,以至于人们不敢尝试新事物。作为图书馆员,对失败的恐惧很大。我们在盒子里思考-但是生活是不稳定的。我们需要承担一些经过计算的风险。如果没有,我们就走了。我有一个儿子。他的未来是什么?我们欠他们的,为未来做好准备。准备系统以实现积极的未来。” “我们需要打破从'不情愿的受害者'到'变革代理人'的范式。” “图书馆作为智力中心的终结是最糟糕的情况。它只是一个获得东西的地方 ,因为人工智能很难取代参考资料和编目,但它足够好,预算人员无法证明人类劳动是合理的。” “易于使用的通用人工智能将特别破坏图书馆对我们所有人的关键评估/思考技能。例如:谷歌的第一页如何改变信息发现。不能总是解决这个问题,完全减轻。” 解决AI中的信任问题 对人工智能的信任问题是我们信息收集过程中面临的最大挑战之一。为了克服这些问题,必须解决AI是一种必须与之抗争的邪恶以及AI与人类行为者明显不同的假设。事实上,人工智能的不信任和危险无法克服,除非学者和公众达到人工智能/数字素养知识的门槛,并有效解决差距、不平等和偏见问题。 “一个危险的假设是,人工智能是邪恶的,我们需要与之抗争。我们需要对问题有了解的人来倡导人工智能,消除偏执狂。这不是技术夺走你的工作。确保我们成功解决道德和透明度问题。” “我将努力了解我在这方面的立场的最极端版本,那就是,我认为,相对于其他工具,我们过度重视人性。我受过科学和技术方面的训练。我受过训练,可以思考社会技术系统,其中包括人类和非人类行为者之间的互动。我认为我们犯了一个错误,认为有一些本质上不同的东西,这在部署这些系统时很重要,无论人类是否负责它们。我认为我们会花很多时间试图理解。比如,人工智能的动机是什么 ?人工智能模型的潜在因果动机是什么?我们如何相信它会做什么?事实上,当我和人类一起工作时会发生什么?实际上并没有什么不同。 当我与人类合作时,我有建立信任的机制。但是即使这样,我也无法完全预测某人会做什么。我认为我们正在从AI中寻找这一点 相反,对于AI,我们希望打开AI系统的黑匣子,从内部了解它,而不是仅仅愿意将它们视为黑匣子。” 达到AI/数字素养门槛 “对风险和机会的了解不够充分,无法充分教授人工智能素养。 “关于OpenAI的修辞-我们不明白这意味着什么,如何有意义地保留这些系统并同时保持开放性。” “对AI素养的需求-用户需要了解它的工作原理(总体上),并且他们需要评估结果的准确性。我从很多人那里听说他们害怕生成AI,我认为这个位置应该让我们理解它。” “我认为有时人们认为AI是可评估的-它不是,它是统计和概率的,答案仍然需要审查。 “工具的错误应用,从而破坏了科学完整性。误解了工具可以做什么和不能做什么。不知道人工智能工具的盒子里发生了什么,以及缺乏知识和理解的影响。感知人工智能是自动化的,可以在没有任何人工干预的情况下解决问题。“ 解决差距、不平等和偏见问题 “工具中固有的偏见与人们内部存在的偏见相当或相似,因此,消除偏见数据集的解决方案类似于我们试图管理或抵消机构内部偏见的方式。两者都是有效的问题,但它们的根本原因和表现方式是不同的,人工智能将需要新的解决方案来继续提供我们目前所做的信息质量。." “我们将使用人工智能来重建现有的实践和知识方式,这些实践和知识方式本身就是有问题且未被充分开发的-放大和扩展危险的,孤立的,单一的思维方式-而不是多视角,多种知识方式的承诺。