人工智能与教与学的未来 见解和建议 2023年5月 1 人工智能与教与学的未来 米格尔·a·卡多纳·特性。 美国教育部部长 罗伯特·j·罗德里格斯 规划、评价和政策制定办公室助理秘书 克里斯蒂娜以实玛利 教育技术办公室副主任2023年5月 例子是不支持 本文档包含为方便用户而提供的示例和资源材料。包含任何材料并非旨在反映其重要性,也不旨在认可所表达的任何观点或提供的产品或服务。这些材料可能包含各种主题专家的观点和建议,以及超文本链接、联系地址和网站,指向其他公共和私人组织创建和维护的信息。这些材料中表达的观点不一定反映美国教育部的立场或政策。美国教育部不控制或保证这些材料中包含的其他来源的任何信息的准确性、相关性、及时性或完整性。除文件中包含的法定和监管要求外,本指南的内容不具有法律效力,也不具有对公众具有约束力。 合同和采购 本文件无意就任何潜在联邦承包商与任何当前或未来的联邦采购和/或合同相关的业务决策或战略提供法律建议或批准。此外,本文件不是招标、征求建议书或其他招标。 许可和可用性 本报告属于公共领域,可在美国教育部(部门)的网站上获得https://tech.ed.gov。 对盲文或大字体等替代格式文件的请求应致电1-202-260-0852或通过电子邮件联系504协调员om_eeos@ed.gov 提交给备用格式中心。 注意到有限的英语熟练的人 如果你有英语理解困难,你可以要求语言协助服务,以获取向公众提供部门信息。这些语言协助服务是免费提供的。如果您需要有关口译或笔译服务的更多信息,请致电1-800-USA-LEARN(1-800-872-5327)(TTY:1-800-437-0833) ;给我们发电子邮件 Ed.Language.Assistance@ed.gov;或写信给美国教育部信息资源中心,LBJ教育大楼,400MarylandAve.SW,华盛顿特区20202。 如何引用 虽然不需要转载本出版物的许可,但建议的引用如下: 美国教育部,教育技术、人工智能和教学的未来办公室:见解和建议,华盛顿特区,2023年。这个报告可以在https://tech.ed.gov 表的内容 介绍1 人工智能教育的兴趣不断增加1 三个原因,解决人工智能在教育现在2对人工智能在教育政策3 一起6建筑伦理、公平的政策 指导问题6 基础1:中心人员(家长,教育工作者和学生)6基金会2:推进股权7 基础3:确保安全、道德和有效性8 基础4:促进透明度9概述文档10 什么是人工智能?11 观点:人类推理12 观点:追求一个目标的算法12 角度:智力增加14 “模型”的定义14 洞察:人工智能系统实现新的交互形式15 重点推荐:人类的循环中的人工智能16 学习18 洞察力:AI使自适应性的学习18 智能辅导系统:人工智能模型示例19 扩大基于AI的适应性的重要方向20 一个二元性:与了解人工智能22 挑战:系统思考教育中的人工智能22 开放式问题关于人工智能学习23 主要建议:寻找与学习愿景相一致的AI模型24 教学25 总是在教学中心教育者循环25 洞察力:使用人工智能来改进教学工作26 准备和支持教师进行规划和反思29 设计、选择和评估人工智能工具30 挑战:平衡人类和计算机决策30 挑战:让教学工作更轻松,同时避免监控31 挑战:在保护学生隐私的同时回应学生的优势32 问题值得问人工智能教学34 关键建议:可检查、可解释、可覆盖的AI34 形成性评价37 基于最佳实践37 对38教学和学习的影响 洞见:AI能增强反馈循环39 一个例子:自动作文评分40 人工智能在形成性评估中的主要机遇41 主要建议:利用评估专业知识减少偏见42 相关问题43 研究和开发44 洞察:研究可以加强情境在人工智能中的作用44 注意学习者变异性的长尾46伙伴关系在设计研究47岁反思教师专业发展48 结合公共政策49 主要建议:将研发重点放在解决上下文上50 正在进行的问题人员50名想要的51个国家研发目标 建议52 洞见:调整AI政策目标52 要求教育领导人采取行动53 推荐#1:强调人类的循环53 建议#2:使AI模型与教育的共同愿景保持一致54 建议#3:使用现代学习原则进行设计56 建议#4:优先加强信任57 建议#5:告知并让教育工作者参与57 建议#6:将研发重点放在解决上下文和增强信任和安全上59 建议#7:制定针对特定教育的指导方针和护栏60 下一步60 常见的缩写和缩写62确认63 引用64 介绍 美国教育部(Department)致力于支持使用技术来改善教学,并支持整个教育系统的创新。本报告解决了分享知识和制定“人工智能”政策的明确需求,人工智能是一类快速发展的基础能力,越来越多地嵌入所有类型的教育技术系统中,也可供公众使用。我们将考虑“教育技术”(edtech)包括(a)专门为教育用途而设计的技术,以及 (b)在教育环境中广泛使用的一般技术。本报告中的建议旨在让教师、教育领导者、政策制定者、研究人员和教育技术创新者和提供者参与进来,因为他们共同解决人工智能(AI)在教育中使用时出现的紧迫政策问题。 人工智能可以定义为“基于关联的自动化”。当计算机根据数据中的关联(或从专业知识中推断出的关联)自动推理时 ,人工智能的两个基本转变就会发生,并将计算转移到传统教育技术之外:(1)从捕获数据到检测数据中的模式,以及(2)从提供对教学资源的访问到自动化有关教学和其他教育过程的决策。检测模式和自动化决策是可以委派给计算机系统的责任水平的飞跃。开发人工智能系统的过程可能会导致模式检测方式的偏见以及决策自动化方式的不公平。因此,教育系统必须管理他们对人工智能系统的使用。本报告描述了利用人工智能改善教育的机会,认识到将出现的挑战,并提出指导进一步政策制定的建议。 人工智能在教育的兴趣不断增加 今天,许多改进教学和学习的优先事项没有得到满足。教育工作者寻求技术增强的方法来解决这些安全、有效和可扩展的优先事项。当然,教育工作者想知道日常生活中技术的快速进步是否有帮助。像我们所有人一样,教育工作者在日常生活中使用人工智能驱动的服务,例如家中的语音助手;可以纠正语法、完成句子和写论文的工具;并在手机上自动规划行程。许多教育工作者正在积极探索人工智能工具,因为它们是新向公众发布的。1.教育工作者看到了使用语音识别等人工智能功能的机会,以增加对残疾学生、多语言学习者和其他可以从数字学习工具的更大适应性和个性化中受益的人的支持。他们正在探索人工智能如何能够编写或改进课程,以及他们寻找、选择和调整材料以用于课程的过程。 教育工作者也意识到了新的风险。有用、强大的功能也可能伴随着新的数据隐私和安全风险。教育工作者认识到,人工智能可以自动生成不适当或错误的输出。他们担心人工智能创建的关联或自动化可能会放大不必要的偏见。他们注意到学生可以采取的新方式 1沃尔顿家庭基金会(2023年3月1日)。教师和学生接受ChatGPT进行教育。https://www.waltonfamilyfoundation.org/learning/teachers-and-students-embrace-chatgpt-for-education 将他人的工作视为自己的工作。他们非常清楚人类教师可以解决的“可教时刻”和教学策略,但人工智能模型未被发现或误解。他们担心算法建议的建议是否公平。 教育工作者的担忧是多方面的。教育界的每个人都有责任利用善来服务于教育优先事项,同时也要防止因人工智能被整合到教育技术中而可能出现的危险。 为了制定教育科技指南,该部门与教育部门密切合作。这些组成部分包括教育领导者——教师、教职员工、支持人员和其他教育工作者——研究人员;政策制定者;倡导者和资助者;技术开发人员;社区成员和组织;最重要的是,学习者及其家人/照顾者。最近,通过与选民的活动,新闻部注意到对人工智能的兴趣和关注急剧上升。例如,2021年的实地扫描发现,各种技术系统的开发人员(用于学生信息、课堂教学、学校后勤、家长与教师沟通等)都希望将人工智能功能添加到他们的系统中。通过2022年6月和8月举行的一系列四次听证会,有700多名与会者参加,很明显,选 民认为现在需要采取行动,以领先于人工智能在教育技术领域的预期增长——他们希望卷起袖子开始合作。在2022 年底和2023年初,公众开始意识到新的生成式AI聊天机器人,并开始探索如何使用AI来撰写论文、创建课程计划 、制作图像、为学生创建个性化作业等等。通过社交媒体、会议和新闻媒体的公开表达,该部门更多地了解了人工智能聊天机器人的风险和益处。然而,本报告不会关注特定的人工智能工具、服务或公告,因为支持人工智能的系统发展迅速。最后,该部门利用内部可用的教育政策专业知识以及与人工智能政策专家的关系,形成本报告中的调查结果和建议。 三个原因,解决人工智能教育了 “我坚信利益相关者需要了解人工智能和教育的周期性影响。通过了解不同活动是如何累积的,我们有能力支持良性循环。否则,我们可能会让恶性循环永久化。 丽迪雅刘 在听证会上,选民们阐述了现在解决人工智能问题的三个原因: 首先,人工智能可以以更好的方式、大规模和更低的成本实现教育优先事项。解决学生因疫情而未完成的各种学习是政策优先事项,人工智能可以提高学习资源对学生优势和需求的适应性。改善教学工作是当务之急,通过自动化助手或其他工具,人工智能可以为教师提供更大的支持。人工智能还可以使教师在时间用完时向个别学生提供支持。开发能够响应学生为学习带来的知识和经验(他们的社区和文化资产)的资源是当务之急,人工智能可以使课程资源具有更大的可定制性,以满足当地需求。 正如语音助手、地图工具、购物推荐、论文写作功能和其他熟悉的应用程序所见,人工智能可能会增强教育服务 。 其次,紧迫性和重要性源于对系统级风险的认识和对未来潜在风险的焦虑。例如,学生可能会受到更大的监视。一些教师担心他们可能会被取代——相反,该部门坚决拒绝人工智能可以取代教师的想法。公众脑海中浮现出来自算法偏见的歧视的例子,例如语音识别系统与地方方言不符,或者考试监控系统可能会不公平地识别某些学生群体以进行纪律处分。人工智能的某些用途可能是基础设施和不可见的,这引起了对透明度和信任的担忧。人工智能经常以魔法的光环出现在新的应用中,但教育工作者和采购政策要求教育技术显示出功效。人工智能可能提供的信息看似真实,但实际上并不准确或缺乏现实基础。最重要的是,除了众所周知的数据隐私和数据安全风险外,人工智能还带来了新的风险,例如缩放模式检测器和自动化导致“算法歧视”的风险(例如,向某些学生群体推荐的学习机会或资源的系统性不公平)。 第三,紧迫性是由于可能出现的意想不到或意想不到的后果的规模而引起的。当人工智能使教学决策能够大规模自动化时,教育工作者可能会发现不必要的后果。举个简单的例子,如果人工智能通过加快一些学生的课程节奏和其他学生的步伐(基于不完整的数据、糟糕的理论或对学习的偏见假设)来适应,那么成绩差距可能会扩大。在某些情况下,可用数据的质量可能会产生意想不到的结果。例如,人工智能教师招聘系统可能被认为比基于人工的简历评分更客观。然而,如果人工智能系统依赖于低质量的历史数据,它可能会降低那些可以为学校教师队伍带来多样性和才能的候选人的优先级。 总之,现在必须解决教育中的人工智能问题,以实现关键机遇,预防和减轻突发风险,并应对意外后果。 人工智能在教育政策 斯坦福大学以人为本的人工智能研究所的2023年人工智能指数报告记录了对人工智能投资的显着加速以及对道德研究的增加,包括公平和透明度问题。2当然,由于观察到问题,对伦理学等主题的研究正在增加。教育中也会出现伦理问题。3该报告发现,25个国家对专门包括人工智能的立法提案数量表现出浓厚的兴趣。在美国,多项行政命令都集中在确保人工智能的可信和公平上,白宫科技政策办公室推出了一项 2马斯莱,N.,法托里尼,L.,布林约尔夫松E.,埃切门迪,J