生成AI与教育的未来 StefaniaGiannini 教科文组织教育助理总干事 2023年7月 数字革命的不屈不挠的步伐 我们正在经历的数字变化令人兴奋,刺耳,充满机遇,同时也令人恐惧。 在我的职业生涯中,我目睹了至少四次数字革命:个人计算机的出现和普及;互联网和搜索的扩展;社交媒体的兴起和影响力;以及移动计算和连接的日益普及。 这些革命带来的巨大变化可能让人感到突然,有时甚至是不请自来的。它们极大地改变了我们的生活方式以及我们的教学和学习方式。值得注意的是,我们中的许多人,尤其是年轻人,现在花费更多的时间沉浸在数字空间和互动中,而不是离线和屏幕外的交流中——这一命题在一代人之前似乎就像是科幻小说。数字技术的发展似乎只会加速,他们创造的新世界可能会感到陌生和迷失方向,即使我们了解它们丰富我们的生活,改善我们的人际关系并为教育开辟新视野的潜力。 并非所有人和所有国家都以相同的方式感受到了最近的这些技术革命,也不一定以逐步发展的方式展开。在许多地方,移动革命一直是个人计算,互联网访问和社交媒体的载体-这四个革命同时发生。 尽管我们大多数人仍在努力接受这些仍在展开的早期革命对社会和教育的广泛影响,但我们在 过去几个月,醒来发现自己突然进入了另一场数字革命 -一个可能会使其他人看起来微不足道的东西。这是AI革命。 语言事项 使用改进的计算能力,合成神经网络和大型语言建模,AI技术即使没有破解,也至少以惊人的灵活性假装人类文明的“关键”:语言。 我的正式学术培训是语言学,所以我有足够的机会去思考语言的结构,形式,意义和力量。语言问题。这就是我们与其他动物的区别。它是身份认同和文化多样性的核心。它赋予我们周围的世界意义,并激励我们的行动。它是我们在教育和几乎所有其他生活领域所做的一切的基础。它是爱和战争的根源。它可以授权,也可以操纵。 直到最近,我们几乎只使用和控制语言。机器现在跨越了如此多的语言门槛,而且速度如此之快 ,这一事实应该让我们思考和反思。使这些发展成为可能的过程很重要,值得审查,但其结果是不可否认的:机器现在可以模拟超出狭窄任务的复杂对话。 我们逐渐了解到,我们对高级语言的垄断-一种通过教育培养的自然能力以及我们物种最明确的社会特征-不再是我们可以理所当然的事情。认识到这一事实迫使我们重新审视维护我们当前教育体系乃至更广泛社会的信念和假设。 产生类似人类语言的人工智能应用程序提出了涉及教育的基本问题,但传播范围远远超出了:这项技术将如何改变我们作为人类的观念?它将如何重塑我们对人类智能的理解?它将如何影响我们彼此之间的关系? 我们还被迫考虑研究我们的语言并生成它们的新技术,而没有明确的人类指导,因此是不可预测的 。精通语言和学习的技术是否有可能在某个时候发展情感,了解自己的存在并渴望更大的自主性?将数千年的知识移交给似乎能够超越人类设定的边界进行学习和执行的机器明智吗? 我们与这些机器的互动又如何:我们应该如何“对待”它们?非人类机器是否适合像成年人是另一个人一样对成年人说话?这适合孩子吗?当聊天机器人毫不犹豫地按要求假定一个活生生的或早已死去的历史人物的声音时,我们应该怎么想? 对知识的影响 技术在意识形态上从来都不是中立的。它展示并赋予某些世界观特权,反映特定的思维和认知方式 。新的生成AI模型和实用程序也不例外。 像ChatGPT这样的AI聊天机器人可以提供与支持标准Google或其他网络搜索的AI技术完全不同的用户体验。搜索技术针对用户查询对大量人工制作的内容的菜单进行策划和排名。相比之下,大型语言模型聊天机器人使用机器制作的内容生成奇异的,因此看起来更具权威性的响应。因此,AI聊天机器人的功能就像无所不知的先知一样。 这些AI聊天机器人提供的答案并没有追溯到人类的头脑。相反,它们源于如此复杂的计算迷宫,以至于即使是开发技术的人也无法完全理解。实际上,我们有一项发明,可以为人类用户提供对问题的单一回答,但是这些回答不能追溯到其他人。从定义上讲,这些反应缺乏人性。 为知识问题提供即时,简洁和看似明确的答案的机器可以对学习者,教师和其他人有所帮助。但这项技术也可以迎来一个机器知识占主导地位的世界,专有的人工智能模型被提升为全球甚至可能受到尊敬的权威来源。这些模型将投射某些世界观以及了解和背景他人的方式。 尽管人工智能和其他数字技术承诺进一步使我们的知识系统多样化,但我们可能正朝着相反的方向前进。如果只有一个或两个AI模型和平台(其中一些已经行使了近乎垄断的权力)在我们与知识的界面上占据更大的主导地位,这一点尤其正确。随着人工智能技术继续渗透到我们的世界,我们必须保护和保护我们知识系统的多样性,并以保护和扩展我们丰富的知识共享的方式开发人工智能技术。我们不能允许我们生产知识的各种系统萎缩,我们必须防止知识创造与人类脱节。虽然机器总有一天会理解我们的道德和伦理,但这一天还没有到来。正如许多科学家和哲学家所断言的那样,使机器智能与人类价值观保持一致是一项紧迫的任务。 对教育未来的影响 生成AI的发展为教育的未来提出了基本问题。 使用这项技术的教师将在广泛流通中扮演什么角色?现在,人工智能实用程序在直到最近才被广泛认为是不可破解的考试中表现良好的评估将是什么样子,例如证明对特定学科领域的掌握程度的测试,以及对包括医生,工程师和律师在内的有资质的专业人员的考试? 作为一名大学教授,我一直认为写作教学是培养和展示分析和批判性思维技能的最有效方法之一。但是,即使我继续持有这些假设,生成人工智能也邀请我质疑这些假设。 在一个生成式人工智能系统似乎每个月都在开发新能力的世界里,我们的教育系统应该培养什么样的技能、前景和能力?在学校和其他地方需要什么变化来帮助学生驾驭未来,在这个未来,人类和机器智能似乎越来越紧密地联系在一起——一个支持另一个,反之亦然? 我们有可能很快就会实现人工智能——这是一个里程碑,机器不仅在下棋等狭窄领域超越我们,而且在更大的领域超越我们,比如建议采取行动减轻气候变化的危险。那么教育应该是什么样子?在一个人类不一定是开放理解和知识新领域的世界中,它的目的和作用是什么? 这些都是令人生畏的问题。它们迫使我们认真考虑我们可以说已经避免了太久的问题。 在最基本的层面上,这些问题与我们想要生活的世界有关。我们的教育系统通常理所当然地认为世界是什么样子——以及将要和应该是什么样子。我们的正式学习系统旨在帮助人们发展导航所需的能力,我们希望在这个已知的世界中茁壮成长。 人工智能迫使我们问一些关于“已知世界”的问题,我们通常把这些问题作为教育的起点。我们的许多旧假设和规范,特别是那些关于知识和学习的假设和规范,似乎不太可能维持这项新技术的“重量”。我们不能再只是问“我们如何为AI世界做准备?”我们必须更深入地说:“拥有AI的世界应该是什么样子?这项强大的技术应该扮演什么角色?以谁的条件? 谁来决定?” 教育系统需要将机构归还给学习者,并提醒年轻人我们仍然掌握技术。没有预定的课程。 减缓和规范AI在教育中的使用 自今年年初以来,我们已经清楚地认识到科学家们至少十年来一直在说的话:人工智能发展的步伐只是在加快。今天,我们正以惊人的速度前进-而且很大程度上没有路线图。暂停,反思和提问的时刻似乎很少见,但我们必须考虑我们要去哪里,这是否确实是我们想要的。 在没有检查,规则或法规的情况下,生成AI技术被集成到教育系统中的速度令人惊讶。我感到震惊的是,今天,在大多数国家背景下,验证新教科书所需的时间,步骤和授权远远超过将生成AI实用程序迁移到学校和教室所需的时间,步骤和授权。实际上,AI 实用程序通常根本不需要验证。他们在没有讨论或审查的情况下被“丢弃”到公共领域。我想不出其他技术在开发几周后才推出给世界各地的儿童和年轻人。在许多情况下,政府和学校都在拥抱一种根本不熟悉的技术,即使是领先的技术人员也不知道。这种发展的先例很少。互联网和手机并没有立即受到欢迎进入学校,并在发明后与孩子们一起使用。我们发现了整合它们的有效方法,但这不是一朝一夕的过程。 鉴于教育具有保护和促进发展与学习的功能,因此有特殊的义务要与AI的风险进行微调-已知的风险和刚刚出现的风险。但是,我们常常忽略了风险。 学校,以及在较小程度上的大学,需要成为我们确定与年轻人一起使用并向他们推荐的工具的地方。虽然还为时过早,但我们知道人工智能的主要和最明显的风险之一是它操纵人类用户的潜力。我们进一步知道,儿童和青年非常容易受到操纵,比成年人更容易受到操纵。有许多例子表明,人工智能从其创作者放置的护栏中滑落,并参与各种不适合儿童的“对话”,并可能对他们产生不利影响。尤其是这种情况,因为这些工具对于影响力、娱乐和长期参与变得更加校准,就像目前社交媒体的情况一样。 在继续研究技术的同时,我们有许多减缓、暂停或停止使用我们尚不了解的技术的先例。这项研究至关重要,因为它增加了我们对技术的理解,并告知我们何时以及如何使用它可能是安全的,以及用于什么目的。 人工智能的使用可以像其他技术一样被利用或限制,尽管它已经变得流行,认为这在某种程度上是不可行的。我们在许多国家/地区都有强有力的规则,这些规则控制和限制了已知危险或仍然太新的技术的使用,无法证明广泛或不受控制的发布是合理的。虽然这些规则可能并不总是完美的,但它们相当有效。 随着我们对生成AI应用程序的扩散进行更全面的评估,我们必须将安全问题放在我们的视线的最前面。制定必要的检查可能需要时间。审查和验证教科书和其他教育材料的监管机构花费了大量时间和投资来建立和维持。这些过程已经在大多数情况下到位,为系统和过程提供了早期的(如果是初步的)蓝图,以检查大型语言模型AI技术与教育目标的兼容性。通常至少根据四个主要标准对学校和学童使用的教育资源进行审查:(1)内容的准确性,(2)年龄的适当性,(3)教学方法的相关性以及(4)文化和社会适用性,其中包括防止偏见的检查。在许多地方,在获得机构批准之前 ,教师和学校领导以及各种民间社会团体对资源进行了进一步检查。声称具有教育效用的AI模型和应用程序应根据进行检查。 similarcriteria,andothers,giventheircomplexityandreach,beforebeingdeplosedatscale.Itisratherremarkablethattheyhavelargelybypassedthissorttodate. 教育部门需要根据自己的条件做出这些“合格”的决定。它不能依靠AI的企业创造者来完成这项工作 。这种行业自律会带来不可接受的利益冲突。为了审查和验证在学校正式使用的新的和复杂的人工智能应用程序,将要求教育部建立自己的能力,可能与政府的其他监管部门协调,特别是那些监管技术的部门。展望未来,我们需要更好地平衡人工智能专家开发技术和应用,另一方面,需要为政府工作的专家来审查这些应用的安全性,并仔细考虑其滥用的可能性以及如何最大限度地减少这些可能性。目前,在这个等式的安全方面,很少有专家,而真正独立运作的专家更少,而且在为商业目的开发人工智能的组织之外。最近的2023年人工智能智能指数报告显示,只有不到1%的人工智能博士毕业生在毕业后进入政府工作。这一趋势在过去五年中保持不变。这些毕业生中的大多数进入工业界,而大约四分之一进入学术界。在等式的监管方面根本没有足够的专业知识。 在我们目前的不确定性、新颖性和薄弱的安全检查背景下,在教育中对生成人工智能采取更谨慎的方法是一种常识性的行动。 规划前进道路的路线图 教科文组织正在与各国合作,帮助它们制定战略、计划和法规,以确保人工智能在教育中的安全和有益使用。2023年5月,联合国教科文组织组织了第一届全球教育部长会议,分享有关生成AI工具对教学和学习的影响的知识。本次会议帮助教科文组织制定了路线图,以指导与各国政府以及学术界、民间社会和私营部门伙伴的全球政策对话。 我们不是从头开始。2021年教科