爱立信皮书GFTL23000757欧恩202 3年6月 值得信赖的AI它对电信行业意味着什么 可信人工智能对电信行业的影响内2 容2023年6月 内容 简介3 人类代理与监督4透明度5 隐私与数据治理8 多样性、无歧视和公平9技术稳健性和安全性11 社会和环境福祉13 结论15词汇表16 参考文献18 作者19 可信人工智能对电信行业的影响简3 介2023年6月 引言 数十亿人已经开始信任并依赖现代电信系统来满足他们的需求并提高生活质量。随着这些系统采用新技术,重要的是通过理解和应对任何新的风险来保持信任。人工智能(AI )与传统软件在构建和运营上存在差异,可能会引入新的和多样化的风险,需要新的应对措施和保障措施。例如,用于AI训练的大量数据提高了隐私风险的可能性。开发程序必须确保AI模型学习到预期内容。模型的操作应得到彻底理解,例如,使用可解释性技术。简而言之,为了维护整个系统的可靠性,AI本身必须值得信赖:这意味着,它应按照预期运行,并在物理或伦理上不造成损害。 全球各国政府、公司以及标准机构都在关注这些事实,并正在制定关于人工智能系统可靠性要求的规定。《即将出台的欧盟人工智能法案》1是此类努力之一。它遵循了欧洲委员会高级专家小组在他们的“可信人工智能伦理指南”中所写的原则。2阿尔卡特朗讯已采用这些指导方针。该框架将可靠性划分为七个具体领域。本文探讨了其中六个领域如何应用于电信系统中的AI,其中一些在图1中进行了展示。 透明度 隐私与数据治理 技术稳健性与安全性 社会环境福祉 可解释强化学习可解释机机器学习安全安全机器学 器学习机器推理可解释图习隐私保护人工智能联邦 安全强化学习(SafeRL) 能源管理应用案例 神经网络XAI定量分析因学习果人工智能 自动化模型质量保证不变性及方向预期测试NFLRL用于安全形式验证 用于公益的AI 图1:爱立信的活动和技术 可信人工智能对电信行业中的自主4 性和监管的影响2023年6月 人类代理与监督 人类代理和监管要求确保人类总是能在像基本权利和安全这样的因素受到潜在影响之前 ,在AI控制系统中进行干预换句话说,在这些因素可能造成任何伤害之前。这些要求的实施意味着“人类在回路中”,这其中的难度取决于决策的时间尺度以及系统的关键性 。 有时,AI在特定时间尺度上运行,这个时间尺度对于人类的干预来说太快,例如基站中无线操作的优化。在电信领域,这些应用通常不会直接影响到个人权利和安全。然而,它们可以极大地影响网络运营,进而影响人类,因此需要仔细评估。 实施人工智能辅助网络操作中的人为代理和监管需要用户研究、产品功能设计和用户测试,以确保网络操作工程师能够在必要时检测并干预。人机交互设计必须与现有的网络操作流程相一致,依托现有接口,并向用户提供可操作的信息。 人机代理和监督的界面可能因用例和用户而异。它可以是图形用户界面GUI、命令行界面CLI、基于REST的API,甚至是物理界面(例如,灯光)。例如,一个检测和预测网络范围拥堵的人工智能系统可能会使用嵌入在常规网络设计和操作仪表板中的图形界面 。如果AI性能下降(例如,报告过多的虚假网络拥堵),系统也可能发送警报到网络运营中心NOC。警报应包括NOC工程师所需的所有信息,包括问题的原因、潜在的根本原因和解决方案建议。工程师随后有三个选择:切换到非AI功能;理解和解决AI问题;或升级问题。应考虑警报数量,以避免可能已经负荷过重的NOC。可解释的人工智能方法可以帮助生成所需和用户定制的故障原因。 使用案例、用户知识和人工智能通知的持久性会影响采取的行动。间歇性或短暂的事件可能需要重复。更严重的事件可能需要一个升级路径。 透明度 信任可以来源于理解一个系统的工作方式,或者来源于长时间使用它的经验。AI的复杂性和黑盒特性可能会导致怀疑,尤其是当人们觉得AI的创造者并不完全理解它是如何做决定的,以及它具体学到了什么。更大的透明度可以通过理解和解释AI模型来帮助建立信任。可解释AI(XAI)指的是产生能够展示AI算法为何以及如何做出特定决策的模型的方法和技术。它有助于利益相关者以不同格式了解决策是如何做出的:通过确定哪些输入因素在做出推理时最为重要,并通过提供解释和回答“为什么”和或“如果会发生什么”的问题。它还有助于人类操作者在决策过程中。如果操作者对响应不满意,可以使用计算论证技术进行进一步调查。 AI电信领域的创造者应提供可解释人工智能(XAI)方法,以帮助建立其直接客户(例如,服务提供商)的信任,进而使他们能够为其订阅者建立信任。AI的可解释性应从设计开始,贯穿于实施过程,作为内置功能,以确保AI开发全生命周期的透明度。此外,应研究并开发不同的XAI技术,以解释不同类型的机器学习(ML)方法。 《爱立信皮书》3展示了应用于不同人工智能机器学习方法的多种可解释人工智能(XAI)技术,包括机器推理(MR)和强化学习(RL)。这些XAI技术生成的解释不仅有助于向人类解释决策,还支持自动化,例如,在与其他人工智能技术结合进行根本原因分析时。 机器学习可解释性即,特征分析技术(包括SHAP和LIME)可以在多个电信用例中使用 ,以识别和解释特定机器学习模型输出的问题和根本原因,同时确保机器学习模型的整体正确性。这些技术可以应用于基于机器学习的预测,以调查对某些预测结果贡献最大的特征,并验证机器学习模型的正确性。这些可解释性技术的结果可以帮助识别问题的根本原因。5G切片保证就是这样一个用例,其中这些技术得到了彻底的调查和测试。在这个用例中,某些服务质量(QoS)要求(如吞吐量、延迟和可用性)在服务级别协议 (SLA)中与客户达成一致,并且在整个服务过程中必须满足。 切片的生命周期。ML模型被用于主动识别任何潜在的对约定的QoS(服务质量)要求的违规行为。在预测中发现违规时,采用可解释性技术来识别最有助于问题根本原因的最有贡献的特征,从而有助于NOC(网络运维中心)工程师识别问题的根源4这些技术可以以类似的方式应用于多个用例,例如细胞形状塑造和关键绩效指标(KPI)退化预测,专注于延迟和网络吞吐量相关的优化。 机器学习中的可解释性RL因其动态特性、在线训练、与环境互动以及在电信领域中对传统基于规则技术的卓越性能,适用于解决许多蜂窝网络问题。RL代理在环境中执行动作(如应用策略),以最大化奖励。RL的可解释性包括应用于不同RL组件的方法,例如奖励和政策解释。 在一个基站中,天线被倾斜向上、向下或保持不变以优化关键性能指标(KPIs),即网络的覆盖范围、通过减少干扰提高质量,以及网络的容量吞吐量。覆盖范围指的是用户设备(UE)可以接入蜂窝网络的区域,而容量指的是蜂窝网络可以同时处理的流量量。远程电气倾斜(RET)指的是通过RL代理调整天线的倾斜角度以优化上述提到的KPIs。增加下倾角会减少天线覆盖的区域,存在留下某些区域无覆盖的风险,但由于信号更强 ,会增加覆盖区域内的容量。相反,上倾角会导致覆盖范围更大,但由于信号较弱,容量会降低。在蜂窝网络中,天线的远程电气倾斜(RET)优化中,可解释性非常重要。解释有助于理解特定调整背后的原因。以下可解释强化学习(XRL)方法被应用于此用例5 子奖励 总体薪酬多重 图2:总回报被分解成多个子回报函数,以提高可解释性。 RSRP drDQN 国家 SINRQvalues 吞吐量 DQN Qvalues 国家 图3:奖励分解为覆盖范围(RSRP)、质量(SINR),并且用于RET用例的容量(吞吐量)子功能 奖励分解通过将奖励分解成多个子函数以调整倾斜度(见图2和图3),为代理的决策提供了直观的对比局部解释,同时实现了与原始DQN算法相同的性能。生成的对比解释非常易于用户理解,因为它们简洁地回答了诸如“你为什么决定向下倾斜而不是向上倾斜?”等问题。 线性模型U树(LMUT)在采用能够生成局部和全局解释的完全透明线性模型的同时达到高性能(见图4),然而,它的透明度不如奖励分解。 自主政策解释总结已训练的政策,并用自然语言对其进行解释,从而使政策被每个人包括非专业人士理解。 通过嵌入式自预测进行对比解释,产生了关于强化学习代理内部表示(深度神经网络的中层或内部层)的局部解释。它比较了两种不同的行动,例如为什么天线向下倾斜而不是向上。 RSRP Qvalues SINR 吞吐量(Throughput)倾斜 P Q22360RSRP038SINR917Tilt Q2579208RSR 263SINR377Tilt Q2278377RSRP847SINR643Tilt RSRP 072 RSRP 034 图4:LMUT通过将训练好的代理的神经网络转移到具有线性回归叶节点的决策树中,从而从训练好的代理中提取一个透明的模型,其中树本身是透明的。 除了实现透明度和AI自动化之外,爱立信还看到了通过使用XRL减少输入特征集的潜力。开发了一种新型方法,用于连接黑盒强化学习(RL)模型输入端(特征分析)和输出端(奖励)的解释,从而产生细粒度解释6用户执行的奖励优先级会产生两种不同级别的解释,并允许在观察到不期望的行为时重新配置强化学习代理。 隐私与数据治理 通常需要或希望防止AI系统的数据被泄露。如果数据包含个人的个人信息,可能受到严格的法律法规要求。商业数据可能包含知识产权或受到合同约束。有时,可以从AI模型中推断出数据或其他相关信息,尤其是在结合公开的数据来源时。要求个人隐私的法律和法规,例如欧盟通用数据保护条例(GDPR)13在AI在各个行业被广泛采用之前。尽管这些规定是以使其具有前瞻性的方式撰写的,但它们并不一定能够预测潜在AI风险的严重程度。此外,通常还会有关于隐私的合同要求。即使在缺乏此类要求的情况下,普遍认为维护隐私在道德上是正确的行为。 确保电信AI中的隐私保护影响整个AI生命周期,并需要应用隐私设计原则和默认隐私保护原则(如GDPR定义所述)7以及其他全球隐私法),从收集训练数据时开始实施控制措施,持续到模型使用(推理)过程。许多与人工智能相关的控制措施与其他类型的数据处理所使用的控制措施相同或类似。数据的性质、收集的目的、谁将使用它、以及何时如何使用,应明确沟通。应仅收集实现目的所需的最小数据量。不必要的字段应被删除或屏蔽。应使用匿名化、加密、认证和授权等控制措施来确保适当的访问。数据的用途应记录并可供审计。一旦不再需要,数据应安全删除。 由于AI模型是从训练数据中学习的,从某种意义上讲,数据包含在模型中。因此,攻击模型以提取训练数据本身或对其做出推断的情况并不令人惊讶。隐私增强技术(PETs ),包括差分隐私,存在于帮助使AI模型对这类攻击不那么敏感。 开发者还可以分析模型对数据提取的敏感性,例如需要多少次查询。此类指标可以提供关于部署该模型所涉及的隐私风险的相关决策信息。 数据在训练过程中可能会因安全措施不当而泄露。当使用联邦学习时,多个拥有独立数据集的参与者可以共同构建一个单一的全局模型。这有助于他们保持数据集的隐私,但所使用的协议必须精心设计,以确保没有信息泄露。 多样性、非歧视和公平 模型偏差可能源于训练数据的偏差,而这种偏差本身可能源于历史偏见和不平等。它也可能是由代表性不均衡造成的。一个例子是用于与用户互动的自然语言处理系统,例如聊天机器人或支持票务系统。即使在单一语言中,训练此类系统也应考虑不同的说话风格、习语和教育水平。并非每个人都说得很好,但每个人都应享有同样的服务水平。 避免偏见的步骤包括: 理解在输入数据中哪些类别需要被同等对待 确保每个类别在训练集中都有充分的代表性,无论其大小如何 认识到历史不平等性,这些可能对当前问题相关,并据此调整数据 确保模型稳健性,包括彻底的测试 在整个模型开发过程中单独考虑类别,以确保模型对每个类别都表现出良好的性能 甚至一个看似纯粹的技术问题也可能存在影响人们的偏差,有时这种影响是微妙的。考虑使用人工智能来构建和运营移动网络。这种影响(或偏