您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[西部证券]:如何看待生成型人工智能的风险与监管 - 发现报告
当前位置:首页/宏观策略/报告详情/

如何看待生成型人工智能的风险与监管

2023-04-06雒雅梅西部证券秋***
AI智能总结
查看更多
如何看待生成型人工智能的风险与监管

ChatGPT监管展望 如何看待生成型人工智能的风险与监管 核心结论 分析师 证券研究报告 2023年04月04日 以ChatGPT为代表的生成型人工智能存在复杂的风险因素。 雒雅梅S0800518080002 宏观专题报告 生成型人工智可能在获取数据时侵犯知识产权,同时其生成内容是否应 受版权保护存在一定争议; 目前以ChatGPT为代表的生成型人工智能在数据获取与保存上存在一定法律风险; 人工智能生成内容被滥用可能带来巨大的伴生风险。 海外主要国家已建立起初步的人工智能监管机制,但仍落后于人工智能的技术应用: 欧盟的人工智能监管遵循风险分级的强监管模式,强调对隐私和数据安全的保护,在数字经济中通过引领监管规则的制定取得有利地位。 美国的人工智能监管遵循有利于创新的轻监管模式,强调监管应有助于创新和发展,对出台监管政策和立法比较谨慎。 目前代表性国家的监管法规均落后于人工智能技术发展与应用,尚不能有效应对生成型人工智能带来的新挑战。 短期生成型人工智能可能面临一定应用限制,长期或将受分级分类管理,鉴别审查工具可能受益。 从各国管理实践与政策讨论看,为了在创新和有效监管间取得平衡,对人工智能进行分级、分类管理或成主流趋势; 短期内,出于数据安全、知识产权等原因,生成型人工智能的应用与市场推广可能短期内面临一定限制; 为了解决技术快速发展带来的监管失能问题,对人工智能生成内容的识别和审核需求将会上升。 风险提示:监管政策超市场预期,相关产业链业绩不及预期。 18621188181 luoyamei@research.xbmail.com.cn 相关研究 经济修复进入第二阶段—中观视点第15期 2023-04-03 海外金融和经济面错位下,对汇率市场影响几何?2023-04-03 国内经济继续修复,欧洲通胀有所回落—宏观经济周报2023-04-02 内外需继续分化—3月经济数据前瞻 2023-03-31 经济延续修复式增长态势—3月PMI数据点评2023-03-31 索引 内容目录 一、生成型人工智能的主要风险3 1.1知识产权争议3 1.2数据相关风险3 1.3生成内容滥用风险4 二、海外代表性人工智能监管机制4 2.1欧盟:遵循风险分级的强监管4 2.2美国:强调创新的轻监管5 三、未来监管趋势判断6 图表目录 图表1:欧盟《人工智能法案》风险等级与监管措施5 图表2:美国会人工智能治理法案梳理6 2022年11月,美OpenAI公司发布了其人工智能聊天机器人ChatGPT,这一基于预训练模型的生成型人工智能产品迅速引起了各界的广泛关注,并因其不同于判别型人工智能的类人交互、多样化功能等特点为人工智能产业应用带来了广泛的想象空间。随着技术发展与产业应用的突飞猛进,人工智能应用与监管措施的差距也逐渐浮出水。3月29日,一千余名人工智能专家及行业高管签署联名信,指出人工智能的应用速度已超过监管与社会的接受能力,对社会和人类构成了潜在风险,呼吁暂停训练比GPT-4更强大的人工智能系统至少六个月;3月30日,美国联邦贸易委员会(FTC)收到来自民间智库人工智能和数字政策中心(CAIDP)的举报,要求对OpenAI及其产品GPT-4进行调查,理由是该产品不符合美政府对人工智能产品“应当透明、公平且可解释”的要求;3月31日,意大利数据保护机构对OpenAI公司非法收集用户信息展开调查,宣布禁止在意大利使用ChatGPT,并限制OpenAI公司处理意大利用户信息。 本报告对生成型人工智能存在的风险进行了梳理,并结合目前各主要国家的人工智能监管机制进行了分析,以期对判断未来AIGC赛道可能承担的监管压力有所帮助。 一、生成型人工智能的主要风险 1.1知识产权争议 知识产权问题是人工智能治理中的一个重要议题。对于以ChatGPT为代表的生成型人工智能,主要面临模型训练中的知识产权风险和生成内容定位这两类争议。 模型训练中的知识产权风险即“机器学习过程中侵犯第三方知识产权”。人工智能训练需要分析和处理大量的数据,特别是ChatGPT这样的大型语言模型(LLM)需要海量语料进行迭代,在训练过程中必然涉及调用受著作权法保护的作品进行学习,该争议的关键在于人工智能系统的经营者是否有权利用公共领域的数据库。部分专家认为,企业与研究机构使用人工智能系统获取受版权保护的作品用来生成内容,属于获利行为,侵犯了原作者和其他权利人的权益。目前各国的著作、专利法规尚未对此类情况予以明确规定,欧盟于2019年出台的《数字单一市场版权指令》要求各成员国进行立法,规范人工智能开发机构使用受版权保护作品的行为,并规定权利人可以拒绝商用请求。 生成内容的定位问题即“人工智能生成的内容是否应受版权保护、由谁拥有”。过去的人工智能生成内容多为应用算法、规则和模板的结果,不能体现创作者独特的个性,因此不能被认定为法律意义上的“作品”。但以ChatGPT为代表的新型生成型人工智能具有信息处理和再加工能力,模糊了人工智能处理成果和著作人独立思考的边界。一般而言,著作权法保护相关权益的一个基本前提是受其保护的产品需要由人类创造,这导致即使ChatGPT生成的内容具有与人类作者创作的内容相同的特征,甚至具有相近的商业价值。根据OpenAI的服务条款,ChatGPT输出内容的所有权利属于用户,且用户有责任确保生成的内容不违反法律,考虑到目前各国法律均未对人工智能生成内容的权利归属予以明确界定,当人工智能生成内容进入大规模商用阶段后可能存在相应的法律风险。 1.2数据相关风险 首先,ChatGPT获取和处理数据的方式存在合法性风险。根据OpenAI产品和服务的隐私政策,当用户使用所提供的工具(包括ChatGPT)时,供应商会获得用户信息,即个人数据、通信信息、登录细节、有关使用的信息、分析和cookies。这些数据可以披露给各种类型的第三方,并转移到美国进行处理,在一些对用户隐私、数据处理本地化有严格要求的国家,这一处理数据的模式将面临法律风险。 其次,ChatGPT存在数据泄露风险。当用户向ChatGPT输入任何类型的信息时,所提供的信息与数据都将被OpenAILP与其母公司非营利组织OpenAI.Inc所使用,这给部分商业用户造成了商业秘密泄露的风险。根据ChatGPT的服务与使用条款,用户授权OpenAI使用其提供的数据,用于维护、开发和升级其技术,且OpenAI没有对用户作出任何不泄露输入数据的具体承诺。因此,OpenAI确实存在将用户数据泄露给第三方的可能,这一风险在用户向ChatGPT输入构成商业秘密的数据时更加严重,且目前缺乏适当的法律进行监管。事实上,此类风险已经出现:据凤凰网报道,三星公司在引入ChatGPT的近20天时间内,已经发生3起数据外泄事件,其中2次和半导体设备有关,1次和内部会议有关,其原因是三星员工直接将企业机密信息以提问的方式输入到ChatGPT中,造成半导体设备测量资料、产品良率相关信息传输至美国公司并泄露给第三方。为避免此类情况再次发生,三星已告知员工谨慎使用ChatGPT。 1.3生成内容滥用风险 人工智能生成内容展现了强大的功能和丰富的可能性,但在带来效率和便利的同时,其难辨真伪的特性也带来了巨大的伴生风险。根据斯坦福大学发布的人工智能指数报告显示,自2012年以来,人工智能事件和争议的数量增加了26倍。人工智能生成内容一旦被滥用可能会带来虚假信息、网络诈骗等问题,甚至对社会秩序、国家政治稳定和安全造成巨大威胁。例如,在俄乌冲突中,通过人工智能Deepfake伪造的乌克兰总统宣布投降的虚假视频在推特上广泛传播,推特不得不紧急辟谣;FacebookCEO扎克伯格被Deepfake捏造视频篡改发言内容,造成市场恐慌;个人也可能遭受不法分子使用人工智能生成的虚假信息诈骗,或者被伪造不雅视频,侵害其名誉权。 二、海外代表性人工智能监管机制 为应对人工智能应用过程中显现的各种潜在风险,世界主要国家和地区都在探索监管治理路径,并因各自不同的政治、社会、产业特点形成了各具特色的监管模式。其中,欧盟、美国已分别建立了遵循风险分级的强监管、强调创新的轻监管两种不同的监管路径,但目前均落后于人工智能技术发展与应用,尚不能有效应对生成型人工智能带来的新挑战。 2.1欧盟:遵循风险分级的强监管 进入互联网时代后,由于自身缺乏强有力的科研机构和领先科技企业,欧盟转而试图利用其巨大的单一市场优势,强调对隐私和数据安全的保护,在数字经济中通过引领监管规则的制定取得有利地位。 目前,欧洲已通过一系列法律法规初步建立起了监管框架。2018年4月25日,欧盟委员会发布了《欧洲人工智能战略》,为人工智能开发与应用设立了基本的道德和法律框架。2019年4月8日,欧盟委员会人工智能高级别专家组发布了《可信人工智能伦理指南》,从伦理角度提出了“可信人工智能”的评估框架。2020年2月,欧盟委员会发布了《人工智能白皮书》,提出了一系列人工智能研发和监管的政策措施,为研发者提供可遵守的法律框架,标志着欧盟人工智能监管政策从理论讨论走向监管落地。2021年4月21日,欧盟委员会发布了全球首部《人工智能法案》,标志着欧盟在人工智能的监管方面,构建起了以技术风险分级为核心的监管框架。 作为欧盟人工智能监管的关键法律依据,《人工智能法案》将人工智能的应用场景依据风 险等级划分为4种类型,并安排了相应的监管措施。存在“不可接受的风险”的人工智能系统被严格禁止使用,而“极小风险”的人工智能系统则不受监管限制,但鼓励供应商采用自愿认证的方式纳入监管体系(详见图表1)。人工智能供应商必须构建全生命周期的监测机制,在研发阶段,供应商需要建立技术文档以便接受主管部门审查,并确保系统运行的可追溯性;在评估阶段,需要由评定机构对人工智能系统是否符合《人工智能法案》。在上市前,开发者需要将人工智能系统进行注册,并在商品上加贴CE标识以便用户知悉。在上市后,供应商还需要应当保存人工智能系统在整个生命周期的监测数据,并及时向监管部门备案。 图表1:欧盟《人工智能法案》风险等级与监管措施 资料来源:欧盟委员会官网,西部证券研发中心 在依据风险进行分级管理的同时,欧盟人工智能监管框架延续了GDPR的立法初衷,强调个人权利保护和人工智能应用的负面影响,包括个人数据和隐私保护、非歧视等基本权利,但对生成型人工智能带来的新挑战尚未出台有效措施。例如,针对人工智能生成内容滥用问题,2022年1月20日欧盟委员会对《数字服务法》进行了修订,要求平台企业对人工智能深度合成的内容进行标注,以应对生成内容滥用风险,但该法案尚未得到各成员国的国内立法支持,缺乏强制力。 2.2美国:强调创新的轻监管 美国一直重视人工智能技术的发展,并较早通过法律法规对人工智能进行监管。 2016年,奥巴马政府发布了《国家人工智能研究与发展战略规划》,推动系统性研究人工智能技术,促进相关应用发展。2019年,特朗普政府又在这份计划基础上进行了更新,要求探索人工智能在伦理、法律和社会方面的影响,并将安全建设作为人工智能重大战略方向之一。2020年1月,白宫发布了《人工智能应用监管指南》,该指南从监管和非监管两个层面提出了人工智能应用的相关原则和建议,并针对通用或者特定行业人工智能应用的设计、开发、部署和操作提出了若干监管原则。去年以来,美国联邦政府陆续推出了 《人工智能权利法案》蓝图、《人工智能风险管理框架》等关键文件,对人工智能治理的原则进行了进一步的定义和阐释,但尚未出台具有法律约束力的规则。目前来看,美国人工智能监管机制有以下三个特点: 首先,强调监管应有助于创新与发展。通过对美国会立法与政府文件的解读可以发现,美国发展人工智能技术的目的是在科技、产业等领域维护美国的全球领导地位,人工智能监 管亦服务于这一根本目的,其监管政策的核心诉求是建立稳健的创新生态系统,降低人工智能技术发展和应用面临的障碍,并持续促进技术和创新的进