创新与治理:人工智能监管动向
随着大数据和计算机能力的提升,人工智能(AI)技术进入黄金发展期,各国开始实施不同程度的监管。欧盟于2021年12月发布《人工智能法案草案》,规定高风险AI系统需经过严格评估和认证。美国虽无全国性AI监管法律,但部分州已开始相关立法,例如加州等17个州在2022年启动AI立法进程。OpenAI于2022年11月推出ChatGPT,标志着AI技术进入通用人工智能时代,但也引发了对生成式人工智能(AIGC)应用的担忧。
欧盟与美国AI监管
-
欧盟:
- 发布《人工智能法案草案》,定义AI并规定高风险系统需评估认证。
- 欧洲数据保护委员会(EDPB)成立特别工作组应对ChatGPT,促进各国合作。
- 意大利数据保护局、法国CNIL、西班牙数据保护机构均对ChatGPT立案调查。
-
美国:
中国《生成式人工智能服务管理办法(征求意见稿)》
-
定义:
- 明确AIGC为基于算法、模型、规则生成文本、图片、声音等内容的技术,涵盖ChatGPT、Bard等。
-
适用范围:
- 面向中国境内公众提供服务,无论提供者是境内或境外主体,具有域外效力。
- 存在适用边界模糊问题,如全球可用但需本地信息验证的产品、未针对中国市场的产品等。
-
合规要求:
- 数据安全:禁止非法获取、披露个人信息,不得进行用户画像。
- 内容合规:要求内容真实、准确、客观,体现社会主义核心价值观,防止生成虚假信息。
- 知识产权保护:不得侵犯训练数据和生成内容的知识产权,涉及训练数据侵权和版权归属问题。
-
责任主体:
- 提供(者)需承担内容生产者和个人信息处理者的法定责任,但现行法律未明确具体规定。
- 存在责任范围不合理问题,需明确用户责任和义务。
-
提供者责任:
- 算法评估和备案、人工标注、标识义务、实名认证、防沉迷设置、用户投诉处理机制、服务稳定性、模型优化、科学引导用户等。
研究结论
- 科技向善性:鼓励发展AI技术的同时,需符合“技术向善”精神的监管。
- 监管完善:中国《征求意见稿》对提供者规定较高合规义务,但销售者、终端用户等监管仍需完善。
- 持续关注:普华永道将持续关注后续正式稿的出台。