您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[Berkeley]:就 CCPA 下的工人保护致加州隐私保护局的联合信 - 发现报告
当前位置:首页/行业研究/报告详情/

就 CCPA 下的工人保护致加州隐私保护局的联合信

信息技术2024-02-27Berkeley有***
就 CCPA 下的工人保护致加州隐私保护局的联合信

2024年2月26日 加州隐私保护局2101竞技场大道萨克拉曼多,CA95834 尊敬的董事会成员, 签署的组织和个人写信提供对加州隐私保护局目前制定的《加州消费者隐私法》(CCPA)规则的反馈,该规则将详细说明在工作场所使用数据驱动技术的一系列重要工人权利和雇主责任。我们赞扬执行董事Soltai,机构工作人员和董事会成员的承诺和奉献精神,为加利福尼亚州的企业,消费者和现在的工人提供指导,以指导美国最重要和最重要的数据隐私政策S. 对于工会和非工会工人来说,人工智能和其他数字技术的出现是最重要的问题之一,它将在未来几十年塑造加利福尼亚州的工作未来,可能会影响工人的隐私,种族和性别平等,工资和工作条件,工作保障,健康和安全,组织权以及自主权和尊严。 我们相信,雇主可以在工作场所使用数据驱动的技术,使工人和他们的企业都受益;我们的目标不是阻止创新 。事实上,我们的组织可以提供许多例子,在这些例子中,技术帮助使工作更安全,开辟了新的技能和职业,并提高了产品和服务质量。但是,它需要像CCPA开始建立的那样坚固的护栏,以确保工人不会受到快速发展的一系列未经验证和未经测试的技术的伤害,其中许多雇主甚至工程师自己都没有完全理解。 通过在CCPA中涵盖工人数据并颁布法规,加利福尼亚州拥有一个历史性的机会,可以领导美国在如何最好地管理人工智能和相关技术创新的决策中将工人确立为关键利益相关者。 在这封信中,我们强调了三个实质性优先事项,以帮助为原子能机构制定规则的工作提供信息。我们的重点是自动决策技术法规草案和风险评估法规草案所涵盖的主题。然而,这封信没有评论这些草案中的具体语言,包括最近发布的版本;相反,我们的重点是提升政策原则,以确保工人得到充分保护。在下面,我们使用这个术语。 1有关概述,请参阅IfeomaAjwa,《量化工人》,剑桥大学出版社(2023年);AetteBerhardt,LisaKresge和ReemSleima,“工作中的数据和算法:工人技术权利的案例”,加州大学伯克利分校劳动中心(2021年);MattScherer和LydiaX。Z.布朗,“警告:Bossware可能危害您的健康”,民主与技术中心(2021年);WileidaNegró,““小技术”将面向低工资工人:回收和建立工人权力的框架”,同事( 2021年);AaroRiee等。,“基本工作:分析大时雇主的雇用技术”,Uptr(2021);AihaNgye,“恒定的老板:在数字监控下的工作”,数据与社会(2021);MerveHico和NestorMaslej,“AI工人监视和生产力评分工具的政策入门和路线图”,AI伦理学3,673-687(2023)。 “工人”包括员工,独立承包商和求职者,遵循CCPA定义与工作场所相关的个人信息的范围。 1.数据驱动的工作场所技术的规模和范围需要为工人提供广泛的保护 随着大数据和人工智能的出现,各行各业的雇主越来越多地捕获、购买和分析工人数据,以电子方式监控工人 ,并使用算法管理来做出与就业相关的重要决策。最近的研究记录了数据驱动技术在卡车和仓储、医院和家庭护理、零售和杂货店、酒店和餐馆、呼叫中心、建筑服务和公共部门等不同行业的使用。雇主使用这些技术的关键功能包括招聘和解雇,劳动力调度,绩效监控和评估以及作业任务的增强和自动化。 虽然数字技术可以使工人和雇主受益,但当前的挑战是缺乏坚固的护栏来确保负责任的使用。许多法律学者已经记录了美国现有法律的不足之处S.保护数据驱动工作场所的工人。由于这些缺陷,对工人的直接伤害开始出现,对有色人种、妇女和移民的影响不成比例。2以下例子说明了研究人员记录和工人报告的应用范围、影响和行业。 ●在仓库中,不受约束地使用生产力管理系统可能会将工作节奏推向危险的极限,并给工人造成重复性的压力伤害。3 ●基于种族,性别,残疾和招聘和招聘算法中的其他特征的偏见可能意味着从申请人池中筛选出合格的工人。 ●许多零工经济雇主跟踪工人,并使用这些指标来确定工人获得工作机会的机会,并设定工资率(一旦考虑到费用,工资率可能会低于最低工资)。 ●家庭护理工作者越来越需要使用平板电脑或手机来验证他们提供的服务。但是,称为电子访问验证的技术也已用于对已经非常困难的护理工作进行微观管理,并纳入过多的GPS监控。6 ●许多低薪雇主使用“及时”的日程安排软件,这些软件通常不会考虑工人的日程安排限制或防止背靠背或不稳定的任务,对工人造成严重破坏,尤其是工作的母亲和有色人种。 2例如,参见IfeomaAjwa,KateCrawford和JasoSchltz,“无限工人监视”,《加利福尼亚法律评论》,105(3)(2017年);BrisheRogers,《工作中的数据与民主》,麻省理工学院出版社(2023年);Solo Barocas和AdrewD.Selbst,“大数据的不同影响”,104加州法律评论671(2016年9月30日);和PalieKim,“工作中的数据驱动歧视”,William&Mary法律评论58(3):857-936(2017)。3MarthaOckenfels-Martinez和SukhdipPurewalBoparai,“隐藏在亚马逊仓库中的公共卫生危机”,人类影响合作伙伴和仓库工人资源中心(2021年)。 4MirandaBogen和AaronRieke,“需要帮助:对雇用算法,公平性和偏见的检查”,Upturn(2018)。 5MichaelReich,“薪酬、乘客和利润:员工身份对加州跨国公司司机的影响”,加州大学伯克利分校劳动和就业研究所,第107-20号工作文件(2020年)。 6AlexandraMateescu,“电子访问验证:监视的重量和护理的破裂”,数据与社会(2021年)。7DanielSchneider和KristenHarknett。“时间到了:工作时间表不稳定对工人 ,家庭和种族不平等的影响,”哈佛大学的转变项目(2019年);EthanBernstein,SaravananKesavan和BradleyR.Staats,“如何公平地管理时间表软件”,《哈佛商业评论》(2014年12月)。 美国工作场所的这种数据驱动型转型在速度和范围上都是前所未有的,需要广泛的工人保护,以应对各种技术,用途和危害。特别是,CCPA法规草案中的几个定义对于确保21世纪工作场所所需的保护范围以及法律本身的意图至关重要。 首先,应将与就业有关的全部决定作为触发法规草案中的权利和要求的重要决定。这将体现CCPA对消费者的保护意图,现在包括工人。这也将使加利福尼亚州与欧盟和美国的主要政策模式保持一致。S.,在人工智能和其他算法系统的使用中,就业本身被视为高风险类别,类似于医疗保健和教育等其他类别。 重要的是要明白,尽管自动招聘系统在公开辩论中引起了最多的关注,但它们只是冰山一角。雇主对数据驱动技术的使用贯穿整个就业生命周期,并对隐私、种族和性别平等以及就业的其他重要方面产生负面影响。与就业相关的重要决定包括雇用和招聘;工资,福利,工作时间和工作时间表的设定;绩效评估,晋升,纪律和终止 ;工作分配,生产力要求、工作场所健康和安全;导致工作增加、自动化和获得提高技能机会的决策;以及其他就业条款或条件。 其次,雇主依赖自动化的程度存在显著差异 决策工具。雇主可以使用这些工具在不同程度上帮助他们做出与就业相关的关键决策。或者,雇主可以依靠这些工具来完全自动化此类决策。我们认为,在CCPA法规草案中详细介绍的权利和保护中,这两种情况都很重要。诸如歧视,侵犯隐私,过度劳累伤害和压制组织权之类的危害同样可以来自辅助和自动化管理技术。此外,作为最近的一项研究文件,试图在雇主对这些技术的不同程度的依赖之间建立细粒度的区别在实践中是笨拙的,在最坏的情况下,可以创建逃避监管忽视的方法。 2.鉴于工作场所自动决策系统的黑箱性质,完全透明和披露是至关重要的权利 CCPA的标志之一是,它认识到透明度和披露的重要性,以便消费者和工人对他们的数据隐私做出明智的决定。但目前,确保在工作场所负责任地使用数据驱动技术的最大障碍是,它们在很大程度上对政策制定者和工人都是隐藏的 。如果没有透明度和披露,求职者将不知道为什么招聘算法会拒绝他们的简历;卡车司机将不知道何时何地。 8参见欧盟的人工智能法案(2024);联邦算法责任法案(HR5628,2023);加利福尼亚州的劳动力技术责任法案(AB1651,2022);和纽约州参议院法案S7623A(2023)。 9LukasWright,etal.,"NullCompliance:NYCLocalLaw144andtheChallengesofAlgorithmAccountability",https://doi.org/10.17605/OSF.IO/UPFDK(2024). 他们被GPS跟踪;工人不会意识到他们的健康计划数据正在被出售。在一个特别有害的例子中,一些雇主正在使用监视来识别试图组织工会的工人,以及数据挖掘社交媒体以识别可能试图组织工会的工人的预测算法.10 鉴于许多数字工作场所技术的“黑匣子”性质,CCPA法规草案中的通知,访问权限和风险评估条款对工人至关重要。 首先,使用前通知和访问权限的框架在就业环境中与在消费者环境中一样重要。工人需要知道哪些类型的自动化决策系统被用来做出关于他们的关键决策。同样重要的是,一旦这样的系统被用于做出与就业有关的决定,工人应该有权知道使用了什么模型,投入是什么,至关重要的是,产出是什么以及雇主如何使用它们。 这种披露是工人识别和质疑错误和不公平待遇的能力的第一步。例如,面向消费者的行业越来越多地将客户评级纳入其员工评估系统。但是我们知道,客户评级是非常不可靠的,并且在种族,性别,口音和其他特征的基础上存在偏见和歧视的巨大风险。11没有披露这些评级已被用来评估他们,以及如何让工人对绩效评估的实际决定因素一无所知。 重要的是,我们认为这些通知要求对雇主来说不会很繁重。对于招聘算法,可以在申请时发出使用前通知。对于在职工人,可以自动通知并作为入职过程的一部分发送给工人,此后每年都会提醒工人使用中的系统。同样,此类系统的实际使用通知以及工人访问有关该使用的更多信息的权利可以程序化和自动化,并且符合CCPA已经制定的一般通知要求。 第二,CCPA法规草案详细规定了一套重要的程序,用于提供数据收集和自动决策系统的风险评估通知。这种评估被广泛认为是识别和减轻数字技术有害影响的关键工具。12在工作场所背景下,在使用前进行风险评估将是绝对关键的;工人等到侵犯隐私和其他危害已经发生时才开始监管是不公平的。此外,在使用前进行风险评估还有助于尽早发现潜在的设计缺陷和危害,因为开发人员和雇主更容易且成本更低。13在此,我们也不认为这些要求对雇主来说是繁重的,因为CCPA法规草案包括对常规行政数据处理的豁免。 10SusanBerfield,“沃尔玛如何关注其庞大的劳动力:零售巨头一直在关注”,《彭博商业周刊》(2015年11月24日)。 11AlexRosenblat,SolonBarocas,KarenLevy和TimHwang,“区分品味:客户评级作为偏见的载体”,数据与社会(2016)。 12EmanuelMoss等人,“装配问责制:公共利益的算法影响评估”,数据与社会(2021);DanielJ.Solove,“数据就是数据的作用:规范使用,危害和风险而不是敏感数据”,西北大学法律评论 118(2024)。 13HenrietteCramer等人,“评估和解决实践中的算法偏差”,互动25,第6期(2018年10月25日);安德鲁·塞尔伯斯特,“算法影响评估的机构观点”,哈佛法律与技术杂志35,第1期(2021年)。 3.在CCPA下,工人的数据应与消费者拥有相同的机构 CCPA的另一个标志是,它为消费者和工人建立了一个基准代理级别