PENSOURCING AI革命 辩论的框架 公开来源、人工智能和监管 詹姆斯·卡尔·米勒 2023年11月 OpenAccess。保留一些权利。 开放访问。保留某些权利。作为本作品的发布者,Demos希望在保留版权的同时,鼓励尽可能广泛地传播我们的作品。因此,我们有一个开放访问政策,使任何人都可以免费在线访问我们的内容。任何人都可以下载,保存,执行或分发此内容 工作在任何格式,包括翻译,未经书面许可。这是受知识共享的条款的限制。主要条件是: •演示和作者(S)被认为包括我们的网址 •如果您使用我们的作品,您可以在类似的许可下分享结果 许可证的完整副本可在https://creativecommons.org/licenses/by-sa/ 3.0/legalcode Youarewelcometoaskforpermissiontousethisworkforpurposesotherthanthosecoveredbythelicense.DeemosgratefullyacknowledgatestheworkofCreativeCommonsinspiringourapproachtocopyright.Tofindoutmoregoto 该项目得到了 由Demos2023年11月发布 ©Demos.Somerightsreserved.15Whitehall,London,SW1A2DDT:02038783955 关于这个项目 该项目是CASM在Demos致力于阐明,衡量和倡导保护和促进民主价值观和人权的互联网和技术的工 作的一部分。它位于我们的计划中,研究新兴技术及其对社会,民主和经济的影响。 在演示中,我们将人们置于决策的核心,并有兴趣在由部门定义的时代找到共识。在这个项目中,我们热衷于将其付诸实践:研究一个分裂感兴趣的社区的主题,并寻找务实的解决方案,这些解决方案建立在共同利益的共识基础上,而不是助长分裂。 ACKNOWLEDGEMENTS 我们在六个星期的时间内迅速开展了这个项目,以便在AI安全峰会之前提供其见解。 我们感谢普华永道的宝贵见解和支持,并感谢所有为本文中的想法做出贡献的人,他们参加了我们的非公开讨论会议,并反馈了本文件的草案和之前的简报。 超过40位领先的技术人员、来自人工智能公司和投资公司的代表以及来自民间社会的同事参与了这方面的想法分享,代表了关于这个问题的各种观点。我们有意和深思熟虑地邀请了来自最广泛观点的人们来帮助宣传这次对话 。我们非常感谢 来自科学、创新和技术部的官员,以及来自人工智能的官员基金会模型工作组,感谢他们参与这个项目。 最后,我们感谢Demos的同事:MaryBriggs,PollyCurtis,SophiaKnight,NaemaMalik,HannahPerry 以及研究员FlynnDevine的进一步见解和支持。 任何错误仍然是作者的责任。 詹姆斯·鲍尔,演示研究员 CarlMiller,CASM研究总监 政策上下文 在我们发表本文时,英国政府正在布莱奇利公园召开AI安全峰会,来自全球的政府和技术公司齐聚一堂,共同考虑AI治理未来的挑战。这些公司和许多其他公司正在疯狂地竞相开发越来越先进的人工智能模型,以预测其未来 英国即将离任的首席科学顾问告诉议会的技术公司可能是自工业革命以来最具变革性的公司。1 英国政府和世界各国政府一样,被要求在人工智能监管上针锋相对。他们知道他们必须将控制与创新相结合,将安全与速度相结合,将道德与破坏相结合。他们面临着来自公众的压力,他们既看到了人工智能可能带来的巨大好处,也看到了风险。人工智能人才和资本是全球性和流动性的,任何监管制度都必须在激烈的国际竞争背景下反映国家传统。 各国政府必须尽快努力,以尝试和响应AI的发展速度,近年来,AI的发展速度甚至超过了大多数技术倡导者的预期。立法者和监管机构渴望获得对增长,业务和社会的潜在好处 –Butareaccutelyawareofitspotentialrisks.Theserangefromtheneartermobservedhurmsandrisks,includingacceleratingfraud,misinformationandbias,topotentialriskssuchasmassuniversityandevenexistalthreats. 在最好的情况下,监管是一项令人担忧且不确定的业务,充满了意想不到的结果和潜在的反常动机。有了人工智能,它现在必须以与技术本身令人眼花缭乱的速度相匹配的速度前进。决策 必须做的事情既极其困难,又绝对必要。 表明政府了解AI和 有一个计划来安全地推出它将是重要的获得公众的信心,在相当大的 对人工智能安全的担忧。抗议团体使用直接行动来警告他们看到的风险。2内容生产者领导了第一批“数据起义”,反对AI模型摄取其产品。32016年,只有5%的公众将人工智能列为人类面临的三大风险,但在2023年6月重复的调查中,这一比例上升到17%。4 从短期来看,62%的公众认为人工智能会对就业产生负面影响(8%的人认为人工智能会是积极的),只有1%的人“非常有信心”从事人工智能的公司会负责任地这样做,同样,只有1%的人对政府的监管能力非常有信心。5AI的使用 一项美国研究发现,70%听说过人工智能的人不相信公司会使用人工智能。6这些数字强调了建立一个可信的监管体系以维持人工智能在民主环境中的社会合法性的重要性。 1Vallance,P,'HC1324/Q47:科学,创新和技术委员会,'下议院,2030年5月3日。https://committes。parliments.uk/oralevision/13104/html/ 2Meaker,M,“与AI抗议小组一起反对人类灭绝运动”,《连线》,523年6月25日。https://www.wir.co.uk/article/pause-ai-existential-risk 3 4Smith,M,“去年对AI启示的担忧上升”,YouGov,2023年6月5日。可在以下网址获得:https://yougov.co.uk/technology/articles/45782-conferns-ai-apocalypse-rise-last-year[26/10/2023] 5史密斯,M,“英国人认为人工智能会牺牲工作……而不是他们自己的工作,”YouGov,2023年5月19日。可在以下网址获得:https://yougov.co.uk/ 技术/文章/45730-英国人-think-ai-will-cost-jobs-not-their-own[访问26/10/2023] 6皮尤研究中心,https://www.pewresarch.org/internet/2023/10/18/views-of-data-privacy-risks-personal-data-and-digital-privacy-laws/pi_2023-10-18_data-privacy_1-11/ THEOPEN 消息来源挑战 在这种情况下,各国政府被迫面对一个新的监管挑战:人工智能在前沿的潜在风险是否意味着他们第一次需要认真考虑限制自互联网诞生以来支撑互联网创新的开源传统。 这正在迅速成为与人工智能监管相关的最关键问题之一:如何将安全和控制与长期建立的开源正统相结合?这是提供有关模型的技术信息的地方,使更多的人能够开发,托管,再培训和重新利用它。从StableLM到Dolly,从Cerebras-GPT到Llama2,到2023年,已经以开源的方式(尽管程度不同 )发布了许多强大的AI模型;现在,评论员推测开源模型是否会赢得与专有同行的“AI竞赛”。 开源运动长期以来一直为开放软件开发提出了一系列有力的论点。他们认为,使代码可用可以使软件透明,因此更安全,并加快创新。支撑互联网的许多软件都是开源的,它是一种与计算本身一样古老的工作方式。 现在许多人扩展了道德和技术论点也是人工智能的开源。 向外部开发人员甚至公众开放模型显然可以帮助建立对其积极潜力的信心。有保证知道代码的基础 模型是开放的分析和修改可能有助于其更广泛的接受,以及加快其吸收。 但是开源AI并非没有风险:人们可以使用开源AI创建没有护栏的模型,就像我们在应用程序中看到的那样 蠕虫,7一个为帮助网络而建立的生成模型- 罪犯在他们的努力中定义自己为 ChatGPT的“敌人”。然而,开源倡导者指出,一些封闭的人工智能系统很容易被规避,也容易受到网络犯罪分子的攻击 。8 现有的开源AI可用于创建专门用于造成伤害或传播错误信息或创建儿童性虐待图像的模型。9随着模型变得更加强大,意外或故意伤害的可能性也相应增加,有些人认为,可能会与生物武器或核武器相提并论。10开源功能强大的AI模型可能会加剧这种风险。 至关重要的是,一旦模型是开源的,执行任何后来被认为有必要的法规对政府和受监管实体都将更加繁重。很少有组织能够创建基础模型,但是具有相关技能的人可以下载,构建和部署已经制作的模型。在这个阶段,必须在用户级别执行新法规-对于所有相关人员来说,这是一个更昂贵,更复杂的命题。 7Nachiappan,A,“WormGPT:旨在帮助网络犯罪分子的AI工具将让黑客进行大规模攻击,专家警告,”天空新闻,2023年9月18日。可在以下网址获得:https://news.sky.com/story/wormgpt-ai-tool-designed-to-help-cycarriders-will-let-hackers-dev 8 9保护和儿童保护协会:可访问:https://www.sacpa.org.uk/2023/06/05/Why-计算机生成的-虐待儿童-是-下一个-犯罪浪潮-等待-发生/[访问了2023年10月26日] 10Hazell,W,“Sunak主办全球AI峰会和对人类文明威胁的警告”,《电讯报》,2023年6月3日 当前 开放辩论 SOURCINGAI 在公共领域,围绕人工智能监管的辩论 –尤其是对高级模型的开放访问是否需要受到限制-是一个极其两极分化的问题,引发了从事AI工作的人之间的激烈分歧。Netscape的创始人马克·安德森(在 turn创立了Mozilla,该公司生产Firefox浏览器等开源Web应用程序)和风险投资公司A16Z的普通合伙人,将自己定位为不受限制开发的拥护者。 Hismovement,“EffectiveAccelerationists”,or“e/accs”asitsadhementsareidentifiedthemselvesonsocialmedia,thinkthatanyobjectivetoAIdevelopmentisanegative.Inhisrecent“Techno- “乐观宣言”,安德森将“存在风险”,“技术伦理”,甚至“信任与安全”等观点列为“敌人”。11 与此形成对比的是,人工智能安全公司Conjecture的首席执行官ConnorLeahy公开呼吁立即暂停最危险的人工智能开发形式,这一运动(主要被批评者称为“减速主义”)。12 赌注很高,公共职位的范围非常广泛和热情。出现在公共领域的辩论版本通常看起来比它可能更加两极分化 在现实中。电视节目选择最有趣且通常是极端的位置。人们在镜头前或撰写专栏文章和报纸时,对自己的论点做出最有新闻价值的版本 编辑寻找冲突。社交媒体针对分歧进行了微调,而不是细微差别和建立共识。 在这种背景下,Demos努力召集一个私人讨论论坛——包括科技高管、风险资本家、公民社会和政府人士——不是试图解决这个问题,而是试图理解这个分歧的真正性质,任何共识都在哪里,并更好地构建辩论的条款。 但这个问题引发了各方强烈的意见,我们需要创造一个更具建设性和务实的空间来探索这些问题,基于当今新兴技术