
这可以进一步将权力集中在少数科技公司和削弱政府结构旨在规范它们。一些人还担心科技巨头政府可能会越来越多地委托人类决策-Sion -制造机器,最终取代演示-具有“Algocracy”的行为,不是由人民统治,而是由算法统治-Rithm. 治理AI将是跨 这种反乌托邦的愿景错过了我们目前的能力塑造人工智能发展。作为人类社会,我们拥有政治能力(至少目前)和责任解决AI可能对我们造成的伤害。我们也有利用人工智能来增强我们的技术机会民主以加强我们的集体能力治理-而不是简单地规范- AI。 与其他道德和政治挑战一样,例如基因编辑,人工智能治理不仅需要更多专家干预和监管,但更多的公民声音和输入-例如,关于如何导航分布-人工智能对经济的积极影响。像其他全球经济一样-cerns,如气候变化,人工智能治理需要这个民主的声音在国际层面上被听到-国家机构。幸运的是,人工智能有潜力迎来以更具包容性、参与性和审议性的形式民主,包括在全球范围内。 参与式实验 40年来,许多政府一直在从事实验-旨在将普通公民纳入政策的iments -ing和立法的方式比通过投票更丰富alone. These experiments have mostly be local and小规模,很像公民集会和陪审团在气候和其他问题上激增。A 2020 伊恩布雷默是总统和欧亚集团和GZERO的创始人媒体。穆斯塔法苏莱曼isInfiAI的首席执行官和联合创始人。 “AI监管是可能会更好强制执行和在AI授权民主国家”。 在过去的几个月里,pol. is进化到集成机器学习用它的一些函数来渲染平台的体验更多商议。平台的贡献者-表单现在可以与一个大的车道接合-指标模型,或LLM(一种AI),即代表不同的意见发言集群并帮助个人figure out他们的盟友,对手,以及介于两者之间的每个人。这使得平台上的体验更多真正的审议和进一步的帮助去极化。今天,这个工具是自由-经常与居民协商,参与1200万人,或近一半的人口。面对自己的公司治理挑战,也见大规模AI增强的潜力consultations. After launching its more传统的技术官僚监督董事会,与律师和专家合作对内容做出决定,元(以前称为Facebook)开始体验-2022年与Meta Commu进行评论-论坛-随机选择来自多个国家的用户组可以考虑气候内容监管。一个更雄心勃勃的努力,2022年12月,涉及来自19个国家/地区的6, 000名用户讨论网络欺凌的语言几天的隐喻。Delib -Meta实验中的错误是促进了一个专有的斯坦福 政客们,被原始的和多方面的数据或不确定其意义,结果很容易被忽视公民的投入。人们被允许说话,但并不总是被听到。和审议的程度,即使对于那些参与其中,通常是超级fi。 经济合作组织-发现了发展和发展报告近600起此类案件中,一个ran -dom公民样本参与深入有一个问题,并制定了知情的政策建议(以及案例甚至提案)。 但是其中一些政治经历-产品还针对质量颗粒-加强审议Ipation,如在参与式构造中-在巴西组织的教学过程,肯尼亚、尼加拉瓜、南非和20世纪80年代和90年代的乌干达,以及最近在智利、埃及和冰岛-土地,使用了大规模咨询-Ttions和众包伸出援手对普通人来说。并非每次尝试已经成功了,当然,但所有是一个显著的fi不能趋势的一部分。 我们现在有机会扩大和改善这种审议过程成倍增加,所以公民的声音,在它们的丰富和多样性中,可以取得分歧。台湾省中国就是这种转变的典范。 遵循2014年的Sunflower Rev -那里的解决方案,带来了技术-精明的政客掌权,一个在线开源平台pol. is被引入。这个平台允许人们表达详细的意见关于任何话题,来自Uber的常规-对COVID政策进行投票,并就别人提交的意见。它还使用这些选票来映射意见-离子景观,帮助贡献者了解哪些提案会在明确的同时获得共识-美化少数民族和反对意见-离子甚至游说团体明显的党派路线。这有助于人们-PLE更好地相互理解和减少两极分化。然后政客使用生成的信息来成形公共政策应对措施考虑所有观点。 一些政府也推出了广泛的多格式咨询活动。2019年伟大的国家法国总统发起的辩论伊曼纽尔·马克龙在回应黄色背心运动,约1.5百万参与者就是一个例子。另一个是全欧盟会议关于欧洲的未来,邀请来自欧盟成员国的公民权衡欧盟政策改革和机构,促使500万人-ple访问网站和700, 000到参与辩论。 尽管有一些在线元素,这些大多是低技术、模拟亲-塞斯,不涉及任何人工智能。 挑战-几乎在每个领域。它也提出了数字的问题分裂和潜在的排斥文盲和技术怀疑群体。这些问题中的许多都需要从政治、经济、在法律上,在社会上,fi最重要的是,而不是仅仅通过技术。但是技术也可以在这里提供帮助。 大学平台(仍然是基本的)AI,分配发言时间,帮助小组决定主题,并提供建议什么时候把它们放在一边。 目前还没有证据表明AI推动者比人类做得更好,但这可能很快就会改变。当它确实如此,人工智能促进者将有分歧-便宜得多的优势,如果我们要扩大规模,这一点很重要深入的审议过程人类(而不是人类之间和LLM模仿者,如在Tai -台湾经验)从6, 000到12, 000 -狮子的人。 六种语言的在线版本 例如,隐私和监控-兰斯的担忧可以通过诸如零知识之类的东西协议(也称为零知识证明,或ZKP),旨在验证或“证明”身份而不收集─参与者的ING数据(例如,通过文本消息认证或通过区块链)。可以使用ZKP在线投票和审议-活动上下文-例如,共享敏感信息或扮演的角色举报人。同时,生成人工智能可以让以前稀缺的知识-边缘和辅导资源可用给每个需要它们的人。汤姆为公民量身定制的对话者,它可以解释技术政策问题在人们特定的认知方式中(包括通过图像)和CON -将他们的口头输入转化为书面输入根据需要。尽管存在局限性和风险,但AI有可能带来更好的,更具包容性的民主版本,一个反过来装备政府的人-与合法性和知识的关系-edge来监督AI开发。AI监管可能会得到更好的执行在AI授权中更有效民主国家。尽管如此,民主仍然存在风险本身可能是AI撤销的牺牲品-解决方案。需要紧急投资安全地增强分词的AI工具-我们的参与和审议潜力政府。F&D海伦娜是一个教授耶鲁大学政治学专业。她也是AI伦理学的研究员牛津大学研究所和民主党对AI投入的顾问OpenAI的程序。 翻译,摘要,分析人工智能在审议中的应用-民主仍在探索中-瞬时翻译在多语言群体中,下一个是前沿,就像集合的总结一样-积极的审议。根据最近的研究表明,人工智能的准确率提高了50%比人类总结(由受过训练的人评估本科生比较AI Summa -ries和人类编码员的摘要审议成绩单)。一些金额然而,人类的判断很可能会是许多这些任务所必需的。在这种情况下,人工智能仍然可以作为一个有用的对人类分析师、促进者和翻译者。AI可以增强的更多方式民主在地平线上。OpenAI,推出ChatGPT的公司,最近推出了一项赠款计划称为民主对AI的投入。补助金补贴了10个最有希望的-世界上正在研究算法的ING团队-为人类审议服务的历史(全面披露:我是董事会成员帮助制定的学术顾问-延迟授予调用并选择win -ners)。这些工具有望很快成为部署到服务,除其他目标外,关于人工智能治理的全球审议,符合OpenAI CEO的愿景山姆·奥特曼. DisponibleenFrançais! Читайтепо-русски! ﺑﺎﻟﻠﻐﺔﺍﻗﺮﺃ!ﺍﻟﻌﺮﺑﻴﺔ 应对风险在民主中部署AI有其风险-如数据偏见,隐私问题,潜在的监视和法律 www. imf. org / fandd