您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[IMF]:Landemore 通过 AI 促进更具包容性的民主 - 发现报告
当前位置:首页/其他报告/报告详情/

Landemore 通过 AI 促进更具包容性的民主

2023-12-01IMF坚***
Landemore 通过 AI 促进更具包容性的民主

F&D观点 政me府nt应s.该Inc让lu公di司ng-p培rivatec养ompani更es 民主与AI Nies参加国际协议的各方- 多的包容性 前所未有的,但不包括那些 谁在拥高级有外如交此中多可的能控会制转权向 毁灭任何治理结构 甚至在开始之前就排除它们。 •防渗材料:对于AI治理 工作时,它必须是不可渗透的;给定 AI的能力很容易扩散,只是 政权的一次叛逃可能 让一个危险的模型逃脱。 海莱娜·兰德莫尔 因此,任何合规机制-AI可以通过确保公民的民主制度来增强 nisms应该是水密的,容易 进入强制参与和 代价高昂的退出以阻止不遵守规定。 •目标:鉴于AI的通用-构成自然和复杂性参与治理它,一个 治理制度是不健全的。来解决各种来源的问题 AI风险。在实践中,确定 哪些工具适合针对 哪些风险需要开发一个离散的生活、工作分类潜在的AI影响。AI治理 因此,必须有针对性,风险- 基于的,模块化的,而不是一个-size-fits-all。 真正听到的声音 P 人们担心人工智能是或将是 很快,破坏民主。他们害怕AI 将夺走就业机会,破坏经济稳定,以及 扩大贫富之间的鸿沟。这可以进一步将权力集中在 少数科技公司和削弱政府结构 旨在规范它们。一些人还担心科技巨头政府可能会越来越多地委托人类决策-Sion-制造机器,最终取代演示- 具有“Algocracy”的行为,不是由人民统治,而是由算法统治-Rithm. 治理AI将是跨 民族社区最困难的 未来几十年的挑战。作为 重要的是,作为监管的当务之急-后期人工智能是规范它的当务之急正确。当前关于人工智能的辩论-冰冷往往倾向于虚假的辩论 在进步和厄运之间(或地理- 战略和经济优势与 风险缓解)。而不是思考 创造性地,解决方案往往很相似- 为昨天的问题提供范例。这在AI时代是行不通的。 良好的政策制定至关重要,但是到达那里取决于良好的机构。 为了建立这些机构, 国家社会需要同意 关于如何 想想人工智能。我们遵循这些原则- 作为一个开始。F&D 伊恩布雷默是总统和 欧亚集团和GZERO的创始人媒体。穆斯塔法苏莱曼is InfiAI的首席执行官和联合创始人。 122023年12月 这种反乌托邦的愿景错过了我们目前的能力塑造人工智能发展。作为人类社会,我们拥有政治能力(至少目前)和责任 解决AI可能对我们造成的伤害。我们也有 利用人工智能来增强我们的技术机会 民主以加强我们的集体能力 治理-而不是简单地规范-AI。 与其他道德和政治挑战一样,例如基因编辑,人工智能治理不仅需要更多专家干预和监管,但更多的公民声音 和输入-例如,关于如何导航分布- 人工智能对经济的积极影响。像其他全球经济一样- cerns,如气候变化,人工智能治理需要 这个民主的声音在国际层面上被听到- 国家机构。幸运的是,人工智能有潜力迎来以更具包容性、参与性和审议性的形式 民主,包括在全球范围内。 参与式实验 40年来,许多政府一直在从事实验-旨在将普通公民纳入政策的iments-ing和立法的方式比通过投票更丰富 alone.Theseexperimentshavemostlybelocaland 小规模,很像公民集会和陪审团在气候和其他问题上激增。A2020 “AI监管是可能会更好强制执行和在 AI授权 民主国家” 。 观点F&D 经济合作组织- 发现了发展和发展报告 近600起此类案件中,一个ran-dom公民样本参与深入 有一个问题,并制定了知情的 政策建议(以及 案例甚至提案)。 但是其中一些政治经历- 产品还针对质量颗粒-加强审议Ipation,如在参与式构造中-在巴西组织的教学过程, 肯尼亚、尼加拉瓜、南非和 20世纪80年代和90年代的乌干达,以及最近在智利、埃及和冰岛- 土地,使用了大规模咨询- Ttions和众包伸出援手 对普通人来说。并非每次尝试已经成功了,当然,但所有 是一个显著的fi不能趋势的一部分。一些政府也推出了 广泛的多格式咨询 活动。2019年伟大的国家法国总统发起的辩论 伊曼纽尔·马克龙在回应黄色背心运动,约1.5 百万参与者就是一个例子。另一个是全欧盟会议 关于欧洲的未来,邀请来自欧盟成员国的公民权衡欧盟政策改革和 机构,促使500万人- ple访问网站和700,000到参与辩论。 尽管有一些在线元素,这些大多是低技术、模拟亲- 塞斯,不涉及任何人工智能。 政客们,被原始的 和多方面的数据或不确定其意义,结果很容易被忽视公民的投入。人们被允许 说话,但并不总是被听到。和审议的程度,即使对于那些参与其中,通常是超级fi。 我们现在有机会扩大和改善这种审议过程 成倍增加,所以公民的声音,在它们的丰富和多样性中,可以取得分歧。台湾省 中国就是这种转变的典范。 遵循2014年的SunflowerRev-那里的解决方案,带来了技术-精明的政客掌权,一个在线 开源平台pol.is 被引入。这个平台允许人们表达详细的意见 关于任何话题,来自Uber的常规- 对COVID政策进行投票,并就别人提交的意见。它 还使用这些选票来映射意见- 离子景观,帮助贡献者了解哪些提案会 在明确的同时获得共识-美化少数民族和反对意见-离子甚至游说团体 明显的党派路线。这有助于人们- PLE更好地相互理解和减少两极分化。然后政客使用生成的信息来成形公共政策应对措施 考虑所有观点。 在过去的几个月里,pol.is 进化到集成机器学习用它的一些函数来渲染平台的体验更多 商议。平台的贡献者- 表单现在可以与一个大的车道接合-指标模型,或LLM(一种AI),即代表不同的意见发言 集群并帮助个人figureout 他们的盟友,对手, 以及介于两者之间的每个人。这使得平台上的体验更多 真正的审议和进一步的帮助 去极化。今天,这个工具是自由- 经常与居民协商, 参与1200万人,或近 一半的人口。 面对自己的公司 治理挑战,也见 大规模AI增强的潜力 consultations.Afterlaunchingitsmore 传统的技术官僚监督 董事会,与律师和专家合作 对内容做出决定,元 (以前称为Facebook)开始体验-2022年与MetaCommu进行评论-论坛-随机选择 来自多个国家的用户组 可以考虑气候内容 监管。一个更雄心勃勃的 努力,2022年12月,涉及 来自19个国家/地区的6,000名用户讨论网络欺凌的语言 几天的隐喻。Delib- Meta实验中的错误是 促进了一个专有的斯坦福 插图作者:JoanWong2023年12月13 F&D观点 六种语言的在线版本 Léalaenespañol DisponibleenFrançais! Читайтепо-русски! ﺔﻐﻠﻟﺎﺑﺃﺮﻗﺍ !ﺔﻴﺑﺮﻌﻟﺍ 请阅读中文版! 日本語はこちら! 大学平台(仍然是基本的)AI, 分配发言时间,帮助 小组决定主题,并提供建议什么时候把它们放在一边。 目前还没有证据表明AI 推动者比人类做得更好, 但这可能很快就会改变。当它 确实如此,人工智能促进者将有分歧- 便宜得多的优势, 如果我们要扩大规模,这一点很重要深入的审议过程 人类(而不是人类之间 和LLM模仿者,如在Tai- 台湾经验)从6,000到12,000- 狮子的人。 翻译,摘要,分析 人工智能在审议中的应用- 民主仍在探索中- 瞬时翻译 在多语言群体中,下一个是前沿,就像集合的总结一样-积极的审议。根据最近的 研究表明,人工智能的准确率提高了50% 比人类 总结(由受过训练的人评估本科生比较AISumma-ries和人类编码员的摘要审议成绩单)。一些金额然而,人类的判断很可能会 是许多这些任务所必需的。在 这种情况下,人工智能仍然可以作为一个有用的 对人类分析师、促进者和 翻译A者I可。以增强的更多方式民主在地平线上。OpenAI,推出ChatGPT的公司, 最近推出了一项赠款计划称为民主对AI的投入。 补助金补贴了10个最有希望的-世界上正在研究算法的ING团队-为人类审议服务的历史 (全面披露:我是董事会成员帮助制定的学术顾问- 延迟授予调用并选择win-ners)。这些工具有望很快成为部署到服务,除其他目标外, 关于人工智能治理的全球审议,符合OpenAICEO的愿景 山姆·奥特曼. 应对风险 挑战-几乎在每个领域。它也提出了数字的问题 分裂和潜在的排斥 文盲和技术怀疑群体。这些问题中的许多都需要从政治、经济、 在法律上,在社会上,fi最重要的是,而不是仅仅通过技术。 但是技术也可以在这里提供帮助。 例如,隐私和监控- 兰斯的担忧可以通过诸如零知识之类的东西协议(也称为零知识 证明,或ZKP),旨在验证或“证明”身份而不收集─参与者的ING数据(例如,通过文本消息认证 或通过区块链)。可以使用ZKP 在线投票和审议- 活动上下文-例如,共享 敏感信息或扮演的角色 举报人。同时,生成 人工智能可以让以前稀缺的知识- 边缘和辅导资源可用给每个需要它们的人。 汤姆为公民量身定制的对话者,它可以解释技术政策问题 在人们特定的认知方式中 (包括通过图像)和CON- 将他们的口头输入转化为书面输入 根据需要。 尽管存在局限性和风险,但AI 有可能带来更好的, 更具包容性的民主版本,一个反过来装备政府的人-与合法性和知识的关系-edge来监督AI开发。AI监管可能会得到更好的执行在AI授权中更有效 民主国家。 尽管如此,民主仍然存在风险 本身可能是AI撤销的牺牲品- 解决方案。需要紧急投资安全地增强分词的AI工具-我们的参与和审议潜力 政府。F&D 海伦娜是一个教授 耶鲁大学政治学专业。 她也是AI伦理学的研究员牛津大学研究所和 民主党对AI投入的顾问OpenAI的程序。 www.imf.org/fandd在民主中部署AI有其 风险-如数据偏见,隐私问题,潜在的监视和法律 142023年12月