您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[理特咨询]:AI 会把我们带入奥威尔的 1984 吗 ? - 发现报告
当前位置:首页/行业研究/报告详情/

AI 会把我们带入奥威尔的 1984 吗 ?

信息技术2023-06-21理特咨询王***
AI智能总结
查看更多
AI 会把我们带入奥威尔的 1984 吗 ?

2023 AI会采取我们进入 《1984》 生成AI如何导致思维正常化 AUTHOR ALbertMeige 导演,蓝移 灵感来自采访 ALixBouLnois,首席数字官员和执行委员会- 雅高集团的tee成员 生成人工智能(AI)是基于神经网络,在 一方面,被训练在巨大的身体数据和信息,而另一方面 手,被人类调整以返回预期的答案。结果令人震惊 性能获得了前所未有的进步,但风险也是如此。在这个蓝移公告,灵感来自对雅高的采访首席数字官(CDO)和执行官 委员会成员AlixBoulnois,我们认为 简而言之,人工智能的黑暗前景之一。 “奥威尔,1984“,是Alix的回应,当我问她认为她最有活力的东西- pian或最不理想的场景 AI,特别是生成式AI。Alix是CDO 是全球酒店集团雅高的专家技术和 数字背景。这是在一次谈话中出现的- 我们对Alix的潜力 酒店业的人工智能(涵盖在一个SEP- 速率蓝移公告)。 是归一化的 认为真的有风险吗? 对于Alix来说,生成AI的主要风险之一是“思维正常化。”正如我们在我们的 文章“我的孩子们用ChatGPT取代了我” 生成AI的主要限制(如 一般的AI)是算法偏差。算法 偏见是指在治疗和治疗方面的差异人工智能将以一种系统和无意的方式方式,在个人或个人群体之间- uals.Thesebiasesreflectshumanbiasesandare 内在的深度学习和神经的方式 networksaretrained.Inthatarticle,weillus- 用一个相当令人不安的例子来证明这一事实其中ChatGPT建议某些人 应该根据他们的国家被监禁 原产地。保障措施当然已经提出限制这种算法偏差,但是 这些保障措施本身也定义了 人类。因此,AI的本质是一种反映那些训练它的人。 当然,保障措施是非常必要的 任何AI的方面。许多用户已经测试过ChatGPT和其他AI对 具有恶意意图的请求,例如设计恐怖袭击或制造武器,除了一些例外,保障措施 到目前为止,已证明还可以。(和 “刚刚好”,我的意思是他们通常工作,但已经破解了几次;它的一个持续的过程。) 与保障措施相关的是在线问题仇恨和互联网对 社会两极分化加剧,正如所反映的在许多社交媒体交流中。AI可以成为强大的工具来帮助打击在线仇恨 它能够快速识别它发生的地方并立即采取行动,例如制定适当的响应或隔离或移除 内容。这可以大大提高效率以及人类调解员的有效性 每天都面临着新投入的海洋。 但是有些人担心正常化的风险- 认为这些保障措施意味着。 例如,谁决定什么是什么不是什么 可接受?在ChatGPT和其他 人工智能,关于可接受性的决定是有效的由员工闭门制作 一家大型科技公司。ElonMusk,联合创始人 OpenAI(ChatGPT背后的公司),在Twitter上表达了自己的担忧 2023年2月: OpenAI是作为开源创建的(即 为什么我给它命名打开AI),非营利公司作为对谷歌的平衡,但现在它 已经成为一个封闭的来源,最大的利润公司由微软有效控制。 根本不是我想要的。 作为巴黎SciencesPo讲师AsmaMhalla 和EcolePolytechnique,最近说,“技术- Nology是规范化的载体。“这 自从第一次printing以来就是这样印刷机大规模生产书籍pos- sible和generativeAI也不例外。它的设计师根据他们的 自己的世界观-历史、经济、战略-tegic,政治,伦理和/或哲学世界的愿景。 “OpenAI有 成为一个封闭的来源,maxi- 妈妈教授-pany...不是我完全是有意的”。 ElonMusk,OpenAI联合创始人 对于一个愿景是自由主义者的开发者来说,对于例如,他们的人工智能可能也会如此。它可能允许使用的言论自由 演讲和提供的内容,有些人会发现不可接受。同样,用更多专制愿景,开发人员的AI可能效仿,禁止使用某些词语 和内容,甚至可能冒犯非常小的少数民族。 为什么这是一个主要的风险?当你使用经典搜索引擎,如谷歌,引擎 返回大量的文档。即使 排名算法是有偏差的,这可能是困难的 为了在实践中避免,只要付出一些努力,它就可以- 可以阅读给定子的利弊- 注入并形成你自己的观点。然而,一个AI 像ChatGPT生产非来源合成. 这种合成不可避免地和无形地嵌入它的设计师的世界视野。信息是根据那个愿景预先消化。它节省了 时间,当然,但这是时候我们否则会用来反思。所以,我们节省时间,但是我们失去了反思。 全球反应-例如意大利的决定 由于隐私问题禁止使用ChatGPT-cerns以及更多签署的公开信 超过1000名AI专家和高管呼吁进一步系统开发的停顿-揭示关注的程度。这个问题提出了 是基本的。这是一个关于谁拥有的问题我们对世界的集体愿景 对我们集体价值观的主权。 作为ChatGPT的个人用户,我们大多数人都希望一种安全可靠的工具。我们大多数人也 重视不 加剧仇恨,避免进一步开车 态度的两极分化。但是随着人工智能的日益发展渗透到日常互动中,在什么时候 内隐的价值观和态度 进入AI合成开始扼杀自由思想?无处不在的AI会开始阻碍健康吗思想的对抗,一个基本前提 进展?这些问题需要考虑- 不幸的是,他们将被探索pos-teriori,现在这些生成AI已经像野火一样在我们的公司蔓延 即使在我们的家里。我们,总的来说,以既成事实发送。 ConcLusion 回到未来 从我记事起,我就对科技着迷。同时,我一直 我记得读过AldousHuxley的勇敢的新世界作为青少年- 在这本经典的反乌托邦科幻小说中,赫x黎提出了一个社会,通过技术- Nology,已经变得非常稳定,没有战争或争吵。但是这种明显的和谐是不可能的- 以牺牲个人自由和自由意志为代价建造的。技术确实影响往往是矛盾的;社交媒体就是一个很好的例子。 当涉及到AI时,这种矛盾情绪再令人担忧不过了。正如Alix所提到的,人们乔治·奥威尔的小说1984以极权国家为条件,真理部 剪裁现实和历史。它的“新话”输出是一种没有细微差别的语言,一种塑造思想-因此导致思想的缺失。 监管总是追随新技术的发展,通常是为了应对而建立的由于其广泛采用而导致的新事件或危机。不难想象 加强控制,这可能会在未来几个月内与人工智能相关的事件以及 years.WillAIslikeChatGPTeventuallyleadustowardNewspeak?DoesChatGPTsignaltheendof 批判性思考和反思?如果这是我们的未来,我们该怎么做呢? adLittLe.com “我们大多数人都重视在线环境- 不确切的环境- 讨厌和避免驾驶 Attiudes的进一步两极分化。“ 蓝移,亚瑟·D·利特尔,探索技术的影响 商业、社会和人类。 版权所有2023,亚瑟·D·利特尔。保留所有权利。有关更多信息,请访问:www.adlittle.com