您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[splunk]:AI 理念助力数字韧性 - 发现报告
当前位置:首页/行业研究/报告详情/

AI 理念助力数字韧性

信息技术2024-02-27splunkJ***
AI 理念助力数字韧性

数字韧性 AI理念助力 AI如何引领安全和可观测性的新时代 AI的春天已经来临。 电话。TimBerners-Lee发明了我们今天所熟知的互联网。Steve 开回始顾,A随I几着十公年众的兴发趣展的史几,次我高们峰可和以低发谷现,,自20世纪50年代中期 如著名果的说历让史任事何件人。说A出le历xa史nd上er的G关ra键ha转m折Be点ll,拨我打们了可世能界会上听的到第很一多通生Jo活bs和发工布作了的第方一式代。iPhone。这些发明从根本上改变了我们沟通、 天和冬天。 AI的发展也经历了几次春 入公众的视O野p,e标nA志I在着另20一22个年终底有发一布天的会C被ha载tG入P史T让册生的重成要式时AI刻进。它年的发工布业让和社AI会带发来展了进又程一。个春天,我们相信它将深刻影响未来几十 2AI理念助力数字韧性|Splunk AI 代表了其潜在影响的一小部分。事实上,A各I实种际形上式被的低估了,成熟度曲线只将像电力一样在现 我膨们胀从期的Ga峰rt值ne,r但20我23们年相新信兴,长技期术来成看熟,度曲线看出,生成式AI将达到预期代生活中无处不在,并在我们的日常生活中成为一种根深蒂固的观念,我 我们所说的AI AI。 是什么意思? 们甚至不会去想它,一切就像开灯一样自然。 今天的数字环境已经做好充分的准备,可以从生成式 AI的强大功能中获益。 学本习文、将深A度I定学义习为和多生个成学式科的超集,包括机器 过同去混,合一和个多人云实环际境上中可采以用访分问散一架个构组,织我的们整几个乎数不据可集能。看但到是整,个随环着境组的织所在有不数严重据依。一赖些)会令将人困IT、惑工的程因和素安(包全括专不业断人变员化卷的入一威场胁混环乱境的和漩对涡数。字系统的更 能差距和人才短缺。 人压类力无,资法源独资立金处捉理襟、管见理肘和。在监干控草这堆种里复找杂到性一,根这让针已技术经够和难安了全,团但队现倍在感他们案必,A须I粉在墨一登整场片。干根草据地C里IS找O到报多告根,8针6%。这的时C,I作SO为认一为种生极成有型前A途I的将缓解决解方技 简而言之,我们认为AI是建立数字韧性的一个必要条件。 关于作者: HaoYang,SplunkAI副总裁 新。在 作为人工智能副总裁,Hao领导Splunk的软件工程师和数据科学家团队,加速公司在AI领域的创Splunk供职前,Hao曾在Visa担任人工智 能副总裁,并在Google、Nokia和IBM等全球知名的公职司位担。任多个AI和大数据创新研究和工程领域 焦虑的解药 AI 虽然AI的前景已经引起了主流关注,但它也面临着严格的审查和不信任,网络安全专业人士尤为关注。我们常说“你无法保护你不知道的东西”,关于AI还有很多有待我们发现的地方。对未知的不适感(这种AI焦虑)是一种自然的心理。 以下是我们所知道的:好的方面和坏的方面都可以用到AI,进而为防御者和恶意行为者提供机会。它将催生新的社会工程尝试,增加数据隐私和安全风险,并扩大攻击面,同时团队将深入研究AI的发展,并降低网络犯罪的门槛。它还将使IT、工程和安全运营更加快速,更加轻松。 缺乏透明度也会加剧AI的不确定性。我们用什么证实AI模型做出的决定,为什么?决策制定对于数字韧性来说尤其重要,一个错误的决策可能导致价值数百万美元的停机时间或代价高昂的数据泄露。虽然人类可以很容易地讨论他们决策背后的原因,但完全可解释的AI还不存在。同样,人类的偏见也屡见不鲜,但对AI的偏见被嵌入到其算法和训练数据中, 因此很难检测。 我们保证,这并不完全是悲观的看法——事实上,真正的情况绝非如此。AI的未来非常光明,它将是实现数字韧性的一股积极力量。 监管和明确的治理可能会解决目前与AI相关的一些问题。但与此同时,率先使用和开发AI的公司(如Splunk)会帮助组织安全有效地采用AI方案。 自2015年AI成为一门学科以来,我们不得不回答一些困难的问题:在这个充满不确定性的时代,我们如何保证客户的安全?我们如何依赖AI来增强数字韧性,而不是对其进行打压? 引领这一AI新时代的公司必须采取深思熟虑的方法来发展它。这就是我们构建AI理念的原因:Splunk对AI的信念永远不会动摇。这些原则将为世界各地的组织提供价值,为我们的长期战略提供依据,最重要的是,推动负责任的AI使用和发展。 有了这一理念作为指导思想,我们将继续进行有关AI的探索。 AI实的现强自大动之化处并在减于少它摩可擦法将的非能常力高。虽效然,但这仍种有方 一将质些疑未知AI的的情安况全。性我和们可题:靠我性们,并相提信出这这种方些法问吗输?出这内种容做是法否准被确污吗染? –PaulKurtz,Splunk首席网络安全顾问,领域首席技术官 Angle进行的访谈中说:“我的浏览器中仍然有基因组学研究 据集上对通用 您知道吗,的创始人和是最先尝 同时还会产生更大的数据暴露和隐私问题。 均面,运行和维护个内部开发的业务应用程序。在安全性方 165 专数门字构韧建性的结嵌果入。式AI可以产生最佳的 SplunkErikSwanRobDas 试但治其愈中癌一症个的原人因?是虽他然们他缺们乏最专初业的知失识败。可Sw以a归n在咎一于次各种Sil原ico因n,的书签,我从来没有完整地读过一篇论文。” 相理反解,的他问们题决:定通解过决搜一索日个志他来们排通除过在IT前基一础家设公施司故的障经原验因深的刻挑让战。S他plu们n个k来人解之决前这曾个因问这题种。繁琐的过程而备受煎熬,因此决定 和同可样,观安测全性性领和域可的观A测I模性型方,面因的为专他家们应具该备设从计实和际构经建验安和全数性据中据获集得进的行最训佳练见,以解提。还供应相该关基的上于下特文定。用为例了和让环A境I在对数模字型韧的性数背定景目下的真而专正门有用构,建它,必并须紧针密对嵌特入定到领日常域工,换作句流话中说。,必须为特 让我们深入研究一下专门构建的AI意味着什么。在大规模数AI大型语言模型(LLM)进行训练,使它们对所 有事情都有一些了解。但使用通用AI来解决特定问题,就像试图用瑞士军刀建造栅栏,而不是电钻。例如,一般的LLM可不以在相较关。为笼统的层面上分析事件,但分析可能不准确或与环境 特定领域的AI依赖相关的高质量数据,因此,可以提供更有用是,至更关准重确要的的结。果。对于安全、IT和工程等专业领域来说,这 查同和样响重应要工的作是流,这中些无特缝定地于工领作域。目的前模,型这能些够团在队现不有得检不测切、换调到另示一符个输选入到项卡A(I服或务完中全,切切换换到回另他一们个的应仪用表程板序并)复,制将粘他贴们响的应提, 安精全疲性力尽和可。根观据测S性p从lun业k人20员23会年让可繁观琐测和性低现效状的报工告作,流组折织腾平的 65%的安全运维中心(SOC)团队抱怨在太多不同的工具和数管字理韧性控方制面台之,每间一转秒换检,测阻碍或了响全应面时和间及都时很的重调要查。当和团响队应不。在得不的使AI用能多在种正工确具的时时,他间,们通就过会正开确始的开上发下多文种集数成据到源现。专有门的构工作建流确的和方表式面。运简行单。地说,如果这是一种重要的方式,它就可以正 1 人们曾经设想,未来,机器会征服整个世界,幻想着卡通片中才有的可以自动驾驶(甚至自动飞行)的汽车、热情洋溢的机器人管家和无忧无虑的太空旅行。但其中一些预测并没有完全变为现实。现有的自动驾驶汽车依赖于在大型数据集上训练的深度学习算法,使车辆能够识别路标、其他车辆和行人,并根据这些智能做出决定。不幸的是,自动驾驶汽车因造成交通堵塞和车祸而成为头条新闻,其中一些事故是致命的。 在驾驶这样的高风险情况下,我们不应该完全相信机器,让它成为唯一的决策者。无论训练模型有多大,车辆都无法,也不应该理解在捡球的狗和在路上飞奔的松鼠之间做出选择的情感意义。 与之类似的是,一个决策可以对可观测性和安全结果产生很大影响,并对业务产生连锁反应。AI应该与人一起配合,充 当副驾驶,快速传递事实,总结事件,并将优先警报带到前端。但人应该始终坐在驾驶员位置上。 在情感在军事战略中的作用一文中,SamuelZilinink教授认为,情感在战争中是有益的,无论是作为一种动机,还是一种操纵手段。特别是蓝方成员,他们必须更有创造力,更有同情心,更有动力去智取对手,因为他们往往会因天衣无缝的战略而占据优势。在任何安全运维中心(SOC)、工程或IT运营团队中,隐性知识、本能和良好的旧常识都被低估了,AI永远无法取代这些技能。 当今的数字战场充满了复杂的环境和攻击方法,存在着很高的风险。要在这一战场中取胜需要只有人类才具备的细微差别。确定应对事件的正确方式并不总是像了解发生了什么、涉及到谁以及事件发生在哪里这么简单。这个过程需要在一个上下文网络中抽丝剥茧,并剥离逻辑和推理层。研究一个新的勒索软件团伙的威胁策略也需要细微差别和人类的智慧。如果没有现有的参考材料,AI系统将很难跟上不断演变的攻击和事件类型。 人机回圈反馈也有助于建立更负责任的模型,从而提高可信度。在数字韧性问题上,信任至关重要。 人是应一该个坐值在得驾信驶赖员的的副位驾置驶上。,而 AI则应 当的今环境的和数字攻击战方场法充,满存了在复着杂很 细微差别。 高取的胜风需险要。只要有在人这类一才战具场备中的 –HaoYang,SplunkAI副总裁 2 开放性和可扩展性将推动AI不断创新。 强大的AI需要大规模的正确数据。AI已经依赖并产生了大量的数据,随着组织不断训练和运行具有数十亿参数的模型,数据量只会越来越大。构建将为未来20年甚至更长时间提供强大支持的AI模型需要深思熟虑、规划和协作。 开放、可扩展的AI有几个不同的含义。可扩展的AI意味着开发人员、数据科学家和合作伙伴以最适合他们的方式构建,扩展或连接AI模型的灵活性。他们可以使用Splunk的专用模型,或者构建他们自己的模型,以匹配他们组织的策略和风险承受能力。 如果说历史教会了我们什么,那就是人们总是希望我们在他们所在的地方遇见他们。正如混合云和多云不会很快消失一样,调整和适应每个组织的特定需求的希望也不会消失。刻板僵化只会带来限制,阻碍创新。鉴于此,AI系统应该易于集成、定制和扩展——它们应该无缝地适用于已经在可观测性和安全堆栈中的许多不同工具。 可扩展的AI不仅使开发人员能够更快、更容易地构建模型,而且还可以促进社群的发展和协作。正如开源促进了软件开发中的创新一样,我们相信可扩展性是构建可扩展AI的基石, 这是真正的团队协作。我们的产品阵营由内部工程团队、合作伙伴和第三方应用程序共同打造,进而使其更加强大——我们相信构建AI同样是一个协作的过程。客户选择共享聚合和匿名数据时,我们将能够根据他们的实际环境对模型不断进行微调和改进。 开放、透明的AI还意味着拉开一直笼罩着它的神秘面纱。之所以说这很重要,有以下几个原因。AI在很多方面都很像潘多拉魔盒。除了数据隐私问题之外,AI模型做出决策的方式也很令人费解,随着AI变得越来越智能和普遍,这个问题只会变得越来越扑朔迷离。扩展、创建和调整任何方案都需要对当前框架有一些了解。我们相信,开发人员和数据科学家可以凭借方案工作方式的透明度进一步调整模型并在其基础上进行新的构建。 这种透明度还可以促进更负责任地使用AI,避免偏见、不实和错误的认知。面向未来需要建立在坚实的基础上,还需要解决问题,这样后期才不会产生问题。 3 将我们的理念付诸实践,实现数字韧性 为了建设一个更安全、更具韧性的环境,我们的AI战略将专注于三个旨在建立价值和信任的领域,从而为我们的客户实现更好的效果。 发问现题关。键问题,并了解如何解决这些 对于安全和可观测性专业人员来说,每天费力地浏览数百个警报并不能真正解决问题。对于拥有专业技能和领域知识的专业人士来说,这也不是最好的时间利用方式,他们更适合制定策略或解决问题。