了解生产中LLM的攻击面 训练和部署AI模型会导致新的安全漏洞——从AI供应链中的敏感数据暴露到提示注入攻击。 以下是生成式AI工作流程中的一些潜在风险。 User 提示 运行时漏洞、敏感数据上传到模型、即时注入攻击 AI应用和关联数据的权限过于宽泛 AI应用 在从培训中删除敏感数据时故意使数据中毒或疏忽 潜在的数据暴露从模型访问 组织数据 训练数据 数据库已部署的模型 接地/环境/RAG 推理数据 数据库 模型蔓延、供应链漏洞、未经批准的技术 、合规性问题 模型响应 敏感或受监管的数据暴露 提示日志存储 敏感的、受管制的或版权材料曝光 由于训练数据污染 数据暴露和非兼容的AI用例 提取攻击和运行时漏洞 代理/无服务器 外部API 函数/API调用更新或查询内部数据库 AI模型管理数据的治理问题 使用PrismaCloudAI-SPM改善您的AI安全状况 AI模型发现和库存 姿势和风险分析 数据暴露预防 发现不同云环境中的已部署模型 。项目相关资源,并获得对整个AI管道的端到端可见性。 识别AI供应链中的脆弱性更快。发现可能导致数据泄露或组织资源滥用的配置错误模型及相关云资源。 应用专门设计用于AI推理和训练数据的数据发现与分类能力。接收潜在数据泄露或未授权访问的警报。 3000制革路圣克拉拉,CA950 54主要:+1.408.753.4000销 售:+1.866.320.4788支持: +1.866.898.9087www.paloaltonetworks.com ©2024PaloAltoNetworks,Inc.我们在美国和其他国家的商标列表 司法管辖区可以在https://www.paloaltonetworks.com/company/trademarks.html上找到。本文提及的所有其他标记可能是其各自公司的商标。