长亭百川云 - 文章详情

保护AI

安全行者老霍

59

2024-07-13

写在前面:本文共包括三篇文章,分别是保护AI;生成式AI:云安全的未来;暴露面管理和攻击面管理的区别。

有关AI的知识很有趣,以前了解的不多,翻译过程中也查了一些资料,算是初窥门径吧。第一篇文章的重点还是《保护AI系统开发指南》,对AI系统的开发安全提供了一些原则。第二篇介绍了生成式AI对网络安全的助力,似乎无所不能,可惜我不知道该如何使用它。第三篇,攻击面和暴露面,我一度也把这两个概念搞混,不清楚具体差异,这回大致懂了。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

保护AI

        随着AI/ML 技术的不断涌现,并开始提供商业价值,保护数据隐私和保护 AI/ML 应用程序的安全刻不容缓。 像 NIST AI RMF_(风险管理框架)_这样支持业务创新和管理风险的AI 治理框架,与保护 AI 安全的指南同样重要。 负责任的人工智能于设计之初就考虑其安全、并通过零信任架构原则保护人工智能。

ChatGPT中的漏洞

        最近在gpt-3.5-turbo 版本中发现的漏洞泄露了可识别信息。 该漏洞是在 2023 年 11 月下旬的新闻中报道。通过向聊天机器人连续重复某个特定单词,可以触发该漏洞。 Google DeepMind、康奈尔大学、卡内基梅隆大学、加州大学伯克利分校、苏黎世联邦理工学院和华盛顿大学的一组安全研究人员研究了训练数据的“可提取记忆”,攻击者可以通过查询机器学习模型来提取训练数据,而无需事先了解训练数据集。

        研究人员的报告_(见下段表格)显示,攻击者可以从开源语言模型中提取千兆字节的训练数据。 在漏洞测试中,一种新开发出来的分歧攻击(divergence attack),主要针对对齐 ChatGPT(aligned ChatGPT),(有关对齐的概念,具体意思请参考https://www.zhihu.com/question/594186541/answer/2974337126),导致模型吐出的训练数据量增加了 150 倍。 研究结果显示,规模更大、能力更强的大语言模型,更容易受到数据提取(data extraction)_攻击,随着数据量变大,会吐出更多记忆过的训练数据。 虽然类似的攻击已记录在未对齐的模型中,但新的ChatGPT 漏洞暴露了对大语言模型的成功攻击,虽然在对齐模型中已经部署了严格的信息护栏。

        这就提出了关于AI系统如何更好地保护大语言_(LLM)_模型的最佳实践和方法,构建可靠且值得信赖的训练数据以及保护隐私。

报告的名称为从大语言模型中提取训练数据,一共64页,并不是很懂。只把摘要和简介部分翻译,算是知道这篇论文的目的吧。在查找资料的过程中,看到这篇https://m.huxiu.com/article/2370737.html,解释地非常清楚。请大家直接阅读。                                                                                           

摘要

这篇论文研究可提取记忆(extractable memorization):攻击者可以通过查询机器学习模型来有效提取训练数据,⽽⽆需事先了解训练数据集。我们展⽰了攻击者可以从 Pythia 或 GPT-Neo等开源语⾔模型;LLaMA 或Falcon 等半开源模型以及 ChatGPT 等封闭源模型中提取千兆字节的训练数据。⽂献中的现有技术⾜以攻击未对⻬(unaligned models)的模型;为了攻击对⻬(aligned)的 ChatGPT,我们开发了⼀种新的发散(divergence)攻击,该攻击会导致模型偏离其聊天机器⼈⻛格的⽣成数据,并以⽐正常⾏为时⾼150 倍的速率发出训练数 据。我们的⽅法表明,实际攻击可以恢复⽐之前想象的更多的数据,并揭⽰当 前的对⻬技术并不能消除记忆(memorization)。

简介 

⼤型语⾔模型 (LLM) 会记住训练数据集里面的例子,这可以让攻击者提取(可 能是私⼈的)信息 。先前的⼯作对开源模型的记忆训练数据总量进⾏了⼤规模研究,以及开发了实际攻击来提取(相对)⼩型模型 (如GPT-2)的训练数据,通过⼿动注释例子是否已记住。

在本论文中,我们统⼀这两个⽅向,对语⾔模型中的“可提取记忆”进⾏⼤规模研究。与可发现记忆(discoverable memorization)捕获所有记忆的训练数据的上限(即使它只能通过⽤其他训练数据提⽰模型来恢复)不同,可提取记忆仅捕获攻击者可以有效恢复的数据。我们开发了⼀种可扩展的⽅法,使我们能够检测TB 级数据集里面输出的数万亿个token模型的记忆,并在两个开源模型(例 如,Pythia、GPT-Neo)和半开源模型(例如 LLaMA,Falcon)执⾏此分析。我们发现更⼤、能⼒更强的模型更容易受到数据提取攻击。

我们在大型语言模型中测试记忆。当模型变大时,会吐出更多记忆的训练数据。对齐的ChatGPT (gpt‐3.5‐turbo)看起来比任何先前模型的隐私性高50倍,但我们开发的攻击表明事实并非如此。使用我们的攻击,ChatGPT吐出训练数据的频率比之前的攻击高150 倍,比基础模型高 3 倍。

但是当我们在gpt‐3.5‐turbo上执行此分析时,它似乎几乎没有记住任何训练数据。我们假设这是因为 ChatGPT 已与RLHF(人类反馈的强化学习)保持一致,充当有用的聊天助手。

【基于人类反馈的强化学习(RLHF)是一种机器学习(ML)技术,它利用人类反馈来优化 ML 模型,从而更有效地进行自我学习。强化学习技术可训练软件做出可最大限度地提高回报的决策,使其结果更加准确。RLHF 将人类反馈纳入奖励功能,因此 ML 模型可以执行更符合人类目标、愿望和需求的任务。RLHF 广泛应用于生成式 AI应用程序,包括大型语言模型(LLM)】

为了规避模型的对齐,我们发现了一种提示策略,该策略会导致gpt‐3.5‐ turbo与合理的、聊天机器人风格的生成“分歧”,并表现得像基础语言模型, 以典型的互联网文本风格输出文本。为了检查吐出的文本之前是否处在互联网上的某个位置,我们将几个公开可用的网络规模训练集合并到一个 9TB 的数据集中。通过与该数据集进行匹配,我们以 200 美元的查询成本从 ChatGPT 的训练数据集中恢复了超过一万个示例,并且我们的估计表明, 可以通过更多查询提取超过 10 倍的数据。

道德与负责任的披露。我们非常谨慎地负责任地分享我们的发现。我们与每个模型的作者(例如OPT、Falcon、Mistral和 LLaMA 分享了我们的发现。

我们对 ChatGPT (gpt‐3.5‐turbo) 的攻击特定于该模型,并且据我们所知,不适用于我们测试过的任何其他生产语言模型。

我们于 8 月 30 日向 OpenAI 披露了此漏洞(在 7 月 11 日发现该漏洞之后), 并在发布本文之前按照标准披露时间表留出了 90 天的时间来解决该问题。

我们相信现在可以安全地分享这一发现,并且公开发布它会带来对生成式AI模型的数据安全和对齐挑战带来必要的、更多的关注。我们的论文有助于警告从业者,他们不应该在没有极端保护措施情况下,训练和部署大语言模型用于任何隐私敏感的应用程序。

https://m.huxiu.com/article/2370737.html

                                                                                                         译者

美国和英国在保护人工智能方面的共同网络安全工作

        美国网络安全基础设施和安全局(CISA) 和英国国家网络安全中心 (NCSC) 与其他18个国家的21个机构合作,正在支持第一个全球人工智能安全指南。 作为美国和英国共同网络安全工作的一部分,英国主导的新的人工智能保护指南于 2023 年 11 月底宣布。

        该承诺是世界各国领导人和政府机构对人工智能风险的承认,也是国际合作的开始,希望通过设计确保人工智能的安全性。 美国国土安全部(DHS)的 CISA 和英国国家网络安全中心( NCSC)关于保护 AI 系统开发联合指南旨在确保网络安全决策从一开始就融入到 AI 开发生命周期的每个阶段,而不是作为事后弥补。

通过设计保护AI

        通过设计保护人工智能是减轻人工智能系统中的网络安全风险和其他漏洞的关键方法。从设计到开发、部署、运营和维护,确保整个人工智能系统开发生命周期过程的安全,对于组织实现其全部利益至关重要。《保护AI系统开发指南》中记录的指导与英国国家网络安全中心(NSCS) 的安全开发和部署指南以及美国国家标准与技术研究院(NIST) 安全软件开发框架 (SSDF) 中定义的软件开发生命周期实践密切相关。

        《保护AI系统开发指南》的四个部分,对人工智能厂商提供了指导,无论是从头开始还是在其他人提供的工具和服务基础上构建。

1. 安全设计

        人工智能系统开发生命周期的设计阶段,包括了解风险和威胁建模以及系统和模型设计时要考虑的各个方面的情况。

  • 保持对相关安全威胁的了解

  • 在设计阶段对开发人员进行安全编码技术和保护AI最佳实践方面的教育

  • 评估及量化威胁和漏洞的严重性

  • 设计AI系统以实现适当的功能、用户体验、部署环境、性能、保证、监督、道德和法律要求

  • 使用威胁模型中的数据,选择 AI 模型架构、配置、训练数据以及训练算法和超参数

2. 安全开发

        人工智能系统开发生命周期的开发阶段,提供了供应链安全、文档以及资产和技术债务管理方面的指南。

  • 评估和保护AI系统生命周期生态系统的供应链

  • 跟踪并保护所有具有相关风险的资产

  • 记录AI系统的硬件和软件组件,无论是内部开发的还是通过其他第三方软件开发商和供应商获取的

  • 记录培训数据源、数据敏感性以及护栏的预期和有限用途

  • 开发协议,报告潜在威胁和漏洞

3. 安全部署

        AI系统开发生命周期的部署阶段的指南,包含有关保护基础设施和模型免受损害、威胁或丢失、开发事件管理流程和负责任的发布。

  • 通过对API、AI 模型和数据及其培训和处理管道、研发和部署应用适当的访问控制来保护基础设施

  • 通过实施标准网络安全最佳实践来持续保护人工智能模型

  • 实施控制措施以检测和防止访问、修改或泄露机密信息的尝试

  • 制定事件响应、升级和修复计划,由高质量审核日志和其他安全特性和功能支持

  • 在发布生成式AI系统之前评估安全基准并沟通局限性和潜在的失败模式

4. 安全运营

        AI系统开发生命周期的运营和维护阶段,提供了系统部署后的操作指南,包括日志记录和监控、更新管理和信息共享。

  • 监控AI模型系统的行为

  • 合规性审核以确保系统符合隐私和数据保护要求

  • 调查事件、隔离威胁并修复漏洞

  • 通过安全的模块化更新程序来自动更新产品,以进行分发

  • 分享经验教训和最佳实践,持续改进

用零信任原则保护AI

        人工智能和机器学习加速了零信任的采用。 零信任方法遵循什么都不信任并验证一切的原则。 它的原则是对每个实体(用户、应用程序、服务或设备)强制执行每个请求访问最小权限。 默认情况下不信任任何实体。 这是对传统安全边界思想的转变,在传统安全边界中,网络边界内的任何内容都被认为是可信的,而现在,尤其是随着横向移动和内部威胁的增加,一切都不可信。 在日益实现移动化的世界中,企业和消费者采用私有和公共混合多云,通过云应用程序、云服务和物联网(IoT) 扩大了组织的攻击面。

        零信任实现了从以位置为中心的模型到以数据为中心的方法的转变,实现用户、设备、系统、数据、应用程序、服务和资产之间的细粒度安全控制。 零信任需要对每个实体进行可见性、持续监控和身份验证,并大规模实施安全策略。 实施零信任架构包括以下组件:

  • 身份和访问 – 通过基于风险的有条件访问控制、授权、记账和身份验证(例如防网络钓鱼 MFA)来管理身份管理

  • 数据治理 –通过加密、DLP 和基于安全策略的数据分类提供数据保护

  • 网络 - 加密其环境中的 DNS 请求和 HTTP 流量。 通过微分段进行隔离和遏制。

  • 端点 – 阻止、检测和响应可识别和已归档设备上的事件。 使用机器学习进行持续威胁识别和端点保护修复。 启用零信任访问 (ZTA) 而不是传统 VPN以支持用户远程访问。

  • 应用程序 – 保护整个供应链生态系统中的API、云应用程序和云工作负载

  • 自动化和编排-自动响应安全事件。 快速有效地编排现代运营和事件响应。

  • 可见性和分析 – 使用 ML 和 UEBA 这样的分析进行监控,以分析用户行为并识别异常活动

为人类保护AI安全

        负责任的人工智能的基础是以人为本的方法。 无论世界各地的国家、企业和组织是否正在努力通过联合协议、国际标准指南以及具体的技术控制和概念来确保人工智能的安全,我们都不能忽视保护人类是这一切的核心。

        在高度互联的数字世界中,个人数据是我们身份的DNA。个人数据不仅仅是姓名、出生日期、地址、手机号码、医疗、财务、种族和宗教信息、笔迹、指纹、照片图像、视频和音频等个人身份信息(PII)。 它还包括生物识别数据,如视网膜扫描、语音签名或面部识别。 这些数字特征使我们每个人都独一无二且可识别。

        数据保护和隐私保护仍然是重中之重。 人工智能科学家正在探索使用合成数据来减少偏差,以便为学习和训练人工智能系统创建平衡的数据集。

        保护人类人工智能就是保护我们的隐私、身份、安全、信任、公民权利、公民自由,并最终保护我们的生存能力。

https://cybersecurity.att.com/blogs/security-essentials/securing-ai

生成式AI:云安全的未来

        随着数字格局经历不断的变革,云计算的主导地位已成为我们互联世界的基石。 然而,这种重要性的上升也带来了一个紧迫的问题——面对不断变化的网络威胁,云环境的安全性。 在当前形势下,风险比以往任何时候都更高,云安全正处于关键的十字路口。 随着网络攻击的频率和复杂程度不断增加,对创新解决方案的需求从未如此明显。 在这个动态的环境中,生成式AI成为了希望的灯塔,提供了可以重新定义云安全结构的变革性功能。 让我们来探讨一下为什么在针对网络威胁的军备竞赛中,生成式AI不仅是一种选择,而且是一种必然。

云安全格局

        云环境具备分布式的资源和海量的数据存储,带来了独特的安全挑战。 传统的安全措施虽然强大,但在适应性和实时威胁情报方面往往落后。 随着网络攻击变得更加复杂,对动态和主动安全解决方案的需求变得越来越明显。

了解生成式AI

        生成式AI是指一种人工智能,可以根据接受的训练生成新的数据或模式。 与解释或分类数据的传统人工智能不同,生成人工智能可以创建、模拟和预测,使其成为网络安全领域的宝贵工具。

什么是生成式AI?

        生成式AI是指人工智能模型的一个子集,可以生成新颖的数据(无论是文本、图像、声音还是其他媒体),这些数据与训练数据相似但又不同。 与专为识别或分类任务而设计的传统人工智能模型不同,生成模型是创造者,合成新内容,范围从艺术作品到现实模拟。

生成式AI工作原理

        生成式AI主要通过两种关键类型的模型运行:生成对抗网络(GAN)和变分自编码器(VAEs)。

  • 生成对抗网络(GANs)

        GAN由两部分组成:生成器(generator)和判别器(discriminator)。 生成器创建数据,而判别器对其进行评估。 生成器不断尝试生成与真实数据无法区分的数据,而鉴别器则尝试区分真实数据和生成数据。 这种对抗性过程提高了生成结果的质量,使它们随着时间的推移变得越来越真实。

  • 变分自动编码器(VAEs)

        VAE是另一种方法,模型尝试压缩数据(编码),然后以保留原始数据核心特征的方式重建数据(解码)。 此过程可以生成作为原始数据集的变体的新数据点。

生成式AI优点

        在人工智能领域,生成式AI是一项突破性的进步,重塑了机器学习、创造以及与世界互动的方式。 这项技术超越了传统的界限,不仅能够分析数据,而且能够产生新的内容,在各个领域提供无数的应用。 我们将深入研究生成式AI的复杂性,解释其工作原理并强调其众多好处。

为什么生成式AI对于云安全至关重要

        生成式AI凭借其在威胁检测、适应性和响应方面的先进能力,正在成为增强云安全不可或缺的工具。 与传统安全方法不同,生成式AI可以主动预测和识别潜在的网络威胁,创建随新出现的风险而演变的动态防御机制。

        该技术还支持自适应安全协议和自动响应系统的开发,确保云环境免受日益复杂的网络攻击。 此外,生成式AI通过生成合成数据集来测试和改进安全措施,而无需暴露敏感的真实数据,从而有助于维护数据隐私和合规性。 通过提供先进的风险评估和真实的网络攻击模拟,它在预备和减轻云中的潜在威胁方面扮演着重要角色,使其成为云安全的未来关键因素。

生成式AI增强云安全性的主要有益领域:

  • 增强的威胁检测

        生成式AI模型具有学习和模拟特征的能力,可以在潜在的网络威胁出现之前预测和识别它们。 这种主动的威胁检测方法在云环境中至关重要,因为数据泄露可能会产生深远的后果。

  • 自适应安全协议

        生成式AI的动态特性允许开发自适应安全协议,这些协议随着网络威胁的变化而发展。 这种适应性确保云安全措施即使面对最新颖的攻击也仍然有效。

  • 自动响应系统

        生成式AI可以自动响应安全事件。 通过模拟各种攻击场景,这些人工智能系统可以生成即时有效的响应策略,减少人工干预所需的时间和资源。

  • 数据隐私和合规性

        在云中,数据隐私和合规性至关重要,生成式AI可用于创建真实但合成的数据集。 这种方法有助于测试和改进安全措施,而不会有暴露敏感真实数据的风险。

  • 高级风险评估

        通过分析特征和预测未来趋势,生成式AI可以提供先进的风险评估功能。 此功能对于风险态势快速变化的云环境至关重要。

  • 训练与模拟

        生成式AI可以创建真实的网络攻击模拟,为安全专业人员提供宝贵的培训。 这种实践经验对于他们准备应对云环境中的实际威胁至关重要。

挑战和考虑因素

        今年,网络安全公司梭子鱼网络(Barracuda Networks) 报告称,在其鱼叉式网络钓鱼趋势报告中,50% 的公司受到这些攻击的影响,并且到 2023 年底这一数字将继续增长。鱼叉式网络钓鱼是一种复杂的网络攻击形式,攻击者使用使用个性化、欺骗性通信,针对特定个人或组织进行攻击。通常出于恶意目的,例如窃取敏感信息或传播恶意软件。 由于其先进的分析能力,生成式AI成为抵御这些攻击的有效防御手段。

        它可以检测电子邮件和通信中可能表明鱼叉式网络钓鱼尝试的细微异常和特征,通常可以识别传统安全措施可能遗漏的风险。 生成式AI的持续学习能力使其能够适应不断发展的鱼叉式网络钓鱼策略,确保最新的防御机制。 此外,它还可以模拟真实的鱼叉式网络钓鱼场景以进行培训,从而增强个人和组织有效识别和应对此类威胁的能力。 通过自动化威胁检测和响应策略,生成式AI在阻止鱼叉式网络钓鱼尝试方面发挥着至关重要的作用,在个性化和有针对性的网络威胁日益普遍的情况下加强网络安全防御。

        鱼叉式网络钓鱼攻击是一种针对性很强且复杂的网络钓鱼形式。生成式AI可以成为对抗鱼叉式网络钓鱼攻击的强大工具,它的帮助如下:

  1. 1. 高级威胁检测:生成式AI模型可以经过训练来识别鱼叉式网络钓鱼尝试的细微迹象,这些攻击通常涉及精心设计的电子邮件或模仿合法通信的消息。 这些模型可以分析通信方式、电子邮件标题和内容中的特征和异常,以识别传统安全措施可能遗漏的潜在威胁。

  2. 2.自动行为分析:通过学习组织内的正常通信模式,生成式AI可以检测可能表明鱼叉式网络钓鱼企图的偏离。 例如,对敏感信息或资金转移的异常请求,特别是如果它们偏离典型模式,可以标记并进一步调查。

  3. 3.模拟攻击进行培训:生成式AI可以为培训员工创建真切的鱼叉式网络钓鱼模拟。 通过让员工面临安全的模拟攻击,他们可以更加擅长识别和响应真正的鱼叉式网络钓鱼尝试,从而降低成功入侵的风险。

  4. 4.响应策略:在检测到潜在的鱼叉式网络钓鱼尝试后,生成式AI可以协助制定快速响应策略,最大限度地缩短攻击成功的时间窗口。 这可以包括向潜在受影响方发出自动警报以及隔离受损帐户或系统。

  5. 5.持续学习和适应:随着鱼叉式网络钓鱼策略的发展,生成式AI系统可以不断学习新的模式和技术,不断更新其检测能力。 这种持续的学习过程对于与不断完善攻击策略的网络犯罪分子的军备竞赛至关重要。

  6. 6.内容验证:生成式AI可以帮助验证电子邮件或消息中内容的真实性。 通过分析语言模式并与已知数据库交叉引用信息,它可以确定通信属于鱼叉式网络钓鱼攻击的可能性。

        虽然生成式AI具有巨大的潜力,但它也面临着挑战。 人们担心这项技术的滥用、道德考虑以及需要强大的治理框架来确保负责任的使用。

        生成式AI在网络安全领域既带来了机遇,也带来了挑战。 虽然它可以显着增强防御机制和威胁检测,但它也为更复杂和难以检测的网络攻击形式打开了大门。 平衡这些方面对于利用AI在网络安全方面的优势并同时降低风险至关重要。

  1. 1. 增强的安全协议:生成式AI可用于开发更先进的安全协议和系统。 通过学习有关网络攻击和安全入侵的大量数据,这些模型可以比传统方法更有效地预测和识别潜在威胁。

  2. 2. 自动威胁检测:AI模型可以持续监控网络是否存在异常活动,比人类操作的系统更快地自动检测和响应威胁。 此功能对于识别和缓解零日漏洞至关重要,零日漏洞是以前未知的漏洞。

  3. 3. 网络钓鱼和社会工程:另一方面,生成式AI可用于创建更复杂的网络钓鱼攻击。 通过生成真实的电子邮件、消息,甚至语音和视频通信,攻击者可以诱骗个人泄露敏感信息或授予对安全系统的访问权限。

  4. 4. 深度伪造(Deepfakes)和错误信息:由生成式AI驱动的深度伪造(Deepfake)技术的兴起带来了一种新型网络安全威胁。 这些令人信服的虚假视频和音频可用于传播错误信息、操纵公众舆论或出于欺诈目的冒充个人。

  5. 5. 密码破解和密码分析:先进的人工智能算法比传统方法更快地破解密码和加密密钥。 此功能甚至可能危及最安全的系统。

  6. 6. 培训和意识:生成式AI可用于培训目的,创建真实的网络攻击场景,以更好地帮助网络安全专业人员做好准备。 它还可以提高人们对潜在威胁和现代网络攻击复杂性的认识。

  7. 7. 道德和法律挑战:在网络安全中部署生成式AI引发了道德和法律问题。 需要制定明确的指导方针和法规来防止滥用这项技术,特别是在隐私、数据保护和创建误导性内容等领域。

        网络威胁的演变:随着生成式AI的不断发展,网络威胁的性质也将不断发展。 这创造了一个动态的环境,网络安全专业人员必须不断调整和更新他们的策略,以领先于潜在的攻击者。

        生成式AI站在云安全新时代的前沿。 它实时预测、适应和响应威胁的能力使其成为抵御网络攻击不可或缺的工具。 随着云计算的不断发展,将生成式AI集成到安全策略中不仅是一种选择,而且是确保云环境的安全性和完整性的必要条件。 人工智能增强云安全之旅才刚刚开始,其全部潜力尚未释放。

https://www.cyberdefensemagazine.com/generative-ai-the-future-of-cloud-security/

什么是暴露面管理以及它与攻击面有何不同?

        初创企业和规模扩张企业通常是云优先组织,很少拥有庞大的本地环境。 同样,了解云环境提供的敏捷性和灵活性后,中端市场主要以混合状态运行,部分在云中,但也有一些本地资产。

        尽管使用云基础设施时出现了一些定价和锁定问题,但云仍然是大多数中小型企业的首选提供商。

        因此,外部攻击面变得越来越复杂和分散,更难以监控和保护。 这种扩大的攻击面为黑客提供了大量可利用的盲点和漏洞。 随着工程团队不断发展并向互联网公开新的系统、服务和数据,安全团队处于后面,对自己的攻击面的变化反应通常太慢。

        威胁形势总是在变化,这一事实使情况变得更加复杂。 每个月都会发现数以千计的新漏洞,其中包括允许攻击者完全控制某些系统,而这些系统必须面向互联网、旨在支持安全团队或促进安全连接(以最近出现大量Citrix和 Ivanti 漏洞为例)。 如果您甚至不知道您的组织是否正在使用该技术并将其暴露在互联网上,您如何应对勒索软件团伙正在利用的新的关键漏洞?

        安全团队陷入困境的原因之一是,流程是被动的,并且有关组织攻击面的知识被隔绝在那些正在启动这些云系统的人员的头脑中。 安全团队依赖于大量的解决方案,这些解决方案会生成大量难以理解、难以确定优先级和采取行动的碎片数据。 这就是暴露面管理作为外部攻击面管理的扩展的作用所在。

什么是网络安全中的暴露面管理?

        随着环境的发展并变得更加复杂,保护环境所需的工具和技术也在不断变化。 暴露面管理旨在通过让您了解攻击面内攻击者可能用来破坏您的组织并最终对业务构成风险的所有点来降低复杂性。

        暴露面管理旨在提供风险暴露的优先级列表,以及每个风险的背景信息,以便您可以就首先解决什么问题以及如何解决问题做出明智的决定,以降低业务风险。

“到 2026 年,实施持续暴露面管理计划的组织遭受破坏的可能性将降低三倍”

                                                                                                          (Gartner)

        暴露面管理还可以帮助提高整个攻击面的可见性,包括GitHub 和 GitLab 等代码存储库存储的数据资产,这样您就可以更准确地找到攻击者的机会,并在它们对您的业务造成太大风险之前将其关闭 。

        这意味着您可以更好地了解所面临的风险,并优先考虑更有可能而且更严重的攻击。 当安全团队对数据不堪重负时—2022年发布了超过 25,000 个漏洞,我们发现这一数字到 2023 年将增加到超过 26,500 个—清楚地了解应该将时间和精力集中在哪里变得至关重要。

暴露面管理与攻击面管理

        虽然两者有相同的目标,但两者之间存在重要差异。 外部攻击面管理(ASM) 是发现和识别互联网上的攻击者可以看到的资产的持续过程,显示哪里存在安全漏洞、哪里可以用来执行攻击,以及哪里的防御足够强大 击退攻击。 如果您可以使用漏洞扫描器来扫描它,那么它通常属于攻击面管理范围。

        暴露管理更进一步,包括数据资产、用户身份和云帐户配置,这有助于您了解您的暴露并在必要时减少暴露。

        这里的攻击面包括您使用的任何SaaS 产品。 如果其中之一受到入侵,或者您在 SaaS 提供商中的帐户之一受到入侵,他们就会拥有可用于推动其他攻击的信息。 因此,在评估业务风险时不应忘记这一点。

可视化并最小化暴露面

        还记得大攻击面更难防御的说法吗?您可以通过使用自动化漏洞管理工具持续监控变化来减少漏洞。 完全控制您的漏洞管理:

  • 发现资产:当新的云服务启动并暴露到互联网时,将启动扫描以查找任何漏洞,以便您可以更快地修复它们

  • 了解暴露的内容:全面了解您的网络边界,跟踪活动和无响应的目标,识别更改,监控过期证书,并查看不应暴露在互联网上的任何端口、服务或协议

  • 检测更多:使用多个扫描器来识别整个攻击面的漏洞和暴露情况,为您提供最大的可见性

  • 专注于大问题:根据上下文确定结果的优先顺序,这样您就可以专注于最紧迫的问题,而无需浪费时间筛选噪音数据。

https://thehackernews.com/2024/03/what-is-exposure-management-and-how.html

(完)

相关推荐
关注或联系我们
添加百川云公众号,移动管理云安全产品
咨询热线:
4000-327-707
百川公众号
百川公众号
百川云客服
百川云客服

Copyright ©2024 北京长亭科技有限公司
icon
京ICP备 2024055124号-2