随着人工智能(AI)、大语言模型(LLM)与机器学习(ML)技术的快速发展,这些技术的安全性变得日益重要。因此,了解如何识别和利用这些系统中的漏洞对于道德黑客、漏洞猎人和渗透测试人员来说变得至关重要。在这篇博文中,我们将介绍一门培训课程,该课程将为您提供在AI、LLM及ML领域中识别和利用漏洞的专业技能。

由 Martin Voelk创建
MP4  | 视频:h264、1280×720 | 音频:AAC,44.1 KHz,2 Ch
类型:电子学习 | 语言:英语 | 时长:31 堂课(5 小时 27 分钟)| 大小:2.54 GB

您将学到什么?

这门课程涵盖了一系列与AI、LLM和ML相关的漏洞,其中包括:

  1. LLM01: 提示注入(Prompt Injection)
    学习如何通过操控输入提示来影响模型的行为。
  2. LLM02: 不安全的输出处理(Insecure Output Handling)
    探讨系统在处理生成结果时可能产生安全问题的情况。
  3. LLM03: 训练数据中毒(Training Data Poisoning)
    理解恶意数据如何影响模型训练过程及其结果。
  4. LLM04: 拒绝服务攻击(Denial of Service, DoS)
    学习如何识别系统被恶意流量压垮的弱点。
  5. LLM05: 供应链漏洞(Supply Chain Vulnerabilities)
    探索AI/LLM开发过程中第三方组件引入的安全隐患。
  6. LLM06: 敏感信息泄露(Sensitive Information Disclosure)
    理解如何保护模型免于泄露敏感数据。
  7. LLM07: 不安全的插件设计(Insecure Plugin Design)
    识别可能被恶意利用的插件设计缺陷。
  8. LLM08: 过度代理(Excessive Agency)
    研究模型决策能力过强时可能引发的问题。
  9. LLM09: 过度依赖(Overreliance)
    探讨对AI/LLM系统过度依赖的潜在风险。
  10. LLM10: 模型盗窃(Model Theft)
    学习模型被窃取导致知识产权与安全威胁的防范措施。

课程提供详细的AI/LLM/ML实验室演练,包括Portswigger的实验室和其他更多资源。

学习要求

  • 基础IT技能:具备基本的计算机操作能力。
  • 基础Web技术理解:掌握网页基本结构和访问方式。
  • 无须Linux、编程或黑客知识:这门课程设计为入门友好。
  • 硬件要求:一台至少拥有4GB RAM的计算机。
  • 操作系统:Windows、macOS或Linux。
  • 网络支持:稳定的互联网连接。
  • 浏览器:任意类型的浏览器均可。

课程描述

这门课程将由网络安全领域的资深专家Martin Voelk教授,他拥有25年的从业经验,持有如CISSP、OSCP、OSWP、Portswigger BSCP、CCIE、PCI ISA及PCIP等多个高级认证。Martin不仅在大型科技公司担任顾问,还积极参与漏洞赏金计划,已发现成千上万个重要漏洞。

整个课程分为理论和实践两大部分,专注于发现和利用AI/LLM系统和应用中的漏洞。课程内容与OWASP Top 10 LLM漏洞分类相一致,包含丰富的实验室实践,由Martin演示并指导如何解答Portswigger与其他实验室的挑战。课程中的视频引导细致,便于学习者模仿与复现。

课程内容包括:

  • AI/LLM入门:基础概念及应用场景。
  • AI/LLM攻击概览:各类攻击手段及其影响。
  • AI/LLM框架/写作实践:发展安全的AI/LLM应用。
  • 丰富的实验室和演示:具体漏洞的挖掘技巧等。

发表回复

后才能评论