-
作者bayuncao
-
简介
这是 ChaMD5 安全团队 AI 组的第一篇关于大语言模型(LLM)的安全研究报告,尽管团队在 AI 安全领域已经有了一定的积累, 但由于是初次撰写报告, 我们深知在专业性与严谨性方面可能存在着诸多不足。真诚地希望各位读者老师能够不吝赐教,对报告中的任何问题提出宝贵的意见与建议,帮助我们不断改进与提升。
- 引言
- LLM 安全格局:机遇与风险并存
- 剖析核心风险:OWASP LLM Top 10 (2025 版) 详解
- 真实世界的威胁:LLM 与供应链安全案例研究 4.1. 案例研究:数据投毒 - PoisonGPT 实验 4.2. 案例研究:软件供应链攻击 - PyTorch 'torchtriton' 事件 4.3. 启示与影响
- 安全构建:LLM 开发与防御框架及工具 5.1. 开发编排框架:LangChain 5.2. 防御工具:Rebuff AI 5.3. 防御工具:Garak 5.4. 其他相关工具 5.5. LLM 安全工具比较
- 建议与未来展望
- 附录 7.1. 关键术语解释 (Glossary of Key Terms) 7.2. OWASP Top 10 for LLM Applications (2025 版) 完整列表 7.3 参考引用
-
提示本站仅做资料的整理和索引,转载引用请注明出处
相关推荐
-
2019-12-13 08:30:25
-
2020-08-24 00:34:27.417437
-
2025-08-15 02:45:44.623486
-
2017-07-23 12:19:29
附件下载
-
大型语言模型 (LLM) 安全风险、案例与防御策略.pdf