LiteLLM 1.82.7/1.82.8 供应链投毒事件深度研究报告
复盘 LiteLLM 恶意 PyPI 发版事件,梳理时间线、注入方式、传播链路、风险评估与应急建议。
模安局 文章列表
支持按专题与标签筛选,并切换最新或推荐排序。
复盘 LiteLLM 恶意 PyPI 发版事件,梳理时间线、注入方式、传播链路、风险评估与应急建议。
从"它能做什么、能接触什么、能持续多久"出发,提出两层分类框架与0–100安全风险评分模型,覆盖内容创作型、检索问答型、编程执行型、自主工作台型等六类智能体形态,并给出 AISearch、Manus、Cursor、Claude Code、OpenClaw 示例评分与差异化治理建议。
从基础法律到生成式AI专项规章,系统梳理中国大模型内容安全的五层法律框架:网络安全法、数据安全法、算法监管规定、生成式AI暂行办法及技术标准,厘清平台主体责任与合规路径。
NIST 用 Theory of Change 构建五层因果链,评估 AI 标准从投入、制定过程到采用与长期治理目标的真实影响。
梳理全球AI治理的三条主路径,比较不同政治制度下的治理逻辑、立法结构与工具组合,并聚焦生成式AI、深度合成与算法透明度的差异化监管。
企业在选型大模型护栏时,真正需要评估的不是“有没有某个能力”,而是能不能防、拦得准不准、扛不扛流量、能不能长期稳定运营。