关于模安局
模安局不是研究机构,也不代表任何组织或官方立场。
模安局是一个围绕 AI 模型安全、治理与风险边界问题的长期观察与分析站点,关注这些问题在现实世界中的 具体呈现方式——它们如何被写进政策文本,如何被实现为产品机制,又如何在实际使用中产生偏差和风险。
这里记录的不是“研究成果”,而是对正在发生的事情的拆解与讨论。内容主要来自公开政策文件、产品实践、 行业案例以及实际使用经验,力求在不简化问题的前提下,把复杂的问题说明白。
模安局更关心的是:AI 在现实中正在被如何使用、如何被约束,又为何频繁失控。
写作原则
- 不追求学术表达,也不生产论文式结论
- 不替任何机构或产品背书
- 不做情绪化判断,尽量回到规则与机制本身
- 所有分析基于可公开获取的信息与可验证事实
面向谁
- 从事 AI 产品、安全、风控、合规工作的从业者
- 关注 AI 治理与公共风险问题的读者
- 希望理解“规则背后的真实约束逻辑”的使用者
作者介绍
管铭,长期从事大模型安全与 AI 治理相关工作,关注模型在实际应用中的安全风险、治理边界与落地机制。
曾参与多项大模型安全国家标准与行业框架白皮书的编写工作,具备从政策、标准到产品实现层面的实践经验。 职业经历涵盖 华为、旷视、数美 等企业,工作方向包括 AI 推理平台、互联网与 AIGC 内容治理、 AI 安全体系建设 等。
目前担任 360 AI 安全产品负责人,负责 360 大模型应用安全及相关产品能力建设,聚焦大模型在真实业务场景中的 风险防控与安全落地问题。
联系与引用声明
合作或引用请邮件联系:[email protected]。引用时请注明来源与版本号,并保留原始链接。