负责搭建公司AI大模型内容安全防控体系,制定内容安全标准、风险管控策略及落地方案,保障大模型输出合规、安全
负责大模型价值观与安全对齐,配合技术团队设计模型优化方案,防控生成内容中的不良导向、违规信息等风险,提升模型安全稳健性
跟踪AI行业安全动态、政策法规及新型风险,挖掘大模型安全隐患,输出风险评估报告并推动迭代优化,建立风险预警机制
对接算法、运营、法务等相关部门,推动安全策略落地执行,负责内容安全相关标准的更新、同步及配套设施维护
处理AI大模型内容安全应急事件,制定应急处置流程,降低安全风险对业务的影响,确保大模型全场景安全应用