负责生成式大模型安全防护产品策略的规划、设计和迭代,包括Safety Alignment、发prompt injection、反model jailbreak、风险生成内容过滤和实时检测机制
负责设计多模态 AIGC 安全检测体系(文本/图像/视频),覆盖违规内容识别、伪造判定、真实度评估、深度伪造检测、模型生成技术追踪等方向
持续跟踪和分析当前生成式AI技术的发展趋势,收集相关信息,并推动防御手段的更新和升级,以确保系统的安全性
协同算法与研发团队,推动AIGC检测技术落地,优化防护效果和性能指标
监控大模型安全态势,分析潜在风险,制定预防性和应急响应策略
跨部门协调(如GA、安全运营、法务、数据),确保策略与业务目标对齐,并推动规模化应用
跟踪行业法规和最佳实践,保障产品符合国内外安全与伦理标准