参数化记忆建模与持续学习研究 探索将海量用户数据(百万级token)编码为可检索记忆表征的神经网络架构(基于Transformer、Memory Networks或创新架构) 研究记忆压缩技术,包括KV Cache压缩、记忆蒸馏、增量更新机制等 构建连续学习(Continual Learning)框架,支持模型实时适应用户偏好变化并避免灾难性遗忘
个性化对齐与强化学习 设计并实现大模型个性化对齐训练流程,包括监督微调(SFT)、偏好优化(DPO/RFT)等后训练技术 研究记忆线索生成与深层意图理解方法,实现从模糊query到精准记忆召回的能力跃迁 构建强化学习训练数据集与评估基准,激发模型的个性化生成和决策能力
混合记忆架构与检索优化 探索符号记忆(向量数据库、知识图谱)与参数化记忆的协同建模方法 研究记忆路由机制,实现自适应记忆分块与选择性激活 优化多跳关联检索算法,支持跨层级、跨时空的深层语义关联
系统实现与场景验证 参与个性化记忆模型的端到端实现,包括模型训练、部署优化、API设计等 在真实业务场景(搜索问答、智能推荐、主动服务)中验证技术方案的有效性 撰写高质量技术文档与学术论文,参与顶会投稿(ACL、ICML、NeurIPS等)