计算机科学、人工智能、电子工程等相关博士学历
具备大模型(LLM 或多模态)训练经验,深入理解 Transformer 架构及分布式训练框架(Megatron-LM, DeepSpeed,TorchTitan 等)
深入掌握以下至少一方向:
Audio/Text Interleaved Pretraining
Multimodal Alignment & RL
End-to-End Speech Dialogue Modeling
精通 Pytorch,具备海量数据处理经验
具备跨时区协作与良好沟通能力,结果导向,责任心强