领导与AI行业客户的售前和架构接洽,重点关注基于NVIDIA HGX、GPU系统和参考架构构建的GPU服务器、AI集群和大规模训练/推理平台
设计和验证端到端的AI数据中心解决方案,包括基于Spectrum、Quantum、ConnectX和BlueField的服务器平台、存储连接和高性能网络
为AI超级计算、LLM训练和推理工作负载定义系统架构,包括节点配置、GPU拓扑、PCIe/NVLink考量以及网络设计
支持业务团队探索、开发和部署NVIDIA服务器及GPU解决方案机会,从早期技术发现到概念验证和生产部署
负责并执行概念验证和动手实验,以验证GPU服务器在计算、存储和网络领域的性能、可扩展性、可靠性和互操作性
排查涉及GPU服务器、固件、驱动程序、操作系统和网络堆栈的复杂端到端问题,并与内部研发部门和合作伙伴共同推动修复
就平台特性、系统要求和客户需求向服务器OEM厂商、工程和产品团队提供结构化反馈,以改进NVIDIA AI平台和生态系统