职位简介:
作为微信搜索-大模型后台研发工程师,你将负责搭建搜索场景下的一站式机器学习平台,覆盖从特征计算、样本构建、模型训练到在线推理及运营监控的全流程,并参与优化GPU多机多卡训练框架,提供高性能稳定的模型训练平台,支持大模型场景下的训练稳定性。同时,你将参与大模型场景下的推理性能优化、推理引擎优化加速以及高稳定性推理服务开发,分析Transformer等结构在搜索业务场景下的性能瓶颈,并支持不同加速卡的高性能实现及软硬件协同调优。该职位要求本科以上学历,计算机相关专业,具备优秀的C++编程经验,熟悉常用数据结构与算法,有良好的软件工程能力和逻辑思维,熟悉常见的深度学习训练框架(如TensorFlow/PyTorch)及推理框架(如TRT、VLLM),并具备良好的团队合作意识和沟通学习能力。工作地点为北京。
简历及面试建议:
在撰写简历时,你需要突出你在机器学习平台搭建和大模型训练与推理优化方面的经验。首先,确保简历中明确列出你参与过的机器学习平台开发项目,特别是那些涉及全流程(特征计算、样本构建、模型训练、在线推理、运营监控)的项目。详细描述你在这些项目中的具体职责和贡献,比如你如何优化GPU多机多卡训练框架或提升推理性能。其次,强调你的C++编程能力,尤其是与深度学习框架(如TensorFlow/PyTorch)和推理框架(如TRT、VLLM)相关的经验。如果你有Transformer结构性能优化的经验,务必在简历中详细说明。此外,展示你的团队合作和沟通能力,可以通过描述你在跨团队协作中的角色和成果来体现。最后,确保简历简洁明了,避免冗长的描述,用数据和成果来量化你的贡献,比如“将推理性能提升30%”或“优化训练框架,减少训练时间20%”。
在面试中,面试官会重点关注你的技术深度和实际项目经验。准备时,首先回顾你在机器学习平台搭建和大模型优化方面的项目,确保能够清晰、有条理地描述项目背景、你的角色、技术挑战及解决方案。面试官可能会问及具体的优化方法,比如如何解决GPU多机多卡训练中的稳定性问题,或如何优化Transformer结构的性能。准备好用具体的例子和数据来支持你的回答。此外,面试中可能会涉及C++编程和算法问题,复习常见的数据结构和算法,尤其是与高性能计算相关的部分。面试官还可能考察你的团队合作和沟通能力,准备一些例子来说明你如何与团队协作解决问题。最后,保持自信和冷静,面试不仅是技术能力的考察,也是你与团队文化契合度的评估,展示你的学习能力和对技术的热情。
在线咨询
提示:由 AI 生成回答,可能存在错误,请注意甄别。
