职位描述:
参与大语言模型的安全性研究,识别模型在实际应用中的潜在风险;
协助设计和实现针对提示攻击、生成内容合规性、对抗样本检测等方面的防御机制;
跟踪前沿大模型安全技术,包括但不限于红队测试、安全评估框架、隐私保护等;
搭建实验环境,进行系统性测试与评估,输出研究报告或技术文档;
与团队协作,支持产品级安全能力的落地与优化。
职位要求:
* 计算机、人工智能、信息安全等相关专业硕士及以上学历在读;
* 熟悉自然语言处理、深度学习基本原理,有大模型(如LLaMA、ChatGLM等)使用经验者优先;
* 具备良好的编程能力(Python、PyTorch/TensorFlow),有安全攻防或AI安全方向项目经验者加分;
* 对AI伦理与安全问题感兴趣,具备较强的分析与研究能力;
* 责任心强,沟通良好,能适应快速迭代的研究节奏;
* 有论文发表经历(ACL、NeurIPS、ICLR、CCF-A类会议等)加分。
招聘部门:
阿里巴巴
工作地点:
北京/杭州
注意:为了确保您掌握真实的招聘信息,上述信息均为原始内容。我们的“面试建议”和“模拟面试”均基于原始招聘信息设计和提供。
面试建议:
阿里巴巴大模型安全算法实习生的面试将重点考察候选人在AI安全领域的专业深度和实战能力。这个岗位的特殊性在于它不仅要求扎实的算法基础,更需要具备安全攻防思维,能够预见大模型在实际应用中的各类风险场景。面试官会特别关注你在提示攻击防御、生成内容合规性检测等细分方向的项目经验,以及你如何将研究成果转化为产品级解决方案的能力。 建议准备时重点梳理三个维度:技术深度方面要能清晰解释大模型的安全漏洞原理和防御机制;项目经验要突出安全攻防的完整闭环,包括问题发现、方案设计和效果验证;研究能力则需要展示对前沿论文的理解和批判性思考。记得准备1-2个能体现你安全思维的具体案例,比如如何设计对抗样本检测系统,或者处理敏感内容生成的实践经验。同时,阿里文化强调团队协作和快速迭代,可以准备相关经历来展现你的适应能力。
在线咨询
提示:由 AI 生成回答,可能存在错误,请注意甄别。