职责描述
岗位职责:
协助进行大模型安全攻防技术的研究与验证,包括 Prompt 注入、越狱攻击、对抗样本、模型投毒等方向的实验设计与防护方案探索。
参与大模型训练全流程的辅助工作,包括数据采集与清洗、预训练(PT)、有监督微调(SFT)、强化学习(RLHF、DPO 等),在指导下完成端到端的模型训练与迭代任务。
协助训练数据质量管理,参与数据标注体系搭建、数据去重与脱敏、高质量语料筛选与构建,优化数据管线效率。
协助构建和维护 AI 安全评估基准(Benchmark),参与设计系统化的安全红队测试集,并持续迭代测试覆盖度。
参与 AI 安全护栏系统的设计与开发,涉及内容安全、数据脱敏、行为约束、多模态检测等模块,协助进行检测性能与推理延迟的优化。
跟踪国内外 AI 安全法规与前沿算法(如对齐技术、可解释性、模型鲁棒性等),参与研究成果的转化落地工作。
任职要求:
人工智能、计算机科学、信息安全、网络安全等相关专业,本科及以上学历在读(硕士、博士优先)。
对 AI 安全有浓厚兴趣,有自主学习或实践经历;不要求正式工作经验,但有相关项目、实习或竞赛经历者优先。
熟练掌握 Python,了解 PyTorch/DeepSpeed/Megatron 等深度学习框架中的至少一种,具备良好的机器学习与深度学习理论基础。
了解大模型训练的基本流程(预训练、SFT、RLHF/DPO 的基本概念),有实际参与过模型微调(如 LoRA、QLoRA)或训练的经验者优先。
具备基本的数据处理能力,熟悉数据采集、清洗、去重、标注等流程,有数据集构建经验者优先。
了解当前主流 AI Agent 架构(如 ReAct、Tool Use、Multi-Agent 等),对 Agent 场景下的安全挑战有一定认识。
愿意使用 Claude Code、Cursor 等 AI 辅助编程工具进行开发,能高效利用 AI 工具提升研发效率。
具备基础的系统工程能力:熟悉 Linux 环境,了解 Docker/K8s 容器化部署及 CI/CD 基本概念。
加分项:
有大模型从零预训练或大规模 SFT/RLHF 调优的实战经验(包括课程项目或个人项目)。
有模型安全对齐(Alignment)、红队测试、安全评估相关项目经验。
在 AI 安全、NLP、机器学习等方向有论文发表或投稿经历(包括在投)。
有信息安全竞赛(CTF)、AI 安全竞赛获奖经历。
熟悉模型量化、蒸馏、剪枝等模型压缩与部署优化技术。
有大规模数据标注平台搭建或管理经验。