职责描述
团队愿景:在这里,你将让全尺寸人形机器人学会“边走边干活”,用数据、算法和工程推动通用具身智能走进真实日常生活,同时紧跟学术与行业最前沿,将最新技术落地并发表有影响力的成果。
岗位职责
1.基于视频生成模型的交互接触数据合成
使用 Video-based Generative Models(如 Diffusion、NeRF、VideoGPT)生成多样化 loco-manipulation 数据,研究多模态融合(视觉、动作轨迹)提升数据覆盖范围与泛化能力
2.基于仿真环境的日常生活构建,loco-manipulation场景交互训练,模型部署
搭建日常生活仿真场景(Isaac gym、Isaac Sim、MuJoCo 等),在仿真中训练机器人loco-manipulation 策略(包括:BFMs\VLA\World Model等),完成 sim-to-real 的日常生活场景迁移
3.前沿技术持续跟进与成果产出
跟踪学术与行业最新进展,并快速应用到研发任务中,推动最新技术落地并产出高水平学术成果。
岗位要求
必须具备:
熟悉 Python/C++ 开发,具备 ROS/ROS2 工作经验
有强化学习、模仿学习及生成模型(Diffusion/NeRF/Transformer 等)相关经验
熟悉主流机器人仿真平台(Isaac gym、Isaac Sim、MuJoCo、Newton 等)
加分项:
有全尺寸人形/双足机器人运控、vla训练和经验
有多模态数据融合、模拟到现实(Sim2Real)迁移工作经验
在机器人领域顶会(ICRA/IROS/RSS)或计算机视觉顶会(CVPR/ICCV/ECCV)发表过相关工作
有项目全链路经验:从数据采集 → 模型训练 → 实机调试
我们提供
价值百万的多款全尺寸人形机器人用于日常算法开发、测试、部署,提供仿真到实机的完整链路硬件环境
与资深机器人/AI专家直接协作研发,实现通用人形机器人的成长机会