潜在专业:
人工智能
工作地点:
长沙-长沙县
职位描述
【岗位职责】:
1. 负责基于 Transformer 架构的多模态大语言模型(MLLM)核心算法研发,包括模型结构优化、自注意力机制改进及预训练策略设计;
2. 负责大模型的微调与对齐工作,运用 LoRA、Prompt Tuning 等技术实现行业场景定制化,提升模型在特定任务中的性能指标;
3. 负责大模型的量化训练工作,完成对 image encoder 和 LLM 模块的 W8A8 和 W4A16 量化;
4. 跟进 ACL、NeurIPS 等顶会前沿成果,将创新算法转化为实际生产力,推动技术边界与产品体验共同升级;
5. 与产品、软件、芯片团队协作,制定模型部署方案,平衡推理性能与计算资源成本;
【
1. 负责基于 Transformer 架构的多模态大语言模型(MLLM)核心算法研发,包括模型结构优化、自注意力机制改进及预训练策略设计;
2. 负责大模型的微调与对齐工作,运用 LoRA、Prompt Tuning 等技术实现行业场景定制化,提升模型在特定任务中的性能指标;
3. 负责大模型的量化训练工作,完成对 image encoder 和 LLM 模块的 W8A8 和 W4A16 量化;
4. 跟进 ACL、NeurIPS 等顶会前沿成果,将创新算法转化为实际生产力,推动技术边界与产品体验共同升级;
5. 与产品、软件、芯片团队协作,制定模型部署方案,平衡推理性能与计算资源成本;
【
任职要求
】:
1. 计算机科学、人工智能、应用数学等相关专业硕士及以上学历;
2. 深入理解 Transformer 架构原理,熟悉 BERT、LLAMA、ViT 等系列模型的演进逻辑与技术细节;
3. 精通 Python 及 PyTorch 框架,熟练使用 Hugging Face 生态工具;
4. 掌握大模型微调全流程,包括SFT(监督微调)、DPO(直接偏好优化)等对齐技术;
5. 在学术会议发表过相关论文,或有 Kaggle 等算法竞赛获奖经历者优先。
1. 计算机科学、人工智能、应用数学等相关专业硕士及以上学历;
2. 深入理解 Transformer 架构原理,熟悉 BERT、LLAMA、ViT 等系列模型的演进逻辑与技术细节;
3. 精通 Python 及 PyTorch 框架,熟练使用 Hugging Face 生态工具;
4. 掌握大模型微调全流程,包括SFT(监督微调)、DPO(直接偏好优化)等对齐技术;
5. 在学术会议发表过相关论文,或有 Kaggle 等算法竞赛获奖经历者优先。