从 0 到 1 构建 RLHF 系统——小红书大模型团队的探索与实践

摘要

在QCon上海2024大会上,小红书大模型团队分享了自研RLHF系统的设计和优化。本文将介绍,随着LLM的发展,超长文本、多模态、PPO(Proximal Policy Optimization)训练本身的复杂度等带来了巨大的技术挑战,AGI团队通过异构、同构组网架构以及一系列训推一体优化方案,全面超越开源框架,并展示了RLHF之后模型的效果提升。

欢迎在评论区写下你对这篇文章的看法。

评论

首页 - Wiki
Copyright © 2011-2025 iteam. Current version is 2.139.0. UTC+08:00, 2025-01-05 05:44
浙ICP备14020137号-1 $访客地图$