一个暴论的结论

摘要

在《说个暴论》一文中,我们揭露了当前关于大模型行业的一些乱象和痛点问题,其中重点提到了当前企业私有训练,不能调用外部 API 的情况下,可以利用开源 LLM+RAG 部署的方式,但这种方式的最大痛点是硬件成本和维护成本。而如果能调用 API,完全不用管有几台服务器,可以在任意时间,随意拉高并发量。

本文介绍了一种免去部署、维护、硬件成本的解决方案,利用腾讯乐享 AI 助手,企业可以实现基于企业内部知识库进行智能问答的业务场景,读者也可以从腾讯乐享 AI 助手的研发历程看到类似技术产品实现的方案逻辑。

欢迎在评论区写下你对这篇文章的看法。

评论

首页 - Wiki
Copyright © 2011-2024 iteam. Current version is 2.139.0. UTC+08:00, 2024-12-26 18:28
浙ICP备14020137号-1 $访客地图$