趣丸开天大模型与知识图谱在智能客服场景应用探索
如果无法正常显示,请先停止浏览器的去广告插件。
1. 演讲人:马金龙
2. 01
智能客服场景及挑战介绍
02 开天客服大模型研发之路
03 知识图谱与LLM结合优化
04
应用探索及未来展望
3.
4. 01
智能客服场景及挑战介绍
5.
6. 1
RAG
+
AI
agent
+
2
+
agent
H5
agent
3
agent
APP
agent
…
4
NLP
NLP
+
+
7.
8.
9. 知识库构建
AI问答
问题文本
嵌入向量
用户提问
AI智能客服
意图
向量数据库
建立索引
匹配相似度
最高的片段
知识预处理
数据ETL
生成提示词
多模态解析
和知识来源
2、意图模糊--追问澄清
知识向量化
文本向量化
问题与知
识组合
文
本
嵌
入
1、有知识可解答--答案
相似
匹配
AI
解
答
关联问题解
决方案整合
3、无知识--转人工/留言
数据提取
上下文补全
逻辑推理
/兜底
实体抽取
解析实体
关系抽取
图数据库
实体关系
扩展查询
关系抽取
图谱构建
多模态知识
导入
10. •
7 24
95%+
70%
•
•
“
”
•
98%
95%
•
•
3
1
&
&
&RAG
&
11. 02
开天客服大模型研发之路
12. •
•
13. AI
• •
• •
•
7 24
“
”
•
•
•
•
•
•
•
14. LLM
Decoder-only Transformers
+
+
15. 01
chatgml
02
03
04
deepseek
Claude
API
Prompt
16. pipeline
规则过
滤清洗
数据预
处理
收集问答&客
服数据集
1.数据采集
整合问答对
2.数据预处理
人工
精标
机器
弱标
知识类普通数
据集
3.数据弱标注
可SFT训练数
据集
4.数据精标注
高质量训练样
本
5.数据质检
17. sft→rlhf
•
•
sft
rlhf
18. GRPO
A. 奖励模型打分
B. 事实错误惩罚
C. 不确定性惩罚
D. 政策引用不当惩罚(未提及政策名称)
E. 格式规范性惩罚
Reward
Reward = (RewardModel1 * α1 + RewardModel2 * α2 + ...) +
FactualPenalty * β+ UncertaintyPenalty *γ + PolicyPenalty * δ +
FormatPenalty * ε
按照重要程度,奖励模型>事实错误惩罚>不确定性惩罚>政策引用不当
惩罚>格式惩罚,根据优先级调整α、β、γ、δ及 ε 。
19.
20. 通用知识能力测评
通用能力
价值观和安全能力测评
语义理解
客服能力测
客服能力测评
100
90
92.14
93.45
89.65
80.47
80
88
75.25
70
意图识别
评
60
50
客服专项
能力
逻辑推理
40
30
问题改写 20
智能问答 0
政策解读
https://github.com/QuwanAI/PQAEF
10
闭源API
开源模型
政策问答集1
政策问答集2
自研模型
21. 03
知识图谱与LLM结合优化
22. PDF
DOCX
API
API
23. 维度
核心优势 复杂推理能力(多跳查询、
关联分析) 轻量化、高效检索、增
量更新 知识图谱与
逻辑推理
构建复杂
度 高(需分层社区构建、关系
抽取) 低(直接实体 关系索
引) 极高(需本体设计、多模块
联合训练)
资源消耗 高(需 低(支持
备) 极高(依赖多模型联合计算)
实时性 较慢(依赖图遍历) 快(双级检索优化) 增量更新
能力 弱(需重建图谱) 强(支持动态增量更新) 弱(需重新对齐语义)
政务场景
适配性 中(适合复杂政策关联分析) 高(轻量、快速响应、
易维护)
支持)
边缘设
深度结合、
中等(逻辑表达式转换耗时)
低(复杂度高、
低)
24. (
)
(
)
(
)
25. GraphRAG
1.
2.
3.
4.
https://blog.csdn.net/2401_84208172/article/details/142935777
5.
。
26. @
27. •
Transformer
•
- -
•
•
≤50ms
99.8%
•
•
≤0.2%
AI
LLM
- -
•
•
•
•
•
RAG
•
•
•
AI
28.
29. 04
应用探索及未来展望
30.
31. PDF
PPT docx
32. LLM+RAG+GraphRAG
7x24
&
1
2
3
4
5
6
33. 1.
34. 2.
+
+
https://www.isc.org.cn/article/25634529684746240.html
35.
36.