专栏名称: Coggle数据科学
Coggle全称Communication For Kaggle,专注数据科学领域竞赛相关资讯分享。
今天看啥  ›  专栏  ›  Coggle数据科学

LinkedIn:使用RAG与知识图谱重构客服问答,客服问答效率提高26%

Coggle数据科学  · 公众号  · 互联网短视频 科技自媒体  · 2024-05-29 17:35
    

主要观点总结

本文介绍了一种将大型语言模型(LLMs)与知识图谱(KG)结合的新型客户服务问答方法。该方法从历史问题中构建KG,保留问题内部结构和问题间关系,提高检索准确性并增强回答质量。在LinkedIn的客户服务团队中部署约六个月,每个问题的中位解决时间减少了28.6%。

关键观点总结

关键观点1: 传统的基于文本的大型语言模型(LLMs)在客户服务技术支持中的检索存在局限性。

忽略问题追踪文档的固有结构和彼此间的关联,导致检索准确性下降。此外,为了适应嵌入模型的上下文长度限制,将大问题工单分割成固定长度的片段可能导致相关内容的断开,导致答案不完整。

关键观点2: 提出的新型客户服务问答方法结合了LLMs和KG。

从历史问题中构建KG,保留问题内部结构和问题间关系。通过解析客户查询,从KG中检索相关的子图来生成答案。这种方法提高了检索准确性,增强了回答质量。

关键观点3: 知识图谱(KG)的构建分为两个阶段:工单内解析和工单间连接。

工单内解析阶段将每个基于文本的工单转换为树结构,工单间连接阶段将单个树合并为一个综合图,显性连接按照工单中指定的方式定义,隐性连接则从工单标题的文本语义相似性中推断出来。

关键观点4: 实验设计和实际应用案例。

使用精心策划的“真实”数据集进行评估,对照组使用传统的基于文本的嵌入式检索(EBR),而实验组采用新型方法。在LinkedIn的客户服务团队中部署该方法,结果显示使用新型系统的组绩效显著提升,每个问题的中位解决时间减少了28.6%。


文章预览

在客户服务技术支持中,快速准确地检索相关的过往问题对于高效解决客户询问至关重要。传统的大型语言模型(LLMs)的检索增强生成(RAG)方法将大量的过往问题追踪工单视为纯文本,忽略了关键的工单内部结构和工单间关系,从而限制了性能。 我们提出了一种将RAG与知识图谱(KG)结合的新颖客户服务问答方法。 我们的方法从历史问题中构建KG,用于检索,保留了工单内部结构和工单间关系。在问答阶段,我们的方法解析客户查询,并从KG中检索相关的子图以生成答案。 这种KG的集成不仅通过保留客户服务结构信息提高了检索准确性,还通过减轻文本分段的影响增强了回答质量。 我们的方法在领英(LinkedIn)的客户服务团队中已部署约六个月,已将每个问题的中位解决时间减少了28.6%。 https://arxiv.org/pdf/2404.17723 LinkedIn 业务背景 有效的客户服务 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览