主要观点总结
本文介绍了一种将大型语言模型(LLMs)与知识图谱(KG)结合的新型客户服务问答方法。该方法从历史问题中构建KG,保留问题内部结构和问题间关系,提高检索准确性并增强回答质量。在LinkedIn的客户服务团队中部署约六个月,每个问题的中位解决时间减少了28.6%。
关键观点总结
关键观点1: 传统的基于文本的大型语言模型(LLMs)在客户服务技术支持中的检索存在局限性。
忽略问题追踪文档的固有结构和彼此间的关联,导致检索准确性下降。此外,为了适应嵌入模型的上下文长度限制,将大问题工单分割成固定长度的片段可能导致相关内容的断开,导致答案不完整。
关键观点2: 提出的新型客户服务问答方法结合了LLMs和KG。
从历史问题中构建KG,保留问题内部结构和问题间关系。通过解析客户查询,从KG中检索相关的子图来生成答案。这种方法提高了检索准确性,增强了回答质量。
关键观点3: 知识图谱(KG)的构建分为两个阶段:工单内解析和工单间连接。
工单内解析阶段将每个基于文本的工单转换为树结构,工单间连接阶段将单个树合并为一个综合图,显性连接按照工单中指定的方式定义,隐性连接则从工单标题的文本语义相似性中推断出来。
关键观点4: 实验设计和实际应用案例。
使用精心策划的“真实”数据集进行评估,对照组使用传统的基于文本的嵌入式检索(EBR),而实验组采用新型方法。在LinkedIn的客户服务团队中部署该方法,结果显示使用新型系统的组绩效显著提升,每个问题的中位解决时间减少了28.6%。
文章预览
在客户服务技术支持中,快速准确地检索相关的过往问题对于高效解决客户询问至关重要。传统的大型语言模型(LLMs)的检索增强生成(RAG)方法将大量的过往问题追踪工单视为纯文本,忽略了关键的工单内部结构和工单间关系,从而限制了性能。 我们提出了一种将RAG与知识图谱(KG)结合的新颖客户服务问答方法。 我们的方法从历史问题中构建KG,用于检索,保留了工单内部结构和工单间关系。在问答阶段,我们的方法解析客户查询,并从KG中检索相关的子图以生成答案。 这种KG的集成不仅通过保留客户服务结构信息提高了检索准确性,还通过减轻文本分段的影响增强了回答质量。 我们的方法在领英(LinkedIn)的客户服务团队中已部署约六个月,已将每个问题的中位解决时间减少了28.6%。 https://arxiv.org/pdf/2404.17723 LinkedIn 业务背景 有效的客户服务
………………………………