文章预览
1. 背景 大型语言模型在众多关键领域均已取得显著进展,并在各种下游任务中展现出卓越性能。 在医疗领域,这些模型尤显潜力,特别是在对责任感和可靠性要求极高的健康护理领域。这些模型通过全面的医学知识预训练,不仅能支持医生做出精确诊断和制定治疗计划,还能改善医疗资源分配。 然而,尽管医疗LLMs取得了显著成就,仍面临一些关键挑战,包括如何避免幻觉、知识更新以及专业化知识等问题。为解决这些问题,提出了检索增强生成(RAG)技术,通过利用外部知识库提供的医疗知识作为上下文信息来增强内容生成:一种有前景且必要的解决方案。 然而,尽管现有通过RAG增强LLMs的方法表现出一定前景,但它们通常忽略了系统状态变量的引入,这些变量对于确保自适应控制、检索停止和系统收敛至关重要。 此外,这些现有的RAG方法并非
………………………………