文章预览
基于解码器的大型语言模型(LLM)嵌入模型在通用文本嵌入任务中(包括密集向量检索)逐渐超越了基于BERT或T5的嵌入模型。在这项工作中,我们介绍了NV-Embed模型,该模型通过多种架构设计和训练程序显著增强了LLM作为通用嵌入模型的性能,同时保持了其简单性和可复现性。 NV-Embed模型仅使用公开数据,取得了69.32的创纪录高分(截至2024年5月24日),在大规模文本嵌入基准测试(MTEB)中排名第一, 涵盖了56项任务,包括检索、重排序、分类、聚类和语义文本相似性任务。 https://arxiv.org/pdf/2405.17428 https://huggingface.co/nvidia/NV-Embed-v1 unset unset 文本嵌入模型 unset unset 双向嵌入模型 基于BERT或T5的嵌入模型长期以来一直是通用嵌入任务的主导方法。早期的例子包括Sentence-BERT和SimCSE,它们在自然语言推理(NLI)数据集上对BERT进行了微调。 嵌入模型首先从预
………………………………