整理自然语言处理、推荐系统、搜索引擎等AI领域的入门笔记,论文学习笔记和面试资料(关于NLP那些你不知道的事、关于推荐系统那些你不知道的事、NLP百面百搭、推荐系统百面百搭、搜索引擎百面百搭)
今天看啥  ›  专栏  ›  关于NLP那些你不知道的事

text2vec 如何选择 chunksize 和 splitter?

关于NLP那些你不知道的事  · 公众号  ·  · 2024-10-17 08:00

文章预览

对 text2vec 来说,chunksize 选多大合适? 应该选择哪种  splitter ? BCE 还是 BGE ? 面对这些 RAG 问题,本文根据 text2vec 模型原理做假设,并用 HuixiangDou 真实数据进行验证,最终给出 chunksize 上下界。 本文认为关键是让 tokenize 后的长度和模型输入(如 512)对齐,以发挥出模型完整编码能力。而 chunksize 只是 splitter 的附属选项。 相对于默认参数,精细调参可以改善约 2% 的 F1 指标;而用错 chunksize 可能导致 10% 下降。 相关测试数据、代码和说明文档已开源,如果对你有帮助,欢迎 star! https://github.com/internlm/huixiangdou (文末点击阅读原文可直达) text2vec 和 autoencoder 现实世界中,很多数据是未标注、甚至无法标注的。我们希望神经网络同样能够 理解 这些数据,然后通过微调或调整结构“赋能”到下游任务。自编码器(autoencoder)就是这类无监督学习的一 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览