专栏名称: NewBeeNLP
一个自然语言处理&人工智能的原创杂货铺子,希望能找到你喜欢的小玩意儿
今天看啥  ›  专栏  ›  NewBeeNLP

聊一聊大模型应用落地那些事

NewBeeNLP  · 公众号  ·  · 2024-06-28 11:05

文章预览

作者 | 混沌福王  整理 | NewBeeNLP https://mp.weixin.qq.com/s/IncGbYB7t7m5UNN4Lgi14A 本文是一篇内部的个人分享(已无敏感信息) ,目的是增加产品、开发同学对 LLM 的理解, 以降低沟通中的阻力,更好推进落地。 以下经脱敏后的原文: 大模型并不神奇 很多人听到"大模型"这个词可能会觉得很神秘,其实,LLM 就是神经网络,只是很大的神经网络,相对传统神经网络,大就是它的特点。我们用一个压缩算法的简单例子来帮助理解这个巨大的神经网络。 原始的压缩算法 原始数据 首先,我们来看一下传统的压缩算法。假设我们手头有一段原始数据:AAABBBB。这些数据在未压缩的情况下占用1GB的存储空间。 压缩过程 接下来,压缩算法会使用固定的规则,寻找数据中的重复模式,比如这里的连续'A'和'B'。通过这种方式,压缩算法可以将AAABBBB压缩成一个更短的形式 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览