文章预览
作者:混沌福王,专注于 web 前端技术和通用软件架构、代码整洁、研发效能、复杂性系统 。 原文:https://zhuanlan.zhihu.com/p/701624765 本文是一篇内部的个人分享(已无敏感信息) ,目的是增加产品、开发同学对 LLM 的理解,以降低沟通中的阻力,更好推进落地。 以下经脱敏后的原文: 大模型并不神奇 很多人听到'大模型'这个词可能会觉得很神秘,其实,LLM 就是神经网络,只是很大的神经网络,相对传统神经网络,大就是它的特点。我们用一个压缩算法的简单例子来帮助理解这个巨大的神经网络。 原始的压缩算法 • 原始数据 首先,我们来看一下传统的压缩算法。假设我们手头有一段原始数据:AAABBBB。这些数据在未压缩的情况下占用1GB的存储空间。 • 压缩过程 接下来,压缩算法会使用固定的规则,寻找数据中的重复模式,比如这里的连续'A'和'B
………………………………