文章预览
Datawhale干货 作者:李锡涵,编译 :机器之心 本文作者:李锡涵(Xihan Li) 作者简介:伦敦大学学院(UCL)计算机系博士研究生,谷歌开发者专家,主要研究方向为学习优化,在 NeurIPS、ICLR、AAMAS、CIKM 等会议发表过学术论文,Circuit Transformer 作者,图书《简明的 TensorFlow 2》(https://tf.wiki)作者 过年这几天, DeepSeek 算是彻底破圈了,火遍大江南北,火到人尽皆知。虽然网络版和 APP 版已经足够好用,但 把模型部署到本地,才能真正实现独家定制,让 DeepSeek R1 的深度思考「以你为主,为你所用」。 关于本地化部署,我们发布了两份教程《 DeepSeek R1本地部署,小白教程来了! 》、《 手把手带你用DeepSeek-R1和Ollama搭建本地应用,一文搞定! 》 然而,完整的 671B MoE 模型也可以通过针对性的量化技术压缩体积,从而大幅降低本地部署门槛,乃至在
………………………………