专栏名称: 熊猫Jay字节之旅
崇尚利他精神,熊猫Jay在这里定期分享计算机编程知识、AI知识、英语学习经验。
今天看啥  ›  专栏  ›  熊猫Jay字节之旅

有手就行,轻松本地部署 Llama、Qwen 大模型,无需 GPU

熊猫Jay字节之旅  · 公众号  ·  · 2024-06-30 23:09

文章预览

🐼 关注我, 了解更多 AI 前沿资讯和玩法,AI 学习之旅上,我与您一同成长! 🎈 进入公众号,回复 AI , 可免费领取超多实用的 AI 资料 和内容丰富的 AI 知识库地址 。 用 CPU 也能部署私有化大模型? 对,没错,只要你的电脑有个 8G 内存,你就可以轻松部署 Llama、Gemma、Qwen 等多种开源大模型。 非技术人员,安装 Docker、Docker-compose 很费劲? 不用,这些都不需要安装,就一个要求:有手就行~ 今天主要为大家分享保姆级教程:如何利用 普通个人电脑 ,本地私有化部署 Qwen 大模型。 一、Ollama 与 Qwen7B 安装和使用 一)下载 进入下载地址,目前支持 Mac、Windows、Linux 以及 docker 部署,本次演示, 主要针对 Mac 。 下载地址:https://github.com/ollama/ollama 我已经为大家提前下载好了 Mac、Windows 的安装包,公众号回复 ollama 领取。 二)安装 Ollama 1、下载到本 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览