文章预览
🐼 关注我, 了解更多 AI 前沿资讯和玩法,AI 学习之旅上,我与您一同成长! 🎈 进入公众号,回复 AI , 可免费领取超多实用的 AI 资料 和内容丰富的 AI 知识库地址 。 用 CPU 也能部署私有化大模型? 对,没错,只要你的电脑有个 8G 内存,你就可以轻松部署 Llama、Gemma、Qwen 等多种开源大模型。 非技术人员,安装 Docker、Docker-compose 很费劲? 不用,这些都不需要安装,就一个要求:有手就行~ 今天主要为大家分享保姆级教程:如何利用 普通个人电脑 ,本地私有化部署 Qwen 大模型。 一、Ollama 与 Qwen7B 安装和使用 一)下载 进入下载地址,目前支持 Mac、Windows、Linux 以及 docker 部署,本次演示, 主要针对 Mac 。 下载地址:https://github.com/ollama/ollama 我已经为大家提前下载好了 Mac、Windows 的安装包,公众号回复 ollama 领取。 二)安装 Ollama 1、下载到本
………………………………