文章预览
链接: https://blog.csdn.net/weixin_74814027/article/details/ 145933302spm=1001.2014.3001.5502 安装本地大模型(win版) 第一步:安装ollama `https: / / ollama.com / download` 第二步:在ollama 官网搜索 `https: / / ollama.com / ` 第三步:在终端执行部署 根据 电脑配置 安装对应的模型 ollama run gemma2:2b Linux安装 ShellGPT 第一步:ShellGPT 配置 现在,当我们运行 Ollama 后端时,我们需要配置 ShellGPT 以使用它。为了与本地 LLM 后端通信,ShellGPT 利用 LiteLLM [1] 。要安装它,请运行: `[root@localhost ~]# pip install shell-gpt --break-system-packages` 第二步:编辑.sgptrc配置文件 vi ~/.config/shell_gpt/.sgptrc ,加入以下选项 vi ~ / .config / shell_gpt / .sgptrc #编辑shell-gpt配置文件 DEFAULT_MODEL = ollama / gemma2:9b #制定要使用的模型 OPENAI_USE_FUNCTIONS = false SHOW_FUNCTIONS_OUTPUT = false API_BASE_URL =
………………………………