专栏名称: dotNET跨平台
专注于.NET Core的技术传播。在这里你可以谈微软.NET,Mono的跨平台开发技术。在这里可以让你的.NET项目有新的思路,不局限于微软的技术栈,横跨Windows,Linux 主流平台
今天看啥  ›  专栏  ›  dotNET跨平台

使用Ollama本地离线运行大模型

dotNET跨平台  · 公众号  ·  · 2024-07-29 08:00

文章预览

Ollama介绍 用于启动并运行大型语言模型。 GitHub地址:https://github.com/ollama/ollama 官方网站:https://ollama.com/ 实践 根据README的指引,安装对应系统的Ollama。 由于我的电脑比较旧了,配置如下: 所以就选择一个参数小一点的大模型,我选择的是phi3 3.8b的版本。 在控制台输入: ollama run phi3:latest 即可。 没下载这个模型会自动下载,下载好了就可以开始对话。 对于开发者而言,还可以通过Ollama提供的接口来接入自己的应用: 3.8b参数的大模型在我这台电脑上就已经跑的很慢了,尝鲜是可以的,真要使用如果没有离线的需求并且没有显卡还是使用云平台比较好,现在也有很多免费的模型使用了,而且收费的话个人使用也花不了多少钱。如果有显卡资源并且有离线使用的需求,可以考虑使用Ollama本地离线运行大模型。 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览