专栏名称: 骨哥说事
关注信息安全趋势,发布国内外网络安全事件,不定期发布对热点事件的个人见解。
目录
今天看啥  ›  专栏  ›  骨哥说事

沉浸式翻译调用本地Ollama

骨哥说事  · 公众号  ·  · 2024-08-05 13:55

文章预览

声明: 文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由用户承担全部法律及连带责任,文章作者不承担任何法律及连带责任。 博客新域名: https://gugesay.com 不想错过任何消息?设置星标 ↓ ↓ ↓ 既然本地部署了Ollama,沉浸式翻译这款神器插件,也可以使用本地的大模型进行更加优化的翻译了,首先点击左下角设置: 接着选中OpenAI,点击“去修改”: 选择“自定义API Key”,APIKEY中填写“ollama”,模型选择你“心仪”的大模型: 然后在自定义 API 接口地址,填写“http://127.0.0.1:11434/v1/chat/completions” 然后回到最上方的右上角,点击“点此测试服务”: 如果显示403错误的话,可以使用以下方式解决: Macos: 输入 launchctl setenv OLLAMA_ORIGINS "*"  后启动ollama APP Linux: 输入  OLLAMA_ORIGINS="*" ollama serve Windows ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览