今天看啥  ›  专栏  ›  FreeBuf

如何使用BinaryNinja-Ollama提取开源AI模型并在本地运行

FreeBuf  · 公众号  · 互联网安全  · 2024-09-08 09:32

文章预览

关于BinaryNinja-Ollama BinaryNinja-Ollama是一款针对开源AI模型的本地化工具,该工具可以帮助广大研究人员提取开源的AI模型,并将其运行在本地设备上。 BinaryNinja-Ollama支持与您自己的本地托管的 ollama 服务器集成,使用 AI 重命名函数和变量。有些模型需要大量计算能力,而其他模型则可以在您的个人笔记本电脑上运行。 工具要求 1、它是免费的并且易于本地设置; 2、它可以在没有互联网的任何地方运行; 3、您的数据仅保存在您和您的 ollama 服务器之间,不包含第三方中间件; 工具要求 ollama networkx>=3.2.1 工具安装 由于该工具基于Python 3.10开发,因此我们首先需要在本地设备上安装并配置好最新版本的Python 3.10+环境。 接下来,广大研究人员可以直接使用下列命令将该项目源码克隆至本地: git  clone https://github.com/ahaggard2013/binaryninja-ollama.git 然后切换到 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览