本地部署人工智能模型,不仅通过重视和利用资源赋予个人权力,而且还培育出更加分散和民主的数字生态系统。也就是说,不仅增强了隐私和安全性,还引入了个人计算作为数字时代潜在货币的有趣概念。
Ollama

一些最新开源模型,更新至
关于开源模型库 Ollama
随时更新支持的开源模型库,如果您希望选择 “更聪明的” 模型,可以实时参考Chatbot Arena LLM 排行榜,您还可以发现,在所有模型中,最聪明的总是商业模型。 2025
年 1 月 22 日,Ollama 更新模型列表,支持号称在数学、代码和推理任务中性能与 OpenAI-o1 相当的 DeepSeek 第一代推理模型。深度求索(DeepSeek)是由中国对冲基金幻方(High-Flyer)创立和支持的人工智能公司,该公司已将其模型作为开源发布,以低廉的价格提供了强大的性能。在 Vibe-Eval 基准测试中,DeepSeek 是迄今为止排名最高的公开授权模型,也是目前最大的公开授权模型,其 671B 的体量比 Meta 公司最大的 Llama 系列模型 Llama 3.1 405B 还要大得多。
安装
在官方库中下载curl -fsSL https://ollama.com/install.sh | sh
快速开始
以运行 llama 3 8B 为例:
ollama run llama3
llama 3 的自我介绍:This version was trained on a massive dataset of text from the internet and is designed to generate human-like responses to a wide range of topics and prompts.
2024
年 7 月 23 日,Meta 发布 Llama 3.1,依旧有 8B、70B 和 405B 参数尺寸可供选择,这是对 4 月发布的 Llama 3 的重大更新,开始对中文支持较好。Llama 3.1 8B 和 70B 模型的升级版本是多语种的,其上下文长度大幅增加到 128K,工具使用达到了最先进的水平,整体推理能力也更强。这使其能够支持高级用例,如长文本摘要、多语种对话代理和编码助手。Llama 3.1 405B 在常识、可转向性、数学、工具使用和多语言翻译等方面具有最先进的能力,可与顶级人工智能模型相媲美。Llama 3.1 在某些基准测试中是地球上最聪明的人工智能。Ollama 实时支持 Llama 3.1。 2024 年 9 月 25 日,Meta
发布 Llama 3.2,包括多语言纯文本模型(1B、3B)和文本图像模型(Vision 11B、Vision 90B),多语言纯文本模型适合在移动设备和边缘设备上运行。文本图像模型则支持图像推理用例,可以根据可用的图表进行推理并快速提供答案。注意:Llama 3.2 Vision 11B 至少需要 8GB VRAM,而 90B 型号至少需要 64 GB VRAM。Llama 3.2-Vision 多模态大型语言模型对于纯文本任务,官方不支持中文;对于图像 + 文本应用程序,英语是唯一支持的语言。Ollama 实时支持 Llama 3.2,推荐 Llama 3.2 Vision 11B。 2024 年 12 月 6 日
Meta 发布 Llama 3.3 70B,与 Llama 3.1 405B 相当,但成本和计算开销小得多。Ollama 实时支持 Llama 3.3 70B。 官方还分享了第一个实验性的
Llama Stack,这是一套标准化工具和 API,将极大地简化构建和部署大型语言模型应用程序的过程。
- 如果模型不存在,会自动下载模型。
- 应该至少有
8 GB 的内存来运行 7B 型号,16 GB 的内存来运行 13B 型号,32 GB 的内存来运行 33B 型号。虽然本文基于 Windows 实践,但更建议在配备现代多核 CPU 和高内存 GPU 的台式机及 Linux 系统中部署和操作;如果没有更大的内存,不要尝试 Llama 3.1 70B 这样的大尺寸模型。 - 除了系统内存容量,显存(GPU VRAM)大小更是需要考虑的。研究表明,模型的
VRAM 需求通常接近其文件大小(加上一定的开销约需 2 倍文件大小),以覆盖推理过程中的额外 VRAM 使用。由于 Ollama 默认使用 4 位量化,降低了内存需求,同时,运行其中的模型基于 GGUF 格式的 4 位量化后总 VRAM 需求也会减少。经过测试,在 32GB 系统内存和 RTX2080TI-11G 显卡的配置情况下,已稳定快速运行 Llama 3.1 8B、Llama3.2-vision 11B 和 Phi-4 14B,Deepseek-r1 14B 以下的蒸馏版本也没有问题。
交互
简单交互
模型运行之后,会默认进入到交互状态,还包含一个用于运行和管理模型的 REST API 可用。
社区交互项目
围绕 Ollama 生态,还有一大批项目可实现与模型对话,包括桌面客户端、web 客户端、命令行终端、第三方应用(如浏览器)扩展和插件等,如需要自托管的 Ollama WebUI(已经更名为 Open WebUI)就是一个使用下载的模型文件与 Ollama 交互的流行界面,功能丰富且用户友好。Open WebUI
Hollama
对于
Ollama
完整演示
步骤说明:
1、安装
安装后,通过检查版本来验证 Ollama 是否正确安装:ollama --version
。2024年 7 月 14 日最新发布版本为 v0.2.5。
2、下载ollama run llama3
初次运行Ollama,模型并不存在,会自动下载模型 Llama 3 8B。下载完成后,进入到 Llama 3 交互状态。
3、输入
"你是一位经验丰富的AI 伦理专家。请分析人工智能在医疗诊断中的应用可能带来的三个主要伦理挑战。对每个挑战,提供一个可能的解决方案。在回答时,请考虑患者隐私、医疗责任和社会公平等方面。请以列表形式呈现你的分析,并在每个观点后提供简短的解释。"
这可能是一个综合性的经典
4、结果评价(摘要):
- 偏见和歧视
根据历史数据训练的人工智能系统可能会延续现有的偏见,从而可能导致对患者诊断的歧视性结果。要应对这一挑战,就必须开发和实施公平性测试框架,以评估算法在不同亚群体中的表现。
- 患者自主权和同意权
在医疗诊断中越来越依赖人工智能,患者可能无法完全理解人工智能驱动的诊断是如何得出的,这可能会导致患者对医疗系统失去信任。为了应对这一挑战,设计人工智能驱动的诊断工具至关重要。在使用这些技术时解释其决策过程,并征得患者的明确同意。
- 问责与责任
随着人工智能驱动的诊断工具越来越普遍,有必要制定明确的指导方针和法规来规范其使用。这包括定义人工智能开发者、医疗服务提供者和患者的角色和责任,以及在发生任何错误时追究各方责任的机制。
我认为生成结果很好(没错,Llama 3 继续对中文的支持效果欠佳,它用英文回复)。Llama 3
小知识
Windows
命令提示符(cmd.exe)是 Windows NT 下的一个用于运行 Windows 控制台程序或某些 DOS 程序的 Shell(为使用者提供使用界面)程序,用于替代 Windows 9x 系统中所提供的 COMMAND.COM 和 “MS-DOS 提示符”。命令提示符可通过点击开始菜单中的 “命令提示符” 或者运行(Win + R)CMD 来打开窗口运行。 PowerShell 是专为系统管理员设计的新 Windows 命令行 Shell,自 Windows 10 build 14971 起,PowerShell 取代了命令提示符。Windows 中随附的 PowerShell 版本叫
Windows PowerShell,但到 5.1 版本后就不再更新,用独立的 PowerShell 取代。 在
Windows PowerShell 中执行命令 $PSVersionTable
可以查看 Windows PowerShell 版本,在安装最新的 PowerShell 7(2024 年 6 月 18 日发布 PowerShell v7.4.3)后,在 Windows PowerShell 窗口的设置里面将命令行可执行文件配置为新的位置 "C:\Program Files\PowerShell\7\pwsh.exe"
,即可迁移到 PowerShell 7。Windows PowerShell或 PowerShell 可通过开始菜单中的 “终端管理员” 或者运行(Win + R)PowerShell 来打开窗口运行。
更多相关请查看
PowerShell 的官方产品文档。
问题
1、在进行更多基于ollama run llama3
Error: could not connect to ollama app ……
或者Error: listen tcp 127.0.0.1:11434: bind: ……
。
解决办法:修改系统环境变量:OLLAMA_HOST=127.0.0.1:11435 ollama serve
2、列出已下载的模型清单:
ollama list
3、何删除已经下载的模型:
ollama rm llama3:latest # list 出来的模型名
4、更多可用命令
ollama
llama3
5、Llama 3 说 Llama 3.1 是 Huawei 的手机系列,也许我问得不对。
后续更新
- 请保持
Ollama 版本更新:如果有更新,右击系统托管图标选择操作;如果无反应,重新下载新版安装文件(Windows)安装即可。 - 请保持模型更新,对于普通消费级计算机,推荐
Llama 3.1 8B 或者 Llama 3.2 Vision 11B。 - 一些终端可能不支持
Llama 3.2 Vision 需要的图片导入,推荐安装自托管 Open WebUI 或者浏览器扩展 Page Assist。
Open WebUIpip install open-webui
open-webui serve
Page Assist
其他本地开源大模型框架
到目前为止,这些本地开源大模型框架都在发展中并获得有限的社区支持,性能都差不多。比如以下是

另外,llama.cpp
楼主残忍的关闭了评论