以下以 Ollama 为例说明在常见操作系统上的安装与拉取模型方式。命令与安装包版本以 Ollama 官方下载页 与 官方仓库文档 为准;若官网有更新,请以官网为准。
以 Ollama 官网 macOS 下载页 为准;当前说明要求 macOS 14 Sonoma 或更高版本。
curl -fsSL https://ollama.com/install.sh | sh
brew install ollama,以二者之一实际展示为准)。ollama --version 确认可用;用 ollama pull 加模型名从 模型库 拉取模型。ollama run 加模型名;本机 HTTP API 行为与端口以 官方文档 / FAQ 为准。以 Ollama 官网 Windows 下载页 为准;当前说明要求 Windows 10 或更高版本。
irm https://ollama.com/install.ps1 | iex
ollama --version 验证;使用 ollama pull、ollama run 管理模型。curl -fsSL https://ollama.com/install.sh | sh
ollama pull、ollama run 与 macOS / Windows 一致;GPU 与进阶配置以官方文档为准。本机 Ollama 等 OpenAI 兼容服务就绪后,请前往左侧 算力接入 下载并配置 BigHub 算力代理客户端,将本机推理地址安全注册到平台,再在控制台或体验中心使用。详见 使用算力。