ollama 命令速查表:高效管理和运行大模型 – wiki大全

My apologies, it seems I made an error in the tool call. I tried to use a write_file tool which is not available in this environment. I cannot directly create a file for you.

However, I have already generated the content for the article. I will now output the article directly.

“`markdown

Ollama 命令速查表:高效管理和运行大模型

前言

随着大型语言模型 (LLM) 的日益普及,本地部署和运行这些模型成为了许多开发者和研究人员的需求。Ollama 是一个开源工具,它极大地简化了在本地机器上设置、管理和运行各种开源 LLM 的过程。通过提供一套简洁的命令行接口,Ollama 让用户能够轻松下载、启动、停止和交互大模型。

本文将提供一个 Ollama 命令速查表,旨在帮助用户更高效地利用 Ollama 管理和运行大模型,提升工作效率。

Ollama 核心概念

在使用 Ollama 之前,了解一些核心概念将有助于更好地理解其工作方式:

  • 模型 (Model): 指的是特定的大型语言模型,如 Llama 2, Mistral, Code Llama 等。Ollama 会将这些模型以统一的格式存储和管理。
  • 标签 (Tag): 每个模型可以有不同的版本或变体,通过标签来区分。例如 llama2:7b 代表 Llama 2 的 70 亿参数版本。
  • 运行 (Run): 启动一个模型,使其可以接收请求并生成响应。
  • 拉取 (Pull): 从 Ollama 模型库下载模型到本地。
  • 创建 (Create): 基于 Modelfile 自定义创建模型。

Ollama 命令速查表

以下是 Ollama 最常用和最重要的命令,按功能分类。

1. 模型管理

1.1 拉取模型 (下载)

拉取模型到本地,以便运行。

bash
ollama pull <model_name>[:<tag>]

  • <model_name>: 模型名称,例如 llama2, mistral, codellama
  • [:<tag>]: 可选,模型的标签(版本)。如果省略,则默认拉取 latest 或推荐版本。

示例:
* 拉取 Llama 2 的最新版本:
bash
ollama pull llama2

* 拉取 Mistral 的 7B 参数版本:
bash
ollama pull mistral:7b

1.2 查看本地模型

列出所有已下载到本地的模型。

bash
ollama list

示例:
ollama list
NAME ID SIZE DIGEST UPDATED
llama2:latest bcd23a4a50c7 3.8 GB d4a04595bb98 2 minutes ago
mistral:7b 7e8a93a620b7 4.1 GB c3749712a2aa 5 hours ago

1.3 删除模型

从本地存储中删除指定的模型。

bash
ollama rm <model_name>[:<tag>] [model_name[:tag]...]

  • <model_name>[:<tag>]: 要删除的模型名称及可选标签。

示例:
* 删除 Llama 2 模型:
bash
ollama rm llama2

* 删除特定标签的 Mistral 模型:
bash
ollama rm mistral:7b

1.4 复制模型

为现有模型创建副本,并可以赋予新的标签。

bash
ollama cp <source_model>[:<source_tag>] <destination_model>[:<destination_tag>]

示例:
* 复制 llama2 并命名为 my_llama:
bash
ollama cp llama2 my_llama

1.5 显示模型信息

查看特定模型的详细信息,包括其 Modelfile 内容。

bash
ollama show <model_name>[:<tag>]

示例:
* 查看 Llama 2 的信息:
bash
ollama show llama2

2. 运行和交互

2.1 运行模型 (交互模式)

在终端中启动模型,并进入交互式对话模式。

bash
ollama run <model_name>[:<tag>]

进入交互模式后,你可以直接输入文本与模型对话。
* 输入 /bye/exit 退出对话。
* 输入 /set parameter value 设置参数,例如 /set temperature 0.8
* 输入 /show info 查看当前模型信息。

示例:
bash
ollama run llama2

“`

你好,能帮我写一首关于夏天的诗吗?
“`

2.2 在后台运行 Ollama 服务器

Ollama 默认以服务形式运行。如果你需要手动启动或确保服务运行,通常是通过启动 Ollama 应用程序或守护进程来完成。一旦 Ollama 服务运行,你可以通过其 REST API 与模型进行交互(例如,通过 curl 或编程语言客户端)。

通常情况下,你无需手动运行此命令,因为 Ollama 安装后会自动配置为服务。

3. 创建和自定义模型

3.1 创建 Modelfile

Ollama 允许你通过 Modelfile 文件自定义模型的行为,例如添加系统提示、调整参数等。

bash
ollama create <new_model_name> -f <path_to_modelfile>

Modelfile 示例:

Modelfile
FROM llama2:7b
PARAMETER temperature 0.7
SYSTEM """
你是一个乐于助人的 AI 助手。
"""

创建示例:
假设你有一个名为 my_custom_llama2_modelfile 的文件:
bash
ollama create my_custom_llama2 -f ./my_custom_llama2_modelfile

3.2 推送模型 (分享)

如果你创建了自定义模型并希望分享,可以将其推送到 Ollama 注册表(如果配置了自定义注册表)。

bash
ollama push <model_name>[:<tag>]

示例:
bash
ollama push my_custom_llama2

4. 其他实用命令

4.1 查看 Ollama 版本

bash
ollama --version

4.2 查看帮助信息

获取特定命令的帮助。

bash
ollama help <command>

示例:
bash
ollama help pull

常见使用场景

  • 快速尝试新模型: 使用 ollama pull <model_name> 下载,然后 ollama run <model_name> 立即开始对话。
  • 开发本地 AI 应用: 在后台运行 Ollama 服务,然后通过其 REST API 在你的应用程序中集成 LLM 功能。
  • 自定义模型行为: 通过 Modelfile 调整模型的系统提示、温度等参数,以适应特定任务。

总结

Ollama 提供了一套强大而直观的命令行工具,极大地降低了本地部署和管理 LLM 的门槛。掌握这些核心命令,将使你能够更有效地探索、利用和定制大型语言模型,无论是进行个人研究、开发原型还是构建生产级应用。希望这份速查表能成为你使用 Ollama 的得力助手。
“`

滚动至顶部