Skip to content

onllama/ollama-chinese-document

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

6 Commits
 
 
 
 
 
 

Repository files navigation

ollama

Ollama

Discord

使用 Ollama 快速运行大型语言模型

macOS

下载

Windows preview

下载

Linux

curl -fsSL https://ollama.com/install.sh | sh

手动安装

Docker

官方的 Ollama 的 Docker 镜像 ollama/ollama 可在 Docker Hub 上获取。

官方 SDK 库

快速开始

使用命令 ollama run llama3 运行并和 Llama 3 模型进行对话。

ollama run llama3

模型库

Ollama支持的模型列表可以在 ollama.com/library 查看

以下是一些可供下载的模型示例

Model Parameters Size Download
Llama 3 8B 4.7GB ollama run llama3
Llama 3 70B 40GB ollama run llama3:70b
Phi 3 Mini 3.8B 2.3GB ollama run phi3
Phi 3 Medium 14B 7.9GB ollama run phi3:medium
Gemma 2B 1.4GB ollama run gemma:2b
Gemma 7B 4.8GB ollama run gemma:7b
Mistral 7B 4.1GB ollama run mistral
Moondream 2 1.4B 829MB ollama run moondream
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
LLaVA 7B 4.5GB ollama run llava
Solar 10.7B 6.1GB ollama run solar

请注意:您至少需要 8GB 的 RAM 来运行 7B 模型,运行 13B 模型需要 16GB,以及运行 33B 模型需要 32GB。

自定义模型

从 GGUF 导入

Ollama 支持在 Modelfile 中导入 GGUF 模型:

  1. 创建一个名为 Modelfile 的文件,其中包含一条指令,其中包含要导入的模型的本地文件路径

    FROM ./vicuna-33b.Q4_0.gguf
    
  2. 在 Ollama 中创建模型

    ollama create example -f Modelfile
    
  3. 运行模型

    ollama run example
    

从 PyTorch 或 Safetensors 导入

有关详细信息,请参阅有关导入模型的 指南

自定义 prompt

Ollama 库中的模型可以对 prompt 进行定制。例如,基于模型 llama3 自定义:

ollama pull llama3

创建 Modelfile:

FROM llama3

# 将温度设置为 1 [越高越有创意,越低越连贯]
PARAMETER temperature 1

# 设置系统消息
SYSTEM """
You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.
"""

接下来,创建并运行模型:

ollama create mario -f ./Modelfile
ollama run mario
>>> hi
Hello! It's your friend Mario.

有关更多示例,请参阅 examples 目录。有关使用 Modelfile 的详细信息,请参阅 Modelfile 文档

CLI 参考

创建模型

ollama create用于从 Modelfile 创建模型

ollama create mymodel -f ./Modelfile

拉取模型

ollama pull llama3

此命令还可用于更新本地模型。对于本地已存在的模型只会拉取差异部分。

删除模型

ollama rm llama3

复制模型

ollama cp llama3 my-model

多行输入

对于多行输入,您可以使用以下命令换行文本:"""

>>> """Hello,
... world!
... """
I'm a basic program that prints the famous "Hello, world!" message to the console.

多模态模型

>>> What's in this image? /Users/jmorgan/Desktop/smile.png
The image features a yellow smiley face, which is likely the central focus of the picture.

使用启动参数传入 prompt

$ ollama run llama3 "Summarize this file: $(cat README.md)"
 Ollama is a lightweight, extensible framework for building and running language models on the local machine. It provides a simple API for creating, running, and managing models, as well as a library of pre-built models that can be easily used in a variety of applications.

显示模型信息

ollama show llama3

列出计算机上的模型

ollama list

启动 Ollama

当您想要在不运行桌面应用程序的情况下启动 Ollama 时,您可以使用 ollama serve

构建

更多信息请参阅 开发者指南

在本地启动

接下来,启动服务器:

./ollama serve

最后,在单独的 shell 中,运行一个模型:

./ollama run llama3

REST API

Ollama 有用于运行和管理模型的 REST API。

返回结果

curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt":"Why is the sky blue?"
}'

和模型对话

curl http://localhost:11434/api/chat -d '{
  "model": "llama3",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

关于所有端点请参阅 API 文档

社区资源汇总

Web 和桌面

终端

数据库

P包管理器

库和 SDK

移动端

插件与扩展

后端支持

  • Ollama 由 Georgi Gerganov 所创建的项目 llama.cpp 强力驱动。

About

Ollama 中文文档

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published