From 443a0f7b5d54747495576b306989c7139d6dde6f Mon Sep 17 00:00:00 2001 From: joan726 Date: Mon, 28 Oct 2024 15:33:49 +0800 Subject: [PATCH 1/6] Add ollama_quickstart.zh-CN.md Add ollama_quickstart.zh-CN.md --- .../Quickstart/ollama_quickstart.zh-CN.md | 217 ++++++++++++++++++ 1 file changed, 217 insertions(+) create mode 100644 docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md diff --git a/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md b/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md new file mode 100644 index 00000000000..393045ea527 --- /dev/null +++ b/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md @@ -0,0 +1,217 @@ +# 在 Intel GPU 上使用 IPEX-LLM 运行 Ollama + +[ollama/ollama](https://github.com/ollama/ollama) 是一个轻量级、可扩展的框架,用于在本地机器上构建和运行大型语言模型。现在,借助 [`ipex-llm`](https://github.com/intel-analytics/ipex-llm) 的 C++ 接口作为其加速后端,你可以在 Intel **GPU** *(如配有集成显卡,以及 Arc,Flex 和 Max 等独立显卡的本地 PC)* 上,轻松部署并运行 `ollama`。 + +以下是在 Intel Arc GPU 上运行 LLaMA2-7B 的 DEMO 演示。 + + + + + + + + +
你也可以点击这里观看 DEMO 视频。
+ +> [!NOTE] +> `ipex-llm[cpp]==2.2.0b20240826` 版本与官方 ollama 版本 [v0.1.39](https://github.com/ollama/ollama/releases/tag/v0.1.39) 一致。 +> +> `ipex-llm[cpp]` 的最新版本与官方 ollama 版本 [v0.3.6](https://github.com/ollama/ollama/releases/tag/v0.3.6) 一致。 + +> [!NOTE] +> 从 `ipex-llm[cpp]==2.2.0b20240912` 版本开始,Windows 上 `ipex-llm[cpp]` 依赖的 oneAPI 版本已从 `2024.0.0` 更新到 `2024.2.1`。 +> +> 如果要将 `ipex-llm[cpp]` 升级到 `2.2.0b20240912` 或更高版本,在Windows环境下,你需要新建一个干净的 conda 环境来安装新版本。如果直接在旧的 conda 环境中卸载旧版本并升级,可能会遇到 `找不到 sycl7.dll` 的错误。 + +## 目录 +- [安装 IPEX-LLM 来使用 Ollama](./ollama_quickstart.zh-CN.md#1-安装-ipex-llm-来使用-Ollama) +- [初始化 Ollama](./ollama_quickstart.zh-CN.md#2-初始化-ollama) +- [运行 Ollama 服务](./ollama_quickstart.zh-CN.md#3-运行-ollama-服务) +- [拉模型](./ollama_quickstart.zh-CN.md#4-拉模型) +- [使用 Ollama](./ollama_quickstart.zh-CN.md#5-使用-ollama) + +## 快速入门 + +### 1. 安装 IPEX-LLM 来使用 Ollama + +IPEX-LLM 现在已支持在 Linux 和 Windows 系统上运行 `Ollama`。 + +请仔细参阅网页[在 Intel GPU 中使用 IPEX-LLM 运行 llama.cpp 指南](./llama_cpp_quickstart.zh-CN.md),首先按照 [系统环境准备](./llama_cpp_quickstart.zh-CN.md#0-系统环境准备) 步骤进行设置,再参考 [llama.cpp 中安装 IPEX-LLM](./llama_cpp_quickstart.zh-CN.md#1-为-llamacpp-安装-IPEX-LLM) 步骤用 Ollama 可执行文件安装 IPEX-LLM。 + +**完成上述步骤后,你应该已经创建了一个名为 `llm-cpp` 的新 conda 环境。该 conda 环境将用于在 Intel GPU 上使用 IPEX-LLM 运行 ollama。** + +### 2. 初始化 Ollama + +然后,运行下列命令进行 `llm-cpp` conda 环境激活和初始化 Ollama。在你的当前目录中会出现一个指向 `ollama` 的符号链接。 + +- **Linux 用户**: + + ```bash + conda activate llm-cpp + init-ollama + ``` + +- **Windows 用户**: + + 请**在 Miniforge Prompt 中使用管理员权限** 运行以下命令。 + + ```cmd + conda activate llm-cpp + init-ollama.bat + ``` + +> [!NOTE] +> 如果你已经安装了更高版本的 `ipex-llm[cpp]`,并希望同时升级 ollama 可执行文件,请先删除目录下旧文件,然后使用 `init-llama-cpp`(Linux)或 `init-llama-cpp.bat`(Windows)重新初始化。 + +**现在,你可以按照 ollama 的官方用法来执行 ollama 的命令了。** + +### 3. 运行 Ollama 服务 + +请根据你的操作系统选择以下对应的步骤启动 Ollama 服务: + +- **Linux 用户**: + + ```bash + export OLLAMA_NUM_GPU=999 + export no_proxy=localhost,127.0.0.1 + export ZES_ENABLE_SYSMAN=1 + source /opt/intel/oneapi/setvars.sh + export SYCL_CACHE_PERSISTENT=1 + # [optional] under most circumstances, the following environment variable may improve performance, but sometimes this may also cause performance degradation + export SYCL_PI_LEVEL_ZERO_USE_IMMEDIATE_COMMANDLISTS=1 + # [optional] if you want to run on single GPU, use below command to limit GPU may improve performance + export ONEAPI_DEVICE_SELECTOR=level_zero:0 + + ./ollama serve + ``` + +- **Windows 用户**: + + 请在 Miniforge Prompt 中运行以下命令。 + + ```cmd + set OLLAMA_NUM_GPU=999 + set no_proxy=localhost,127.0.0.1 + set ZES_ENABLE_SYSMAN=1 + set SYCL_CACHE_PERSISTENT=1 + rem under most circumstances, the following environment variable may improve performance, but sometimes this may also cause performance degradation + set SYCL_PI_LEVEL_ZERO_USE_IMMEDIATE_COMMANDLISTS=1 + + ollama serve + ``` + +> [!NOTE] +> 请设置环境变量 `OLLAMA_NUM_GPU` 为 `999` 确保模型的所有层都在 Intel GPU 上运行,否则某些层可能会在 CPU 上运行。 + +> [!NOTE] +> 为了允许服务器接受来自所有 IP 地址的连接,请使用 `OLLAMA_HOST=0.0.0.0 ./ollama serve` 代替仅使用 `./ollama serve`。 + +> [!TIP] +> 如果你的设备配备了多个 GPU,而你只想在其中一个 GPU 上运行 ollama 时,就需要设置环境变量 `ONEAPI_DEVICE_SELECTOR=level_zero:[gpu_id]`,其中 `[gpu_id]` 是指定运行 ollama 的 GPU 设备 ID。相关详情请参阅[多 GPU 选择指南](../Overview/KeyFeatures/multi_gpus_selection.md#2-oneapi-device-selector)。 + +> [!NOTE] +> 环境变量 `SYCL_PI_LEVEL_ZERO_USE_IMMEDIATE_COMMANDLISTS` 用于控制是否使用*即时命令列表*将任务提交到 GPU。启动此变量通常可以提高性能,但也有例外情况。因此,建议你在启用和禁用该环境变量的情况下进行测试,以找到最佳的性能设置。更多相关细节请参考[此处文档](https://www.intel.com/content/www/us/en/developer/articles/guide/level-zero-immediate-command-lists.html)。 + +控制台将显示类似以下内容的消息: + + + + + +### 4. 拉模型 +保持 Ollama 服务开启并打开另一个终端,然后使用 `./ollama pull `(Linux)或 `ollama.exe pull `(Windows)自动拉一个模型。例如,`dolphin-phi:latest`: + + + + + +### 5. 使用 Ollama + +#### 使用 Curl + +使用 `curl` 是验证 API 服务和模型最简单的方法。在终端中执行以下命令。你可以**将 替换成你使用的模型**,例如,`dolphin-phi`。 + +- **Linux 用户**: + + ```bash + curl http://localhost:11434/api/generate -d ' + { + "model": "", + "prompt": "Why is the sky blue?", + "stream": false + }' + ``` + +- **Windows 用户**: + + 请在 Miniforge Prompt 中运行下列命令。 + + ```cmd + curl http://localhost:11434/api/generate -d " + { + \"model\": \"\", + \"prompt\": \"Why is the sky blue?\", + \"stream\": false + }" + ``` + +#### 使用 Ollama 运行 GGUF models + +Ollama 支持在 Modelfile 中导入 GGUF 模型,例如,假设你已经从 [Mistral-7B-Instruct-v0.1-GGUF](https://huggingface.co/TheBloke/Mistral-7B-Instruct-v0.1-GGUF/tree/main) 下载了 `mistral-7b-instruct-v0.1.Q4_K_M.gguf`,那么你可以创建一个名为 `Modelfile` 的文件: + +```bash +FROM ./mistral-7b-instruct-v0.1.Q4_K_M.gguf +TEMPLATE [INST] {{ .Prompt }} [/INST] +PARAMETER num_predict 64 +``` + +然后,你可以在 Ollama 中通过 `ollama create example -f Modelfile` 创建模型,并使用 `ollama run` 直接在控制台运行该模型。 + +- **Linux 用户**: + + ```bash + export no_proxy=localhost,127.0.0.1 + ./ollama create example -f Modelfile + ./ollama run example + ``` + +- **Windows 用户**: + + 请在 Miniforge Prompt 中运行下列命令。 + + ```cmd + set no_proxy=localhost,127.0.0.1 + ollama create example -f Modelfile + ollama run example + ``` + +使用 `ollama run example` 与模型交互的示例过程,如下所示: + + + + + +### 故障排除 +#### 1. 无法运行初始化脚本 +如果你无法运行 `init-ollama.bat`,请确保你已经在 conda 环境中安装了 `ipex-llm[cpp]`。如果你已安装,请检查你是否已激活正确的 conda 环境。此外,如果你使用的是 Windows,请确保你已在提示终端中以管理员权限运行该脚本。 + +#### 2. 为什么模型总是几分钟后再次加载 +Ollama 默认每 5 分钟从 GPU 内存卸载一次模型。针对 ollama 的最新版本,你可以设置 `OLLAMA_KEEP_ALIVE=-1` 来将模型保持在显存上。请参阅此问题:https://github.com/intel-analytics/ipex-llm/issues/11608 + +#### 3. 执行 `ollama serve`时报 `exit status 0xc0000135` 错误 +执行 `ollama serve`时,如果你在 Windows 中遇到 `llama runner process has terminated: exit status 0xc0000135` 或者在 Linux 中遇到 `ollama_llama_server: error while loading shared libraries: libmkl_core.so.2: cannot open shared object file`,这很可能是由于缺少 sycl 依赖导致的。请检查: + +1. Windows:是否已经安装了 conda 并激活了正确的 conda 环境,环境中是否已经使用 pip 安装了 oneAPI 依赖项 +2. Linux:是否已经在运行 ollama 命令前执行了 `source /opt/intel/oneapi/setvars.sh`。执行此 source 命令只在当前会话有效。 + +#### 4. 初始模型加载阶段程序挂起 +在 Windows 中首次启动 `ollama serve` 时,可能会在模型加载阶段卡住。如果你在首次运行时发现程序长时间挂起,可以手动在服务器端输入空格或其他字符以确保程序正在运行。 + +#### 5. 如何区分社区版 Ollama 和 IPEX-LLM 版 Ollama +在社区版 Ollama 的服务器日志中,你可能会看到 `source=payload_common.go:139 msg="Dynamic LLM libraries [rocm_v60000 cpu_avx2 cuda_v11 cpu cpu_avx]"`。而在 IPEX-LLM 版 Ollama 的服务器日志中,你应该仅看到 `source=payload.go:44 msg="Dynamic LLM libraries [cpu cpu_avx cpu_avx2]"`。 + +#### 6. 当询问多个不同的问题或上下文很长时,Ollama 会挂起 +如果你在询问多个不同问题或上下文很长时,发现 ollama 挂起,并且在服务器日志中看到 `update_slots : failed to free spaces in the KV cache`,这可能是因为 LLM 上下文大于默认 `n_ctx` 值导致的,你可以尝试增加 `n_ctx` 值后重试。 + +#### 7. `signal: bus error (core dumped)` 错误 +如果你遇到此错误,请先检查你的 Linux 内核版本。较高版本的内核(例如 6.15)可能会导致此问题。你也可以参考[此问题](https://github.com/intel-analytics/ipex-llm/issues/10955)来查看是否有帮助。 From b2b3ed0d0d1e02b382703bae6dd69c17d04ba202 Mon Sep 17 00:00:00 2001 From: joan726 Date: Mon, 28 Oct 2024 15:36:24 +0800 Subject: [PATCH 2/6] Update ollama_quickstart.zh-CN.md Add Chinese and English switching --- docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md | 3 +++ 1 file changed, 3 insertions(+) diff --git a/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md b/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md index 393045ea527..d458dde2373 100644 --- a/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md +++ b/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md @@ -1,4 +1,7 @@ # 在 Intel GPU 上使用 IPEX-LLM 运行 Ollama +

+ < English | 中文 > +

[ollama/ollama](https://github.com/ollama/ollama) 是一个轻量级、可扩展的框架,用于在本地机器上构建和运行大型语言模型。现在,借助 [`ipex-llm`](https://github.com/intel-analytics/ipex-llm) 的 C++ 接口作为其加速后端,你可以在 Intel **GPU** *(如配有集成显卡,以及 Arc,Flex 和 Max 等独立显卡的本地 PC)* 上,轻松部署并运行 `ollama`。 From 2046572e3c5d1430874d46cb0b5d235a5d6ada38 Mon Sep 17 00:00:00 2001 From: joan726 Date: Mon, 28 Oct 2024 15:38:09 +0800 Subject: [PATCH 3/6] Update ollama_quickstart.md Add Chinese and English switching --- docs/mddocs/Quickstart/ollama_quickstart.md | 3 +++ 1 file changed, 3 insertions(+) diff --git a/docs/mddocs/Quickstart/ollama_quickstart.md b/docs/mddocs/Quickstart/ollama_quickstart.md index deb070f67cc..62ffeb0dcdd 100644 --- a/docs/mddocs/Quickstart/ollama_quickstart.md +++ b/docs/mddocs/Quickstart/ollama_quickstart.md @@ -1,4 +1,7 @@ # Run Ollama with IPEX-LLM on Intel GPU +

+ < English | 中文 > +

[ollama/ollama](https://github.com/ollama/ollama) is popular framework designed to build and run language models on a local machine; you can now use the C++ interface of [`ipex-llm`](https://github.com/intel-analytics/ipex-llm) as an accelerated backend for `ollama` running on Intel **GPU** *(e.g., local PC with iGPU, discrete GPU such as Arc, Flex and Max)*. From fc43eb1b5122028d35834024afa5a378a7c56641 Mon Sep 17 00:00:00 2001 From: joan726 Date: Mon, 28 Oct 2024 15:49:36 +0800 Subject: [PATCH 4/6] Update README.zh-CN.md Modify the related link to ollama_quickstart.zh-CN.md --- README.zh-CN.md | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/README.zh-CN.md b/README.zh-CN.md index d8a012ff7aa..c0e2d98f9ea 100644 --- a/README.zh-CN.md +++ b/README.zh-CN.md @@ -11,7 +11,7 @@ **`ipex-llm`** 是一个将大语言模型高效地运行于 Intel CPU 和 GPU(如搭载集成显卡的个人电脑,配有 Arc 独立显卡的台式机等)上的大模型 XPU 加速库[^1]。 > [!NOTE] > - *它构建在 **`llama.cpp`**, **`transformers`**, **`bitsandbytes`**, **`vLLM`**, **`qlora`**, **`AutoGPTQ`**, **`AutoAWQ`** 等优秀工作之上。* -> - *它可以与 [llama.cpp](docs/mddocs/Quickstart/llama_cpp_quickstart.zh-CN.md), [Ollama](docs/mddocs/Quickstart/ollama_quickstart.md), [Text-Generation-WebUI](docs/mddocs/Quickstart/webui_quickstart.md), [HuggingFace transformers](python/llm/example/GPU/HuggingFace), [LangChain](python/llm/example/GPU/LangChain), [LlamaIndex](python/llm/example/GPU/LlamaIndex), [DeepSpeed-AutoTP](python/llm/example/GPU/Deepspeed-AutoTP), [vLLM](docs/mddocs/Quickstart/vLLM_quickstart.md), [FastChat](docs/mddocs/Quickstart/fastchat_quickstart.md), [Axolotl](docs/mddocs/Quickstart/axolotl_quickstart.md), [HuggingFace PEFT](python/llm/example/GPU/LLM-Finetuning), [HuggingFace TRL](python/llm/example/GPU/LLM-Finetuning/DPO), [AutoGen](python/llm/example/CPU/Applications/autogen), [ModeScope](python/llm/example/GPU/ModelScope-Models)等无缝衔接。* +> - *它可以与 [llama.cpp](docs/mddocs/Quickstart/llama_cpp_quickstart.zh-CN.md), [Ollama](docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md), [Text-Generation-WebUI](docs/mddocs/Quickstart/webui_quickstart.md), [HuggingFace transformers](python/llm/example/GPU/HuggingFace), [LangChain](python/llm/example/GPU/LangChain), [LlamaIndex](python/llm/example/GPU/LlamaIndex), [DeepSpeed-AutoTP](python/llm/example/GPU/Deepspeed-AutoTP), [vLLM](docs/mddocs/Quickstart/vLLM_quickstart.md), [FastChat](docs/mddocs/Quickstart/fastchat_quickstart.md), [Axolotl](docs/mddocs/Quickstart/axolotl_quickstart.md), [HuggingFace PEFT](python/llm/example/GPU/LLM-Finetuning), [HuggingFace TRL](python/llm/example/GPU/LLM-Finetuning/DPO), [AutoGen](python/llm/example/CPU/Applications/autogen), [ModeScope](python/llm/example/GPU/ModelScope-Models)等无缝衔接。* > - ***50+** 模型已经在 `ipex-llm` 上得到优化和验证(包括 LLaMA2, Mistral, Mixtral, Gemma, LLaVA, Whisper, ChatGLM, Baichuan, Qwen, RWKV, 等等);更多信息请参阅[这里](#模型验证).。* ## 最近更新 🔥 @@ -31,7 +31,7 @@ - [2024/04] 你现在可以在 Intel GPU 上使用 `ipex-llm` 运行 **Open WebUI** ,详情参考[快速入门指南](docs/mddocs/Quickstart/open_webui_with_ollama_quickstart.md)。 - [2024/04] 你现在可以在 Intel GPU 上使用 `ipex-llm` 以及 `llama.cpp` 和 `ollama` 运行 **Llama 3** ,详情参考[快速入门指南](docs/mddocs/Quickstart/llama3_llamacpp_ollama_quickstart.md)。 - [2024/04] `ipex-llm` 现在在Intel [GPU](python/llm/example/GPU/HuggingFace/LLM/llama3) 和 [CPU](python/llm/example/CPU/HF-Transformers-AutoModels/Model/llama3) 上都支持 **Llama 3** 了。 -- [2024/04] `ipex-llm` 现在提供 C++ 推理, 在 Intel GPU 上它可以用作运行 [llama.cpp](docs/mddocs/Quickstart/llama_cpp_quickstart.zh-CN.md) 和 [ollama](docs/mddocs/Quickstart/ollama_quickstart.md) 的加速后端。 +- [2024/04] `ipex-llm` 现在提供 C++ 推理, 在 Intel GPU 上它可以用作运行 [llama.cpp](docs/mddocs/Quickstart/llama_cpp_quickstart.zh-CN.md) 和 [ollama](docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md) 的加速后端。 - [2024/03] `bigdl-llm` 现已更名为 `ipex-llm` (请参阅[此处](docs/mddocs/Quickstart/bigdl_llm_migration.md)的迁移指南),你可以在[这里](https://github.com/intel-analytics/bigdl-2.x)找到原始BigDL项目。 - [2024/02] `ipex-llm` 现在支持直接从 [ModelScope](python/llm/example/GPU/ModelScope-Models) ([魔搭](python/llm/example/CPU/ModelScope-Models)) loading 模型。 - [2024/02] `ipex-llm` 增加 **INT2** 的支持 (基于 llama.cpp [IQ2](python/llm/example/GPU/HuggingFace/Advanced-Quantizations/GGUF-IQ2) 机制), 这使得在具有 16GB VRAM 的 Intel GPU 上运行大型 LLM(例如 Mixtral-8x7B)成为可能。 @@ -110,7 +110,7 @@ llama.cpp (Phi-3-mini Q4_0) - Ollama (Mistral-7B Q4_K) + Ollama (Mistral-7B Q4_K) TextGeneration-WebUI (Llama3-8B FP8) @@ -186,7 +186,7 @@ See the demo of running [*Text-Generation-WebUI*](https://ipex-llm.readthedocs.i ### 使用 - [llama.cpp](docs/mddocs/Quickstart/llama_cpp_quickstart.zh-CN.md): 在 Intel GPU 上运行 **llama.cpp** (*使用 `ipex-llm` 的 C++ 接口*) -- [Ollama](docs/mddocs/Quickstart/ollama_quickstart.md): 在 Intel GPU 上运行 **ollama** (*使用 `ipex-llm` 的 C++ 接口*) +- [Ollama](docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md): 在 Intel GPU 上运行 **ollama** (*使用 `ipex-llm` 的 C++ 接口*) - [PyTorch/HuggingFace](docs/mddocs/Quickstart/install_windows_gpu.md): 使用 [Windows](docs/mddocs/Quickstart/install_windows_gpu.md) 和 [Linux](docs/mddocs/Quickstart/install_linux_gpu.md) 在 Intel GPU 上运行 **PyTorch**、**HuggingFace**、**LangChain**、**LlamaIndex** 等 (*使用 `ipex-llm` 的 Python 接口*) - [vLLM](docs/mddocs/Quickstart/vLLM_quickstart.md): 在 Intel [GPU](docs/mddocs/DockerGuides/vllm_docker_quickstart.md) 和 [CPU](docs/mddocs/DockerGuides/vllm_cpu_docker_quickstart.md) 上使用 `ipex-llm` 运行 **vLLM** - [FastChat](docs/mddocs/Quickstart/fastchat_quickstart.md): 在 Intel GPU 和 CPU 上使用 `ipex-llm` 运行 **FastChat** 服务 From 76aee7c974b340bbb9743089d86e1da279ba76b1 Mon Sep 17 00:00:00 2001 From: joan726 Date: Mon, 28 Oct 2024 17:32:37 +0800 Subject: [PATCH 5/6] Update ollama_quickstart.zh-CN.md Modified based on comments. --- docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md b/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md index d458dde2373..2d9b5a1714d 100644 --- a/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md +++ b/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md @@ -64,7 +64,7 @@ IPEX-LLM 现在已支持在 Linux 和 Windows 系统上运行 `Ollama`。 ``` > [!NOTE] -> 如果你已经安装了更高版本的 `ipex-llm[cpp]`,并希望同时升级 ollama 可执行文件,请先删除目录下旧文件,然后使用 `init-llama-cpp`(Linux)或 `init-llama-cpp.bat`(Windows)重新初始化。 +> 如果你已经安装了更高版本的 `ipex-llm[cpp]`,并希望同时升级 ollama 可执行文件,请先删除目录下旧文件,然后使用 `init-llama`(Linux)或 `init-llama.bat`(Windows)重新初始化。 **现在,你可以按照 ollama 的官方用法来执行 ollama 的命令了。** From 76bd4bb3c57d1b4443229ad5c932b9a77b0ccf2d Mon Sep 17 00:00:00 2001 From: joan726 Date: Tue, 29 Oct 2024 08:43:07 +0800 Subject: [PATCH 6/6] Update ollama_quickstart.zh-CN.md Modified based on comments --- docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md b/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md index 2d9b5a1714d..aaede3869a2 100644 --- a/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md +++ b/docs/mddocs/Quickstart/ollama_quickstart.zh-CN.md @@ -64,7 +64,7 @@ IPEX-LLM 现在已支持在 Linux 和 Windows 系统上运行 `Ollama`。 ``` > [!NOTE] -> 如果你已经安装了更高版本的 `ipex-llm[cpp]`,并希望同时升级 ollama 可执行文件,请先删除目录下旧文件,然后使用 `init-llama`(Linux)或 `init-llama.bat`(Windows)重新初始化。 +> 如果你已经安装了更高版本的 `ipex-llm[cpp]`,并希望同时升级 ollama 可执行文件,请先删除目录下旧文件,然后使用 `init-ollama`(Linux)或 `init-ollama.bat`(Windows)重新初始化。 **现在,你可以按照 ollama 的官方用法来执行 ollama 的命令了。**