Intel Arc显卡安装Ollama

在Intel Arc独立显卡上安装运行Ollama

本文参考 Run Ollama with IPEX-LLM on Intel GPU 并简化

使用Ollama可以帮助你轻易的启动并运行 Llama 3.3、DeepSeek-R1、Phi-4、Gemma 3、Mistral Small 3.1 和其他大型语言模型。

在NVIDIA机器上,安装好应用程序和大模型后你几乎不需要任何配置,直接开始对话。

然而,你可能正在使用Intel Arc显卡,Ollama对于此问题的回复

如果你仍然继续以正常方式安装,你会发现它运行在CPU上

要继续使用Intel Arc显卡运行Ollama,需要额外的步骤

开始之前,请确认你的驱动程序版本不低于31.0.101.5522,否则你需要升级你的驱动程序。确保你的主板BIOS已经启用了Resizable Bar功能

快速安装:使用Ollama Portable Zip

下载好解压后,windows用户运行start-ollama.bat即可运行Ollama服务,linux可以运行start-ollama.sh

打开另一个终端,输入./ollama run deepseek-r1:7b即可下载运行deepseek 7b模型。

更多模型参考Ollama Library

手动安装

安装Anaconda,选择对应的操作系统,下载完成后,根据你的操作系统安装软件的方式安装Anaconda。

安装完成后,打开Anaconda终端(Windows选择CMD终端),切换到当前用户主文件夹,依次执行每一行命令:

1
2
3
4
5
mkdir llama-cpp
cd llama-cpp
conda create -n llm-cpp python=3.11
conda activate llm-cpp
pip install --pre --upgrade ipex-llm[cpp]

这些命令对于Linux或Windows都适用

之后,初始化Ollama

Linux:

1
init-llama-cpp

Windows请用管理员身份运行终端以及其中命令:

1
init-llama-cpp.bat

这会为你安装好llama.cpp

初始化完成后,如果需要更高效运行,建议设置变量:

Linux:

1
2
3
4
5
6
source /opt/intel/oneapi/setvars.sh
export SYCL_CACHE_PERSISTENT=1
# [optional] under most circumstances, the following environment variable may improve performance, but sometimes this may also cause performance degradation
export SYCL_PI_LEVEL_ZERO_USE_IMMEDIATE_COMMANDLISTS=1
# [optional] if you want to run on single GPU, use below command to limit GPU may improve performance
export ONEAPI_DEVICE_SELECTOR=level_zero:0

Windows请在管理员终端运行命令:

1
2
3
set SYCL_CACHE_PERSISTENT=1
rem under most circumstances, the following environment variable may improve performance, but sometimes this may also cause performance degradation
set SYCL_PI_LEVEL_ZERO_USE_IMMEDIATE_COMMANDLISTS=1

之后,初始化Ollama:

Linux:

1
2
3
4
5
6
7
8
9
10
11
12
13
init-ollama
export OLLAMA_NUM_GPU=999
export no_proxy=localhost,127.0.0.1
export ZES_ENABLE_SYSMAN=1

source /opt/intel/oneapi/setvars.sh
export SYCL_CACHE_PERSISTENT=1
# [optional] under most circumstances, the following environment variable may improve performance, but sometimes this may also cause performance degradation
export SYCL_PI_LEVEL_ZERO_USE_IMMEDIATE_COMMANDLISTS=1
# [optional] if you want to run on single GPU, use below command to limit GPU may improve performance
export ONEAPI_DEVICE_SELECTOR=level_zero:0

./ollama serve

Windows管理员:

1
2
3
4
5
6
7
8
9
init-ollama.bat
set OLLAMA_NUM_GPU=999
set no_proxy=localhost,127.0.0.1
set ZES_ENABLE_SYSMAN=1
set SYCL_CACHE_PERSISTENT=1
rem under most circumstances, the following environment variable may improve performance, but sometimes this may also cause performance degradation
set SYCL_PI_LEVEL_ZERO_USE_IMMEDIATE_COMMANDLISTS=1

ollama serve

之后会启用Ollama服务,你可以打开另一个终端并切换到相同目录运行./ollama run deepseek-r1:7b下载运行deepseek 7b模型。

以后可以打开终端运行./ollama serve即可打开ollama

Windows需要使用Miniforge Prompt运行此命令


GPLv3 License


Intel Arc显卡安装Ollama
http://blog.clazys.qzz.io/2025/05/02/arc-ollama/
作者
Clazys
发布于
2025年5月2日
许可协议