网站快照时间,网站被黑 原因,宠物用品网站建设,农村网站建设调查报告目录 
一、效果预览 
二、部署ollama 
1.ollama说明 
2.安装流程 
2.1 windows系统 
2.1.1下载安装包 
2.1.2验证安装结果 
2.1.3设置模型文件保存地址 
2.1.4拉取大模型镜像 
2.2linux系统 
2.2.1下载并安装ollama 
2.2.2设置环境变量 
2.2.3拉取模型文件 
三、部署open-webui…目录 
一、效果预览 
二、部署ollama 
1.ollama说明 
2.安装流程 
2.1 windows系统 
2.1.1下载安装包 
2.1.2验证安装结果 
2.1.3设置模型文件保存地址 
2.1.4拉取大模型镜像 
2.2linux系统 
2.2.1下载并安装ollama 
2.2.2设置环境变量 
2.2.3拉取模型文件 
三、部署open-webui 
1.open-webui介绍 
2.安装流程 
2.1windows 
2.1.1下载源码 
2.1.2用pycharm新建一个虚拟环境编辑 
2.1.3安装nodejs依赖 
2.1.4安装python依赖 
2.1.5启动webui 
2.2linux 
2.2.1安装nodejs 
2.2.2安装miniconda3 
2.2.3创建python虚拟环境 
2.2.4安装open-webui并启动 
四、注意事项 一、效果预览 
基于ollama和open-webui本地部署类似chatgpt的网页版大模型。先看看部署效果 如果不习惯英文界面可以设置成中文界面 二、部署ollama 
1.ollama说明 
ollama的官网https://www.ollama.com/ 
ollama的github项目地址https://github.com/ollama/ollama 
ollama是一个大模型容器管理框架它可以帮助用户快速在本地运行大模型类似于docker。ollama可以运行在GPU或CPU它会自动根据你电脑硬件选择GPU或CPU运行。 
windows只支持win10或更高的版本官方说明如下。 
 
ollama 支持具有 5.0 计算能力的 Nvidia GPU显卡计算能力如下图所示 
 
ollama也支持AMD详见官方文档说明ollama/docs/gpu.md at main · ollama/ollama (github.com)https://github.com/ollama/ollama/blob/main/docs/gpu.md 
ollama管理的大模型都是经过量化后的大模型所以它的模型文件会小很多。以ollama中llama3-8b为例llama3-8b原始模型大小接近15G量化模型的只有4.7G需要的硬件条件大大降低老破小的福音。 
 
2.安装流程 
2.1 windows系统 
windows只支持win10或更高的版本。 
2.1.1下载安装包 
windows系统直接下载安装程序默认是最新的版本下载完成后直接点击安装即可默认安装在C:\Users\Administrator\AppData\Local\Programs\Ollama。 Download Ollama on Windowshttps://ollama.com/download 
2.1.2验证安装结果 
安装完成后电脑右下角任务栏处显示ollama图标。安装后打开cmd命令窗口输入ollama -v查看安装版本如果不小心关闭了ollama程序输入ollama serve即可重新启动ollama服务ollama自带运行日志管理。 
ollama serve默认端口为127.0.0.1:11434这个端口在部署open-webui时需要用到建议默认即可。如果需要修改默认端口则需要添加一个环境变量OLLAMA_HOST0.0.0.0:11434。 
 
 
2.1.3设置模型文件保存地址 
设置模型文件保存位置打开系统环境变量配置添加一个环境变量OLLAMA_MODELSD:\huggingface\ollama自己指定任意一个文件夹路径然后点确定。 
如果不设置环境变量模型文件会自动保存在C盘。时间久了C盘很容易存满。 
 
2.1.4拉取大模型镜像 
以下载llama3-8b为例子打开ollama官网Ollama点击右上角Models型。 
 
 
重新打开一个cmd窗口输入ollama run llama3:8b。模型会拉取文件然后运行模型。如果只想下载模型则输入ollama pull llama3:8b。需要运行的时候再输入ollama run llama3:8b即可。 
模型下载速度很快不需要魔法基本上可以达到满速如果自己电脑下载很慢ctrlc中止下载再重新下载镜像。 
 
不知道为啥文件快要下载完成的时候会突然变慢。此时ctrlc中止后再重新下载镜像下载速度又快了。 
 
下载完成后如果界面如下则表示llama3:8b可以正常对话了。 
 
如果出现Error: llama runner process no longer running: 3221225785。很有可能是ollama版本与操作系统不和谐的关系默认下载的是最新版此时需要降低ollama版本至0.1.31。博客首页有ollama0.1.31版本下载链接。网盘下载链接 
2.2linux系统 
2.2.1下载并安装ollama curl -fsSL https://ollama.com/install.sh | sh 2.2.2设置环境变量 
设置默认端口0.0.0.0:11434这种情况可以允许所有网络请求存在一定安全风险个人建议最好将OLLAMA_HOST改成127.0.0.1:11434。 echo export OLLAMA_HOST0.0.0.0:11434~/.bashrc 设置模型默认下载地址 echo export OLLAMA_MODELS/root/ollama/models~/.bashrc 查看设置情况 
cat ~/.bashrc 
激活配置 source ~/.bashrc 启动ollama 服务 ollama serve 2.2.3拉取模型文件 
重新打开一个shell终端 ollama run llama3:8b 三、部署open-webui 
1.open-webui介绍 
Open WebUI 是一种可扩展、功能丰富且用户友好的自托管 WebUI旨在完全离线运行。它支持各种LLM运行器包括 Ollama 和 OpenAI 兼容的 API。 
open-webui项目地址https://github.com/open-webui/open-webui/tree/main 2.安装流程 
项目运行需要python和nodejs环境 
node.js安装及环境配置超详细教程【Windows系统安装包方式】_node 0.12.6 安装 node-echarts 包-CSDN博客 
2.1windows 
2.1.1下载源码 
从github上下载open-webui源码无法打开github网站的也可以从gitee等国内镜像上搜索open-webui。我用的是pycharm运行项目然后复制.env.example文件为.env。 
 
2.1.2用pycharm新建一个虚拟环境 
2.1.3安装nodejs依赖 
设置npm下载镜像源提高下载速度 
npm config set registry https://mirrors.huaweicloud.com/repository/npm/ npm i  npm run build  2.1.4安装python依赖 cd backend
pip install -r requirements.txt 2.1.5启动webui 
2.1.5.1windows系统运行start_windows.bat。linux系统运行start.sh文件。 
2.1.5.2执行脚本后会自动从huggingface.co下载sentence-transformers模型文件all-MiniLM-L6-v2服务器在国外无法下载所以先从国内镜像网站上将模型和配置文件下载到本地。HF-Mirror - Huggingface 镜像站 
 
2.1.5.3打开backend/apps/rag/utils.py文件修改第318行。重新执行start_windows.bat或start.sh # 原代码为
embedding_model_repo_path  snapshot_download(**snapshot_kwargs)# 替换为本地文件路径
embedding_model_repo_path  rD:\huggingface\all-MiniLM-L6-v2 #embedding_model_repo_path  snapshot_download(**snapshot_kwargs) 2.1.6启动后的界面网页地址在最下面点击即可打开webui 
 
2.2linux 
2.2.1安装nodejs #1.安装最新版nodejscurl -sL https://deb.nodesource.com/setup_20.x -o nodesource_setup.shbash nodesource_setup.shapt install nodejs -y#2.测试nodejs npm是否安装正确echo nodejs版本为node -vecho npm 版本为npm -v#3.设置npm镜像源npm config set registry https://mirrors.huaweicloud.com/repository/npm/ 2.2.2安装miniconda3 mkdir -p ~/miniconda3
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -O ~/miniconda3/miniconda.sh
bash ~/miniconda3/miniconda.sh -b -u -p ~/miniconda3
rm -rf ~/miniconda3/miniconda.sh
~/miniconda3/bin/conda init bash  source /root/.bashrc
# ~/miniconda3/bin/conda init zsh
#设置conda镜像源
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
conda config --set show_channel_urls yes
#设置pip镜像源
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple 
2.2.3创建python虚拟环境 
#1.构建虚拟环境
conda create -n open-webui python3.8
#2.更新bashrc中的环境变量
conda init bash  source /root/.bashrc
#3.切换到创建的虚拟环境
conda activate open-webui2.2.4安装open-webui并启动 
#1.拉取源码
cd ~
git clone https://gitee.com/pandaworker/open-webui.git
cd open-webui
cp -RPp .env.example .env
#2.安装前端依赖
npm i
npm run build
#3.安装后端依赖
cd backend
pip install -r requirements.txt
#4.启动后端
bash start.sh 
四、注意事项 
1.打开网页后注册的第一个用户默认为管理员账号以后注册的账号角色均为pending待分配权限。 
2.修改权限的方法。方法一数据存放在backend/data/webui.db中可以用数据库可视化软件打开数据库将账号由pending修改为user或admin。方法二修改backend/config.py文件中第358行DEFAULT_USER_ROLE  os.getenv(DEFAULT_USER_ROLE, pending)将pending修改为user普通用户或admin管理员以后每次注册的账号就不需要管理员分配权限。 
3.ollama run llama3无法运行提示Error: llama runner process no longer running: 3221225785。很有可能是ollama版本与操作系统不和谐的关系默认下载的是最新版此时需要降低ollama版本至0.1.31。博客首页有ollama0.1.31版本下载链接。