Dify使用本地大模型Ollama指南

首先安装Dify:
安装docker-compose

sudo curl -L "https://github.com/docker/compose/releases/download/v2.20.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
#连接超时用下面这句
#sudo wget -L "https://github.com/docker/compose/releases/download/v2.20.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose
docker-compose -v
#安装docker
sudo apt install docker.io

下载dify配置文件

mkdir dify
cd dify
wget https://archive.spacemit.com/spacemit-ai/dify/spacemit-dify.tar.gz
tar -xvzf spacemit-dify.tar.gz
#启动dify
docker-compose up -d

在浏览器输入127.0.0.1/install即可使用。
使用本地大模型Ollama(本项目ollama拥有一个专属docker,无需另起本地Ollama服务):
登录dify后,点击右上角昵称,点击模型供应商,点击ollama,模型名称填入内置的qwen2-quantify大模型,基础URL填入http://ollama:11434,点击确认,即可在Dify上使用本地大模型ollama


回到主界面,点击创建应用,进入聊天界面,点击发布左边的模型,会出现ollamaqwen2-quantify模型,选择模型即可进行聊天。

初次使用时,使用 ip 访问 ip/install 这个显示 localhost:5001 访问不到,现在强制替换了 js 文件中的 localhost 为我自己的 ip,请问这个有没有更优雅的解决方法

可以尝试在docker-compose里面自己修改端口号:


docker-compose在这:https://archive.spacemit.com/spacemit-ai/dify/spacemit-dify.tar.gz