5分钟解决 Dify 无法连接 Ollama 的问题
本文最后更新于 2025-09-25,文章内容可能已经过时。
问题:在 Dify 中添加 Ollama 模型提供商时,界面卡住没反应。
根本原因:Dify 的 Docker 容器与 Ollama 的 Docker 容器不在同一个网络中,无法直接通信。
解决方案:将它们连接到同一个 Docker 网络,并使用容器名进行访问。
极速解决步骤:
停止 Dify:
cd /path/to/dify/docker docker compose down配置 Dify 插件路径: 编辑
dify/docker目录下的.env文件,末尾添加:PLUGIN_WORKING_PATH=/app/cwd重启 Dify 并查看网络:
docker compose up -d docker network ls | grep dify # 记下网络名,通常是 `dify_default`将 Ollama 接入 Dify 网络: 停止 Ollama 容器,然后修改其
docker-compose.yml文件,在services.ollama部分添加网络配置:services: ollama: image: ollama/ollama container_name: ollama ports: - "11434:11434" networks: # 新增这部分 - dify_default # 使用上一步查到的网络名 networks: # 新增这部分 dify_default: external: true # 声明使用外部网络重启 Ollama:
docker compose up -d在 Dify 中配置:
- 模型提供商:Ollama
 - 模型终结点 URL 填写:
http://ollama:11434 - 模型名称填写你在 Ollama 中拉取的模型(如 
llama2) 
完成! 现在你的 Dify 应该可以正常识别并添加 Ollama 模型了。
            本文是原创文章,采用 CC BY-NC-ND 4.0 协议,完整转载请注明来自 Geek小程
        
     评论
            
                匿名评论
                隐私政策
            
            
                你无需删除空行,直接评论以获取最佳展示效果
            
        音乐天地