本文最后更新于 2025-09-25,文章内容可能已经过时。

问题:在 Dify 中添加 Ollama 模型提供商时,界面卡住没反应。

根本原因:Dify 的 Docker 容器与 Ollama 的 Docker 容器不在同一个网络中,无法直接通信。

解决方案:将它们连接到同一个 Docker 网络,并使用容器名进行访问。

极速解决步骤:

  1. 停止 Dify

    cd /path/to/dify/docker
    docker compose down
    
  2. 配置 Dify 插件路径: 编辑 dify/docker 目录下的 .env 文件,末尾添加:

    PLUGIN_WORKING_PATH=/app/cwd
    
  3. 重启 Dify 并查看网络

    docker compose up -d
    docker network ls | grep dify
    # 记下网络名,通常是 `dify_default`
    
  4. 将 Ollama 接入 Dify 网络: 停止 Ollama 容器,然后修改其 docker-compose.yml 文件,在 services.ollama 部分添加网络配置:

    services:
      ollama:
        image: ollama/ollama
        container_name: ollama
        ports:
          - "11434:11434"
        networks:  # 新增这部分
          - dify_default  # 使用上一步查到的网络名
    
    networks:  # 新增这部分
      dify_default:
        external: true  # 声明使用外部网络
    
  5. 重启 Ollama

    docker compose up -d
    
  6. 在 Dify 中配置

    • 模型提供商:Ollama
    • 模型终结点 URL 填写:http://ollama:11434
    • 模型名称填写你在 Ollama 中拉取的模型(如 llama2

完成! 现在你的 Dify 应该可以正常识别并添加 Ollama 模型了。