RuoYi-AI 本地运行全流程指南

本文将详细介绍如何在本地环境部署和运行 RuoYi-AI 项目,实现基于大模型的智能问答和 RAG 知识库功能。

技术栈概览

类别 组件
数据库 MySQL、Redis
大模型平台 Ollama
问答模型 qwen2:0.5b
向量模型 embeddinggemma:300m
向量数据库 Milvus(Docker 部署)
可视化工具 Attu
容器化 Docker、Docker Compose、MinIO、Etcd
开发环境 Node.js、Maven、NPM、Git、PNPM、JDK21

第一步:克隆项目

git clone https://gitee.com/ageerle/ruoyi-ai

在这里插入图片描述


第二步:配置后端项目

2.1 初始化数据库

找到项目中的 SQL 脚本文件 script/sql/ruoyi-ai.sql,连接本地 MySQL 数据库并执行该脚本完成数据初始化。

2.2 修改数据库连接配置

编辑配置文件 ruoyi-admin/src/main/resources/application-dev.yml,修改数据库连接信息:

strict: true
datasource:
  master:
    type: ${spring.datasource.type}
    driverClassName: com.mysql.cj.jdbc.Driver
    url: jdbc:mysql://127.0.0.1:3306/ruoyi-ai?useUnicode=true&characterEncoding=utf8
    username: root
    password: 123456

同时修改 Redis 连接配置(同一文件中)。


第三步:安装 Ollama

系统要求

在开始安装前,请确认你的电脑满足以下基本要求:

  • 操作系统:Windows 10/11 64位(建议 21H2 及以上版本)
  • 内存:最低 8GB,推荐 16GB 或以上(运行 7B 参数模型建议 32GB)
  • 存储空间:至少 10GB 可用空间,推荐 40GB 以上用于存放多个模型
  • 显卡(可选但强烈推荐):支持 CUDA 的 NVIDIA 显卡可大幅提升运行速度
  • 依赖项:如安装后无法正常运行,可能需要安装 Visual C++ Redistributable

安装步骤

  1. 下载安装包

    访问 Ollama 官网 https://ollama.com/,点击 “Download for Windows” 下载安装程序。

  2. 运行安装

    双击下载的 OllamaSetup.exe 文件,按照向导提示完成安装。默认安装路径为 C:\Program Files\Ollama

    如需自定义安装路径,可使用管理员权限打开 PowerShell,运行:

    .\OllamaSetup.exe /DIR="E:\Ollama"
    
  3. 验证安装

    打开命令提示符或 PowerShell,输入:

    ollama --version
    

    显示版本号(如 ollama version 0.1.xx)即表示安装成功。


第四步:安装推理模型(问答模型)

使用 Ollama 安装 qwen2:0.5b 问答模型:

ollama pull qwen2:0.5b

安装完成后,可使用以下命令查看已安装的模型:

ollama list

输出示例:

NAME                   ID              SIZE      MODIFIED
qwen2:0.5b             6f48b936a09f    352 MB    4 months ago

第五步:安装向量模型

使用 Ollama 安装 embeddinggemma:300m 向量模型:

ollama pull embeddinggemma:300m

安装完成后验证:

ollama list

输出示例:

NAME                   ID              SIZE      MODIFIED
embeddinggemma:300m    85462619ee72    621 MB    24 hours ago
qwen2:0.5b             6f48b936a09f    352 MB    4 months ago

第六步:部署向量数据库(Milvus)

6.1 编写 Docker Compose 配置

⚠️ 注意:Attu 和 Milvus 的版本必须兼容

创建 docker-compose.yml 文件:

version: '3.5'

services:
  etcd:
    container_name: milvus-etcd
    image: quay.io/coreos/etcd:v3.5.5
    environment:
      - ETCD_AUTO_COMPACTION_MODE=revision
      - ETCD_AUTO_COMPACTION_RETENTION=1000
      - ETCD_QUOTA_BACKEND_BYTES=4294967296
      - ETCD_SNAPSHOT_COUNT=50000
    volumes:
      - ${DOCKER_VOLUME_DIRECTORY:-.}/volumes/etcd:/etcd
    command: etcd -advertise-client-urls=http://127.0.0.1:2379 -listen-client-urls http://0.0.0.0:2379 --data-dir /etcd

  minio:
    container_name: milvus-minio
    image: minio/minio:RELEASE.2023-03-20T20-16-18Z
    environment:
      MINIO_ACCESS_KEY: minioadmin
      MINIO_SECRET_KEY: minioadmin
    volumes:
      - ${DOCKER_VOLUME_DIRECTORY:-.}/volumes/minio:/minio_data
    command: minio server /minio_data
    healthcheck:
      test: ["CMD", "curl", "-f", "http://localhost:9000/minio/health/live"]
      interval: 30s
      timeout: 20s
      retries: 3

  standalone:
    container_name: milvus-standalone
    image: milvusdb/milvus:v2.5.12
    command: ["milvus", "run", "standalone"]
    environment:
      ETCD_ENDPOINTS: etcd:2379
      MINIO_ADDRESS: minio:9000
    volumes:
      - ${DOCKER_VOLUME_DIRECTORY:-.}/volumes/milvus:/var/lib/milvus
    ports:
      - "19530:19530"
      - "9091:9091"
    depends_on:
      - "etcd"
      - "minio"

  attu:
    container_name: milvus-attu
    image: zilliz/attu:v2.5.6
    environment:
      MILVUS_URL: standalone:19530
    ports:
      - "8000:3000"
    depends_on:
      - "standalone"

networks:
  default:
    name: milvus

6.2 启动服务

docker compose up -d

6.3 验证服务状态

docker ps

外链图片转存失败,源站可


第七步:配置向量数据库和模型

编辑配置文件 ruoyi-admin/src/main/resources/application.yml,添加大模型和向量库配置:

spring:
  ai:
    openai:
      api-key: localOllama
      base-url: http://localhost:11434
      embedding:
        api-key: localOllama
        base-url: http://localhost:11434
        options:
          model: embeddinggemma:300m
      chat:
        api-key: localOllama
        base-url: http://localhost:11434
        options:
          model: qwen2:0.5b
          temperature: 0.5

vector-store:
  type: milvus
  weaviate:
    protocol: http
    host: 127.0.0.1:6038
    classname: LocalKnowledge
  milvus:
    url: http://127.0.0.1:19530
    collectionname: LocalKnowledge

第八步:安装前端项目

管理端

git clone https://gitee.com/ageerle/ruoyi-admin
cd ruoyi-admin
pnpm install
pnpm run dev:antd

配置修改:

  • 后台接口配置:/apps/web-antd/vite.config.mts
  • 其他配置:/apps/web-antd/.env.development

用户端

git clone https://gitee.com/ageerle/ruoyi-web
cd ruoyi-web
pnpm install
pnpm run dev

第九步:启动项目

  1. 启动后端:运行 SpringBoot 主类 org.ruoyi.RuoYiAIApplication
  2. 启动前端:确保依赖安装完成后启动前端项目

第十步:访问系统

服务 地址
Attu 向量数据库可视化 http://127.0.0.1:8000/
管理端 http://localhost:5666/
用户端 http://localhost:1002/

界面预览

Attu 向量数据库可视化面板:
在这里插入图片描述

管理端界面:

在这里插入图片描述

用户端界面:

在这里插入图片描述


第十一步:测试问答模型

11.1 管理端添加模型

在管理端添加 Ollama 的问答推理模型:

在这里插入图片描述

11.2 用户端测试

在用户端选择已添加的模型进行问答测试:

在这里插入图片描述

在这里插入图片描述


第十二步:配置 RAG 知识库

12.1 配置向量模型

在管理端配置向量模型:

在这里插入图片描述

12.2 创建知识库

建立本地知识库:

在这里插入图片描述

12.3 上传文档

为知识库上传本地文件进行 RAG 向量化处理:

在这里插入图片描述

12.4 等待向量化完成

文档处理完成后会生成知识片段:

在这里插入图片描述

12.5 验证向量数据

在 Attu 中查看向量数据库中的数据:

在这里插入图片描述


第十三步:基于 RAG 的智能问答

完成以上配置后,即可体验基于大模型 + RAG 检索增强 + 本地知识库的智能问答功能:

在这里插入图片描述


总结

本文详细介绍了 RuoYi-AI 项目的本地部署流程,涵盖:

  1. 环境准备:MySQL、Redis、Ollama、Docker 等基础组件
  2. 模型部署:qwen2:0.5b 问答模型和 embeddinggemma:300m 向量模型
  3. 向量数据库:Milvus 及其可视化工具 Attu 的 Docker 部署
  4. 前后端配置:项目克隆、依赖安装、配置修改
  5. 功能验证:问答测试和 RAG 知识库配置

通过本指南,你可以快速搭建一套完整的本地 AI 问答系统,实现基于私有知识库的智能问答能力。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐