圣经智能体 AI 技术实现

返回上一页 返回主页

一、整体技术路径

本项目采用 前后端分离 + 本地知识库检索 + 大模型生成 的落地方式。前端提供登录、会话与提问界面;后端负责用户鉴权、上下文拼接、圣经文本检索、调用 DeepSeek 大模型并返回回答。

前端层

页面交互、会话管理、流式渲染,主文件为 index.html

服务层

Node.js + Express 提供 API,登录与历史会话持久化在 server/data/history

编排层

LangChain 负责 Prompt 模板、链式调用、输出解析与流式生成。

模型层

DeepSeek 提供推理能力,通过 OpenAI 兼容接口调用。

二、LangChain 如何实现

  1. 读取《圣经和合本》文本(doc/圣经中文和合本.txt)。
  2. 使用 RecursiveCharacterTextSplitter 对长文本切块,构建可检索片段。
  3. 对用户问题进行分词与匹配,召回最相关的经文片段(Top-K)。
  4. 将“用户问题 + 历史对话 + 经文片段”拼成结构化 Prompt。
  5. 通过 ChatOpenAI(baseURL 指向 DeepSeek)生成回答。
  6. StringOutputParser 解析输出,并支持流式返回到前端。

在后端代码中,核心链路是 PromptTemplate -> ChatOpenAI -> StringOutputParser,并通过 RunnableSequence 串联执行。

三、为什么选择这种方案

可控

经文资料可本地维护,回答依据透明,便于审阅与纠偏。

可扩展

后续可以增加注释书、神学词典、讲章库等多源知识。

易运维

Node 服务固定端口(5030),可通过 FRP/Nginx 做外网发布。

体验好

支持会话历史和流式回复,接近主流 AI 对话产品体验。

四、接口与部署摘要

主要接口:/api/auth/*/api/conversations/*/api/chat/*

部署链路:Browser -> Nginx(HTTPS) -> 127.0.0.1:7088 -> FRP -> Ubuntu:5030(Node)