核心功能
基于 LangChain 构建的完整 RAG 问答流程,从文档入库到智能问答一体化。
RAG 检索增强生成
将用户问题向量化后在知识库中精准检索,结合大模型生成结构清晰的回答,而非凭空生成。
FAISS 向量检索
使用 Facebook FAISS 引擎进行毫秒级语义相似度搜索,支持千级文档切片的高效检索。
流式实时输出
基于 SSE 协议,回答逐字实时推送到前端,打字机效果消除等待感,响应时间感知提升 60%。
文档即时入库
支持上传 PDF、Markdown、TXT 文档,自动切片、向量化并增量写入知识库,无需重建索引。
来源引用溯源
每条回答附带参考来源文件名,用户可展开查看引用片段,确保信息可信可追溯。
拒绝编造信息
如果知识库中没有相关内容,系统明确说明"未找到依据",杜绝幻觉式回答,保证信息准确性。
使用方式
四步完成从文档入库到智能问答的完整流程。
01
构建知识库
将校园文档(教务规章、选课手册、图书馆公告等)上传至系统,自动完成切片与向量化,存入 FAISS 索引。
支持 PDF / MD / TXT 格式,上传后秒级生效02
语义检索
用户提问后,系统将问题转为向量,在知识库中进行语义相似度搜索,召回最相关的 4 个文档片段。
使用 OpenAI Embeddings 进行向量化检索03
LLM 生成回答
将检索到的上下文与用户问题一起传入大语言模型,基于真实资料生成准确、结构清晰的回答。
支持任意 OpenAI 兼容接口的模型04
流式返回展示
回答通过 SSE 协议逐字推送到前端,实现打字机效果,并在回答末尾展示引用的来源文件。
来源可溯源,杜绝信息编造FAQ
Essential answers about using and integrating the AI agent.