使用文档

最后更新日期:2026年3月28日

一、产品介绍

AskMe 是一款私有知识库 AI 问答系统,方便您基于私有文档快速问答。

📚 智能知识库
上传文件自动建立索引,快速查询相关信息
🧠 上下文理解
记住对话历史,理解用户意图,智能问题改写
⚡ 高效检索
采用向量数据库和重排序算法,提高精准度
🔒 完全私密
所有数据本地存储,无需上传到云端

二、快速开始

第一步:上传知识库

点击左侧边栏「📚 知识库管理」,将 PDF、Markdown 或文本文件上传到系统。系统会自动建立向量索引。

支持格式:PDF、TXT、Markdown

文件限制:每个文件最大 200MB

第二步:配置 AI 模型

点击左侧边栏「⚙️ 系统配置」,选择 AI 服务提供商并填写 API Key。

支持的提供商:

第三步:开始问答

返回主界面,在对话框中输入关于知识库内容的问题。系统会从知识库中检索相关信息,为您生成准确的答案。

三、功能说明

3.1 对话管理

3.2 知识库管理

3.3 系统配置

配置项 说明
模型提供商 选择使用的 AI 服务(DashScope / Ollama)
模型类型 选择具体的模型名称
API Key 云端模型必填,本地 Ollama 可留空
检索数量 (Top K) 从向量库检索的文档数量,默认 5
重排数量 经过重排后保留的文档数量,默认 3
相似度阈值 文档相似度下限,低于此值将被过滤
跳过查询改写 开启后直接使用原问题检索,可降低延迟
最近对话轮数 模型保留的最近对话轮数
长期记忆 启用后系统会记录总结用户的会话历史,作为用户的长期记忆

四、常见问题

Q: 上传文件后多久可以检索?

文件上传后会自动进行向量化处理,通常在几秒内完成。较大文件可能需要更长时间。

Q: 为什么检索不到相关内容?

请检查:1) 文件是否上传成功;2) 相似度阈值是否设置过高;3) 尝试调整检索数量。

Q: 如何使用本地模型?

在「系统配置」中选择 Ollama 提供商,填写 Ollama 服务地址即可。支持任何 Ollama 支持的模型。

Q: 数据存储在哪里?

所有数据(包括上传的文件、向量化数据、对话历史)都存储在本地应用数据目录,不会发送到任何云端服务器。

Q: 端口被占用怎么办?

如果在启动时提示端口被占用,请手动关闭占用 18888 端口的其他程序。

提示:如果遇到其他问题,可以尝试重启应用或重新上传文件。部分配置修改后需要保存并重启服务才能生效。

五、技术架构

AskMe 采用 RAG(检索增强生成)技术架构:

六、获取帮助

如果您在使用过程中遇到问题,欢迎通过以下方式联系我们:

电子邮件:admin@zhizhi123.com

官方网站:https://ai.zhizhi123.com