当AI不再“看”网页,而是“读”文档,你的网站准备好和AI对话了吗?
引言:不是模型,而是AI的“通用语”
在开始测评前,我们需要先明确一个概念:Llms.txt Documentation 本身并不是一个大语言模型(LLM),也不是一个需要“运行”的软件 。它更像是一个开放的标准协议,或者说是一份写给AI看的“网站地图”和“精简版说明书”。
它存在的意义,就是解决目前AI在读取我们传统网站时“眼花缭乱、抓不住重点”的痛点。想象一下,让AI去看一个充满广告、导航栏、动态特效的普通网页,它就像在嘈杂的集市里找人,效率极低且容易出错 。而 Llms.txt 提供了一个静谧、整洁的“会议室”,让AI能直截了当地获取核心信息 。
1. 模型概述:不是“模型”的“模型”
虽然它不是传统意义上的模型,但我们可以将其视为一个 “AI上下文增强协议”。
1.1 能力评估:它具体能做什么?
它的核心能力不是“推理”,而是 “结构化呈现与导航”。具体能完成以下任务 :
-
文档索引:提供一个
/llms.txt文件,作为网站的“目录”,告诉AI哪里有最重要的内容。 -
内容聚合:提供一个
/llms-full.txt文件,将整个文档库“压缩”成一个巨大的Markdown文件,方便AI一次性读完所有资料。 -
按需获取:支持通过URL后缀
.md的方式,直接获取当前页面的纯净Markdown版本。
有多少个接口?
严格来说,它本身不提供API接口,而是定义了三个标准的“端点”:
-
https://yourdomain.com/llms.txt:轻量级索引。 -
https://yourdomain.com/llms-full.txt:完整内容导出。 -
https://yourdomain.com/any/page.md:单个页面的Markdown版本。
1.2 技术特点介绍:给AI吃的“营养餐”
-
极简主义:完全采用Markdown格式,彻底剥离HTML、CSS和JavaScript,让AI的上下文窗口100%用于理解内容,而不是过滤垃圾信息 。
-
双模策略:通过
llms.txt(索引)和llms-full.txt(全文)的配合,兼顾了轻量级查询和深度阅读的需求。这就好比给AI一本“字典目录”和一本“百科全书”,按需使用 。 -
人类与机器双友好:Markdown本身易读易写,开发者可以轻松维护,AI也能轻松解析 。
1.3 应用场景:谁最需要它?
-
技术文档型网站:如API文档、SDK指南(例如 Stripe、Vercel 的文档)。让Cursor、Copilot等编程助手能精准根据你的API生成代码 。
-
企业内部知识库:让企业内部的AI客服或员工助手,能准确基于最新的内部Wiki回答问题,而不是基于过时的训练数据 。
-
开源项目主页:让想了解项目的AI助手(如ChatGPT with Bing)能快速抓取项目核心定位,向用户提供准确的摘要 。
2. 安装与部署方式:把说明书放到AI能拿到的地方
部署 Llms.txt 并不需要复杂的编程,主要是将文件放置到正确的位置。我们分场景来看:
方案 A:懒人包方案——使用自动化工具(如 GitBook, Apifox)
这是目前最简单的方式,适合所有操作系统(Windows/macOS/Linux)。
-
准备工作:拥有一个基于 GitBook 或 Apifox 发布的在线文档站点。
-
操作步骤:
-
Apifox:进入项目 -> “分享文档” -> 发布文档站 -> 在“AI相关特性”中,确保 Llms.txt 功能开启(默认开启)。系统会自动生成
llms.txt和所有页面的.md版本 。 -
GitBook:在你发布文档站的那一刻,GitBook 就已经自动在根目录生成了
llms.txt和llms-full.txt。
-
-
验证:在浏览器中访问
https://你的文档域名/llms.txt,如果能看到一个结构清晰的Markdown文件列表,即成功。
方案 B:手动挡方案——手动创建并上传(全系统适用)
如果你是自己托管的静态网站(如使用 Hugo, VuePress 等)。
-
准备工作:
-
一台电脑 + 一个文本编辑器(如 VSCode, Notepad++)。
-
具备你的网站服务器(如 Nginx, Apache, GitHub Pages)的文件上传权限。
-
-
步骤(以macOS/Linux为例,Windows类似):
-
创建文件:在本地创建一个名为
llms.txt的文本文件。 -
编写内容:打开文件,按照以下模板编写 :
# 你的项目/公司名 > 用一句话简单描述你的项目是做什么的。 ## 入门指南 - [快速开始](https://yourdomain.com/docs/quickstart.md): 5分钟上手教程 - [安装指南](https://yourdomain.com/docs/installation.md): 详细的安装步骤 ## 核心API - [用户认证](https://yourdomain.com/api/auth.md): 登录、注册、Token刷新 - [数据操作](https://yourdomain.com/api/data.md): 增删改查接口说明 ## 资源 - [常见问题](https://yourdomain.com/help/faq.md) - [更新日志](https://yourdomain.com/changelog.md)
-
生成Markdown页面:你需要确保链接指向的
.md文件真实存在。大多数静态站点生成器都可以配置同时输出.html和.md版本,或者你可以复制你的文档内容另存为.md文件。 -
上传部署:将
llms.txt文件和你所有的.md文件上传到你网站的根目录或相应路径下。 -
Windows用户注意:确保文件扩展名是
.txt而不是.txt.txt。可以在文件夹选项中开启“显示文件扩展名”来检查。
-
方案 C:极客方案——通过 MCP 服务器动态提供(开发环境)
这种方式主要面向 Cursor、Claude Code 这类深度集成的IDE,让AI在编码时能实时“查阅”文档 。
-
前提:系统已安装 Node.js 和 Python 环境。
-
配置(以 Cursor 为例,适用 Windows/macOS/Linux):
-
在项目根目录下创建或编辑
.cursor/mcp.json文件。 -
填入以下配置,告诉 Cursor 去启动一个 MCP 文档服务器 :
{ "mcpServers": { "my-docs": { "command": "uvx", "args": [ "--from", "mcpdoc", "mcpdoc", "--urls", "MyProject:https://yourdomain.com/llms.txt", "--transport", "stdio" ] } } }
-
重启 Cursor,AI 助手现在就能通过 MCP 工具调用你的文档了。
-
常见问题与修复
-
问题:AI 说无法访问我的
llms.txt文件。-
解决:检查文件是否放在了根目录,并且服务器权限设置为允许公开访问。可以用
curl -I https://你的域名/llms.txt命令查看HTTP头信息,确认返回200 OK。
-
-
问题:文件太大了,AI 说超出长度(针对
llms-full.txt)。-
解决:改用
llms.txt索引模式,让AI先看目录,再按需去读具体的.md文件 。
-
3. 配套客户端:谁来读这份说明书?
Llms.txt 是一个标准,几乎所有主流AI工具都能读取。
| 客户端名称 | 是否付费 | 配置方式/使用方式 | 下载地址 |
|---|---|---|---|
| Cursor | 付费/免费试用 | MCP集成:配置 mcp.json@Docs:直接在输入框输入 @Docs 引用 llms.txt URL |
cursor.com |
| Windsurf | 付费/免费试用 | 规则文件:在 .windsurfrules 中添加文档URL,或使用 @ 引用 |
codeium.com |
| Claude Code | 免费(测试版) | 命令行配置:通过 claude mcp add 命令添加 MCP 服务器 |
anthropic.com |
| ChatGPT | 免费/付费Plus | Web Browsing:开启联网搜索后,直接粘贴 llms.txt 或 .md 文件的URL |
chat.openai.com |
| Apifox | 免费基础版 | 内置功能:无需配置,发布文档时自动生成 | apifox.com |
| GitHub Copilot | 付费 | 间接使用:不支持直接读URL,需将文档片段作为注释或提示词的一部分 | github.com |
4. 案例讲解:手把手教你打造一个“AI友好”的宠物商店API
假设我们有一个“喵星人宠物商店”API,想让AI(比如Cursor)能准确理解我们的接口,帮前端同事自动生成TypeScript的调用代码。
模拟场景
后端开发者小王写好了API文档,但前端小张每次都要手动翻看复杂的HTML文档来写请求代码,很耗时。小王决定采用 Llms.txt 标准,让AI助手变成他们的“API传话筒”。
实施步骤
-
准备文档:小王使用 Apifox 管理API,文档地址是
https://catstore.apifox.cn。 -
启用AI特性:小王在Apifox的后台设置中,确保“AI特性” -> “Llms.txt” 处于开启状态。系统自动生成了
llms.txt和所有接口的.md文件 。 -
AI集成:前端小张在 Cursor IDE 中,新建一个文件,并写下了这段提示词 :
“请根据这份API文档
@https://catstore.apifox.cn/api-pets.md,帮我生成一个 TypeScript 的客户端类,包含获取宠物列表和根据ID查询宠物详情的所有方法。” -
AI的“阅读”与“生成”:
-
Cursor 读取了
api-pets.md,这是一个纯净的Markdown文档,里面清晰地列出了/pets(GET) 和/pets/{id}(GET) 的参数、请求示例、返回结构。 -
AI不会读到 Apifox 网页上那些复杂的CSS样式或侧边栏菜单。
-
-
成果展示:AI瞬间生成了一段高质量、可直接运行的TypeScript代码 :
// 这是AI生成的代码,直接可用! class CatStoreAPI { private baseUrl: string; private apiKey: string; constructor(apiKey: string) { this.baseUrl = "https://api.catstore.com/v1"; this.apiKey = apiKey; } // 获取宠物列表 async getPets(category?: string, limit: number = 20): Promise<Pet[]> { const params = new URLSearchParams({ limit: String(limit) }); if (category) params.append('category', category); const response = await fetch(`${this.baseUrl}/pets?${params}`, { headers: { 'X-API-Key': this.apiKey } }); return response.json(); } // 根据ID查询宠物详情 async getPetById(id: number): Promise<Pet> { const response = await fetch(`${this.baseUrl}/pets/${id}`, { headers: { 'X-API-Key': this.apiKey } }); return response.json(); } } interface Pet { id: number; name: string; category: string; price: number; status: 'available' | 'pending' | 'sold'; }
效果对比
-
以前:前端小张需要花10分钟看文档,写代码,还要调试。
-
现在:前端小张花10秒钟打字,复制粘贴代码,微调后即可使用。效率提升不止一个量级。
5. 使用成本与商业价值:以小博大的“高杠杆”投资
使用成本分析
-
财务成本:几乎为零。Llms.txt 是开放标准,免费使用。无论是手动创建还是利用 GitBook、Apifox 等工具的免费套餐,都无需额外付费 。
-
时间成本:
-
自动生成:0分钟(如果你用GitBook/Apifox)。
-
手动创建:1-2小时初始设置,后续每月维护不超过半小时 。
-
-
学习成本:极低。只要会写Markdown,就能上手。
商业价值评估
-
降低AI使用成本:AI在处理传统HTML时,会浪费大量宝贵的Token(消耗你的额度)去解析无用的代码。Llms.txt 提供的是“压缩饼干”,Token利用率极高,直接降低调用OpenAI等API的费用 。
-
提升开发者体验与效率:如案例所示,它能将AI编程助手的准确率提升30%-50% 。这意味着更少的“幻觉”(AI胡说八道),更少的调试时间,更快的交付周期。
-
抢占AI流量入口:像 Vercel 报告的那样,有约10%的新用户是通过AI推荐来的 。如果你的文档能被AI轻松理解并优先推荐,你就多了一个免费的、高质量的AI流量分发渠道。
-
增强品牌专业度:对于技术导向型公司,提供 AI-ready 的文档,本身就是一种“我们是极客,我们懂AI”的品牌形象展示。
结论
Llms.txt Documentation 并非那种让人眼前一亮的炫酷黑科技,它更像是一种 “润物细无声”的基础设施建设。它以极低的成本,解决了AI时代人机交互中最基础也最烦人的“沟通障碍”问题。对于任何有在线文档的团队来说,配置 Llms.txt 就像是给你的网站装上了“AI降噪耳机”——花小钱,办大事,这可能是2024-2025年最具“性价比”的技术投资之一。

关注 “悠AI” 更多干货技巧行业动态