添加或更新 robots.txt 文件

本文介绍如何为在 Microsoft Dynamics 365 Commerce 中托管的每个域创建、编辑、上传和验证 robots.txt 文件。

搜索引擎对网站的意外或不定向抓取会导致大量“404 未找到页面”错误。 这些错误会影响网站性能,因为网站会响应所有对不存在的页面的请求。 为帮助解决这一问题,您应确保您的域始终拥有最新且有效的 robots.txt 文件,以指示 Web 爬网程序仅在您的网站上查找相关页面。

适用于

本文适用于以下配置:

  • 版本: Commerce 10.0.16 或更高版本
  • 组件: 企业到消费者(B2C)或企业到企业(B2B)
  • 功能区域: Commerce 网站性能

先决条件

  • 您是 Commerce 实例的系统管理员

  • 根据您的情况,您已经在计算机上创建了 robots.txt 文件或下载了一份副本:

    • 如果您之前没有为域名上传 robots.txt 文件,请按照机器人排除标准在电脑上创建一个新文件。 请使用本文后面的 robots.txt 文件示例作为起点。
    • 如果您之前已经为域名上传了 robots.txt 文件,请下载现有文件。

完成步骤

要编辑和上传 robots.txt 文件,请按照以下步骤操作。

  1. 打开 robots.txt 文件的本地副本。
  2. 编辑该文件,使其包含以下robots.txt 文件示例中的所有禁止条目。
  3. 确认文件格式符合机器人排除标准
  4. 按照上传 robots.txt 文件中的说明将文件上传到您的网站。

robots.txt 文件内容示例

User-agent: *
Disallow: /signin
Disallow: /cart
Disallow: /*refiners=
Disallow: /*sorting=
Disallow: /*search?
Disallow: /*search=
Disallow: /*.woff
Disallow: /*.woff2
Disallow: /*skip=

验证

使用以下方法验证文件是否已添加:

  • 描述或目的: 验证您的 robots.txt 文件是否可用于您的域。
  • 运行步骤: 在 Web 浏览器中,以 <your_domain>/robots.txt 打开页面
  • 通过结果: 您可以成功查看您的 robots.txt 文件。

其他资源

管理 robots.txt 文件

系统管理员角色