共用方式為


新增或更新 robots.txt 檔案

本文介紹如何為託管的每個域創建、編輯、上傳和驗證 robots.txt 檔 Microsoft Dynamics 365 Commerce。

搜尋引擎對您的網站進行意外或無定向抓取可能會導致大量「404 網頁未找到」錯誤。 這些錯誤可能會影響性能,因為網站會回應對不存在的頁面的所有請求。 為了幫助解決此問題,您應確保您的網域始終具有最新且有效的 robots.txt 檔,以指示網路抓取工具僅在您的網站上查找相關網頁。

適用於

本文適用於以下設定:

  • 版本: Commerce 10.0.16 或更高版本
  • 元件: 企業對消費者 (B2C) 或企業對企業 (B2B)
  • 功能領域: 商務網站性能

前提條件

要完成的步驟

要編輯和上傳 robots.txt 檔,請跟隨以下步驟。

  1. 打開 robots.txt 檔案的本地副本。
  2. 編輯該檔,使其包含以下範例 robots.txt 檔中的所有 「不允許 」條目
  3. 確認檔的格式是否符合 機器人排除標準
  4. 按照上傳 robots.txt 檔中 的說明將檔上傳到您的網站。

範例 robots.txt 檔案內容

User-agent: *
Disallow: /signin
Disallow: /cart
Disallow: /*refiners=
Disallow: /*sorting=
Disallow: /*search?
Disallow: /*search=
Disallow: /*.woff
Disallow: /*.woff2
Disallow: /*skip=

驗證

使用以下方法驗證是否已新增檔案:

  • 說明或用途: 驗證您的 robots.txt 檔是否可用於您的網域。
  • 運行步驟: 在 Web 瀏覽器中,在 your_domain </robots.txt> 處打開頁面。
  • 通過結果: 您可以成功查看您的 robots.txt 檔。

其他資源

管理 robots.txt 檔案

系統管理員角色