新增或更新 robots.txt 檔案
本文介紹如何為託管的每個域創建、編輯、上傳和驗證 robots.txt 檔 Microsoft Dynamics 365 Commerce。
搜尋引擎對您的網站進行意外或無定向抓取可能會導致大量「404 網頁未找到」錯誤。 這些錯誤可能會影響性能,因為網站會回應對不存在的頁面的所有請求。 為了幫助解決此問題,您應確保您的網域始終具有最新且有效的 robots.txt 檔,以指示網路抓取工具僅在您的網站上查找相關網頁。
適用於
本文適用於以下設定:
- 版本: Commerce 10.0.16 或更高版本
- 元件: 企業對消費者 (B2C) 或企業對企業 (B2B)
- 功能領域: 商務網站性能
前提條件
您是 Commerce 實體中的系統管理員 。
您已在電腦上建立 robots.txt 檔案或下載了副本,具體取決於您的情況:
- 如果您之前未為網域上傳過 robots.txt 檔,請按照 漫遊器排除標準在計算機上創建一個新檔。 使用本文後面的示例 robots.txt 檔 作為起始指向。
- 如果您之前為網域上傳了 robots.txt 檔, 請下載 現有檔。
要完成的步驟
要編輯和上傳 robots.txt 檔,請跟隨以下步驟。
- 打開 robots.txt 檔案的本地副本。
- 編輯該檔,使其包含以下範例 robots.txt 檔中的所有 「不允許 」條目 。
- 確認檔的格式是否符合 機器人排除標準。
- 按照上傳 robots.txt 檔中 的說明將檔上傳到您的網站。
範例 robots.txt 檔案內容
User-agent: *
Disallow: /signin
Disallow: /cart
Disallow: /*refiners=
Disallow: /*sorting=
Disallow: /*search?
Disallow: /*search=
Disallow: /*.woff
Disallow: /*.woff2
Disallow: /*skip=
驗證
使用以下方法驗證是否已新增檔案:
- 說明或用途: 驗證您的 robots.txt 檔是否可用於您的網域。
- 運行步驟: 在 Web 瀏覽器中,在 your_domain </robots.txt> 處打開頁面。
- 通過結果: 您可以成功查看您的 robots.txt 檔。