Adicionar ou atualizar um ficheiro robots.txt
Isto artigo descreve como criar, editar, carregar e validar o ficheiro robots.txt para cada domínio alojado Microsoft Dynamics 365 Commerce.
O rastreamento inesperado ou não direcionado do seu site pelos mecanismos de pesquisa pode causar um alto volume de erros "404 Page Not Found". Esses erros podem afetar o desempenho, pois o site responde a todas as solicitações de páginas que não existem. Para ajudar a corrigir esse problema, você deve garantir que seu domínio sempre tenha um ficheiro de robots.txt atualizado e válido para instruir os rastreadores da Web a procurar apenas páginas relevantes em seu site.
Aplica-se a
Isto artigo aplica-se às seguintes configurações:
- Versão: Commerce 10.0.16 ou posterior
- Componente: Business-to-consumer (B2C) ou business-to-business (B2B)
- Área de recurso: Desempenho do site de comércio
Pré-requisitos
Você é um administrador de sistema em sua instância do Commerce.
Criou um ficheiro robots.txt no seu computador ou transferiu uma cópia, dependendo da sua situação:
- Se ainda não carregou um ficheiro robots.txt para o seu domínio, crie um novo ficheiro no seu computador seguindo a norma de exclusão de robôs. Use o ficheiro de robots.txt de exemplo mais adiante neste artigo como ponto de partida.
- Se já carregou um ficheiro robots.txt para o seu domínio, transfira o ficheiro existente.
Passos a seguir
Para editar e carregar um ficheiro robots.txt, siga estes passos.
- Abra a cópia local do ficheiro robots.txt.
- Edite o ficheiro para que ele inclua todas as entradas Disallow no ficheiro de robots.txt de exemplo a seguir.
- Confirme se o ficheiro está formatado corretamente de acordo com o padrão de exclusão de robôs.
- Carregue o ficheiro para o seu site seguindo as instruções em Carregar um ficheiro robots.txt.
Exemplo de conteúdo do ficheiro robots.txt
User-agent: *
Disallow: /signin
Disallow: /cart
Disallow: /*refiners=
Disallow: /*sorting=
Disallow: /*search?
Disallow: /*search=
Disallow: /*.woff
Disallow: /*.woff2
Disallow: /*skip=
Validar
Use o seguinte método para validar que o ficheiro foi adicionado:
- Descrição ou finalidade: Valide se o ficheiro robots.txt está disponível para o seu domínio.
- Etapas a serem executadas: Em um navegador da Web, abra a página em <your_domain>/robots.txt.
- Resultado de passagem: Você pode visualizar com êxito seu ficheiro robots.txt.