Open the menu

    Administração do Serviço

    Administração do Robots.txt

    O serviço Robots.txt possui um ambiente administrativo para adição de configurações de user-Agents que irão compor o robots.txt.

    É importante ressaltar que este ambiente não permite criar robots.txt e sim adicionar informações de quais user-Agents poderão acessar o robots.txt de uma determinada instância de serviço para uma determinada solução.

    robots01

    Para adicionar configuraçõesbasta clicar em Adicionar e preencher as seguintes informações:

    robots02

    • UserAgent :nome do user-Agent que irá compor o robots.txt.Ao informar "*" para esse campo, está informando que quaisquer user-Agent poderá acessar esse robots.txt;
    • Crawl Delay: o intervalo em segundos que o user-Agent do mecanismo de buscar irá requisitar uma página, uma vez lido o robots.txt;
    • Request Rate: quantidade de páginas por tantos segundos que o user-Agent do mecanismo de busca irá navegar e indexar uma página;
    • Visit Time: o intervalo de horário em que a requisição poderá ser realizada;
    • Adicionar Permissões: é possível adicionar tantas permissões de acesso para diferentes caminhos de páginas, quanto forem necessárias. Portanto, para cada path de página pode-se atribuir a permissao allow ou disallow. Geralmente, defini-se apenas uma lista de paths que estão "disallow". Se desejar que algumas páginas abaixo de determinados paths não permitidos sejam permitidas, basta configurar como "allow".

    É possível e necessário informar as URLS das seções e páginas que não estão disponíveis pela navegação através de links e menus. Tais URLs estão através disponíveis através de sitemapsque devem cadastrados para que os robots.txtos consultem.

    Administração de Sitemap

    Nesta administração é possível informar os sitemaps contidos no robots.txt para que o user-Agent possa navegar nas páginas que não são acessadas pela navegação normal em uma na solução.

    robots03

    Para informar os sitemaps (um por vez) que o robots.txt irá utilizar, deve-se clicar em Adicionar e preencher a seguinte informação:

    robots04

    • URL:Deve-se informar a URL formada no cadastro de sitemaps na instância de serviço desejada de sitemap.Lembrando que a URL é formada por: URL da solução/sitemap/arquivo_xml_gerado_do_sitemap.

    Através da administração de sitemap do robots.txttambém pode-se visualizar a composição do robots.txtjá com a informação dos sitemaps (se houver).