Open the menu

    Robots.txt

    O Lumis permite cadastrar configurações de parâmetros e critérios de user-Agents que irão compor o robots.txt.

    Cada instância de serviço corresponde a um robots.txt. Portanto, para que cada website (solução) deve-se instanciar um serviço de Robots.txt.

    Os robots.txt são os arquivos lidos pelos user-Agents dos mecanismos de busca externos. Através de robots.txt, o mecanismo saberá em qual path poderá navegar e indexar as páginas, dentre outras informações.

    As próximas seções abordam a visualização do serviço pelo administrador do serviço, o ambiente administrativo para o mesmo e, por fim, a disponibilização do serviço pelo administrador do portal.