SEO EMPRESAS | RSS

Estrutura de URL

 Como criar uma estrutura de URLs compatível com o Google

A estrutura de URLs de um site deve ser a mais simples possível. Considere a organização do seu conteúdo de forma que os URLs sejam construídos logicamente e da maneira mais compreensível para os usuários (quando possível, use palavras legíveis no lugar de longos números de ID). é mais atraente para usuários.

Use pontuação em seus URLs. O URLhttp://www.exemplo.com.br/vestido-verde.html é mais útil para nós quehttp://www.exemplo.com.br/vestidoverde.html Recomendamos que você use hífens (-) em vez de sublinhados (_) em seus URLs.

URLs muito complexos, especialmente os que contém vários parâmetros, podem causar problemas para os rastreadores, criando números desnecessariamente altos de URLs que apontam para um conteúdo idêntico ou semelhante em seu site.

Como resultado, o Googlebot pode consumir mais largura de banda do que o necessário, ou pode não indexar completamente todo o conteúdo do site.



Causas comuns desse problema

Um número desnecessariamente alto de URLs pode ser causado por vários problemas. Entre eles:

    Filtragem aditiva de um conjunto de itens Vários sites oferecem diferentes modos de exibição do mesmo conjunto de itens ou resultados de pesquisa, e muitas vezes permitem que o usuário filtre esse conjunto usando um critério definido (por exemplo: mostre me hotéis na praia). Quando os filtros podem ser combinados de maneira aditiva (por exemplo: hotéis na praia e com academia de ginástica), o número de URLs (modos de exibição de dados) nos sites explodirá. A criação de um grande número de listas de hotéis com diferenças sutis é redundante, pois o Googlebot precisa ver somente um número pequeno de listas a partir das quais ele pode atingir a página de cada hotel. Por exemplo:
        propriedades do hotel em "classificações de valor":

        http://www.exemplo.com.br/resultados-de-pesquisa-hotel.jsp?Ne=292&N=461

        Propriedades do hotel em "classificações de valor" na praia:

        http://www.exemplo.com.br/resultados-de-pesquisa-hotel.jsp?Ne=292&N=461+4294967240

        Propriedades do hotel em "classificações de valor" na praia e com sala de ginástica:

        http://www.exemplo.com.br/resultados-de-pesquisa-hotel.jsp?Ne=292&N=461+4294967240+4294967270

    Geração dinâmica de documentos. Isso pode resultar em pequenas alterações por causa dos contadores, registros de hora ou anúncios.
    Parâmetros problemáticos no URL.As IDs de sessão, por exemplo, podem criar uma imensa quantidade de duplicação e um número maior ainda de URLs.
    Classificando parâmetros.Alguns grandes sites de compra oferecem várias maneiras de classificar alguns itens, o que resulta em um número muito maior de URLs. Por exemplo:

    http://www.exemplo.com.br/resultados?pesquisa_tipo=pesquisa_videos&pesquisa_consulta=tpb&pesquisa_classificar=relevancia&pesquisa_categoria=25

    Parâmetros irrelevantes no URL, como parâmetros de referência. Por exemplo:

    http://www.exemplo.com.br/pesquisa/semcabecalhos?clique=6EE2BF1AF6A3D705D5561B7C3564D9C2&cliquepagina=OPD+Produto+Pagina&cat=79

    http://www.exemplo.com.br/discussao/mostrarthread.php?referrerid=249406threadid=535913

    http://www.exemplo.com.br/produtos/produtos.asp?N=200063&Ne=500955&ref=foo%2Cbar&Cn=Accessorios.

    Problemas de agenda. Uma agenda gerada de maneira dinâmica pode gerar links para datas passadas e futuras sem restrições quanto às datas de início ou final. Por exemplo:

    http://www.exemplo.com.br/agenda.php?d=13&m=8&y=2011

    http://www.exemplo.com.br/agenda/cgi?2008mes=jan

    Links relativos quebrados.Links relativos quebrados muitas vezes causam espaços infinitos. Geralmente, esse problema ocorre devido a elementos de caminhos repetitivos. Por exemplo:

    http://www.exemplo.com.br/indice.shtml/discussao/categoria/escola/061121/html/entrevista/categoria/saude/070223/html/categoria/business/070302/html/categoria/comunidade/070413/html/FAQ.htm

Etapas para solucionar esse problema
Para evitar possíveis problemas com a estrutura do URL, é recomendável fazer o seguinte:

    Considere usar um arquivo robots.txt para bloquear o acesso do Googlebot a URLs problemáticos. Normalmente, você deve bloquear os URLs dinâmicos, como aqueles que geram resultados de pesquisa que podem criar espaços infinitos, como agendas. O uso de expressões comuns em seu arquivo robots.txt pode permitir que você bloqueie um grande número de URLs facilmente.
    Sempre que possível, evite usar IDs de sessão em URLs. Em vez disso, use cookies. Para obter mais informações, consulte nossas Diretrizes para webmasters.
    Sempre que possível, abrevie URLs extinguindo parâmetros desnecessários.
    Se o seu site tiver uma agenda infinita, inclua um atributo "nofollow" aos links para páginas de agenda criadas de maneira dinâmica no futuro.
    Verifique se há links relativos quebrados em seu site.