Se você tiver más ligações ou quebrados, o que reduz seriamente a sua locais crawlability e seu site poderia ser permanentemente filtrados de SERPs (páginas de resultados do motor de busca) .Crawlability erros são o que matar o seu SEO não fazer os seguintes erros ou dizer adeus a serem encontrados em motores de busca. Preste atenção aos arquivos robots.txt isso é a maneira mais fácil de estragar o seu crawlability. Arquivos robots.txt direcionar motor de pesquisa aranhas como visualizar seu site.
Um erro pode bater-lo fora dos motores de busca permanentemente então seja extremamente cuidadoso ao trabalhar com esses arquivos. Não use muitas variáveis em suas URLs Google pode rastrear ligações de longa duração, mas ainda não é um fã de URLs longas. Sua melhor usar URLs curtas eles são clicados mais frequentemente em SERPs Dont adicionar IDs de sessão em URLs Se você usar IDs de sessão em seus URLs, armazená-los em cookies. As aranhas não vai rastrear URLs com IDs de sessão elas entopem as SERPs Cuidado com código bloat Isso pode ser um problema enorme.
As aranhas são bons em separar código contra conteúdos, mas não torná-lo difícil para eles também. Não usar tanto código que o seu is not conteúdo fácil de encontrar. As aranhas não podem seguir os links em Flash ou executar projetos de JavaScript que usam Flash e JavaScript vai parar de aranhas em suas trilhas. Eles também não podem ler texto ou imagens dentro do Flash. Ficar com links em HTML (ligações devem ser preferencialmente texto ou imagens) Como corrigir erros crawlability não mudar seus URLs, a menos que eles estão quebrados. Tenha em mente as seguintes dicas acima mencionadas.
Mantê-los curtos, não usar muitas variáveis, deixar de fora Session IDs, etc. Ao criar URLs, use palavras-chave e hífens para separar as palavras. Spiders reconhecer hífens como espaços não use sublinhados, etc. Não fazer suas URLs olhar spammy com palavras-chave. Co