Arquivo Robots.txt enviado errado
Pessoal,
eu tive um problema, essa semana, com URLs que apareceram como "Excluídas" no Search Console. Eu fui pesquisar mais a fundo e acho que talvez eu tenha enviado o robots.txt errado, o que me deixou MUITO preocupada. Caímos em tráfego, várias URLs sumiram do Google e caímos em posições importantes também.
Eu fui na pasta raiz e já exclui o robots.txt. Podem me ajudar e dizer se configurei mesmo erroneamente? Meu arquivo robots.txt tinha as seguintes linhas:
User agent: *
Disallow: blog.geekhunter.com.br/author (páginas de autor)
Disallow: blog.geekhunter.com.br/page (páginas 1,2,3,4 aquelas mais inúteis que ranqueiam)
Sitemap: link para o meu sitemap
------------------------------------------------------------------
Ambos foram enviados no mesmo dia.
Perguntas:
-
O que posso fazer para tentar resolver isso?
-
Tenho que subir um novo sitemap ou um novo robots.txt refeito?
-
Quanto tempo vocês acham que demora para melhorar?
-
Me ajudem pois estou muito desesperada.
Obrigada desde já :(
Discussão (0)
Carregando comentários...