Гугл - сканировании сайта на ошибки

12
neznakomec
На сайте с 26.01.2013
Offline
40
1631

Здравствуйте, подскажите пожалуйста у меня в гугле при сканировании сайта на ошибки, выдает несколько сотен подобных с feed

Скажите пожалуйста как правильно нужно указать строчку в файле роботс что бы гугл не индексировал эти хвосты и не выдавал ошибки

Disallow: */*/feed/*/

или

Disallow: */*/feed/

или

Disallow: */*/feed

Спасибо

ideaman
На сайте с 25.01.2013
Offline
129
#1

Disallow: */feed/

Этим мы говорим роботу, что какая бы папка не встречалась, после которой будет /feed/, нужно её закрывать.

Пример:

site/cat/feed/

site/razdel/feed/

и т.п.

Если у тебя cms какая-то определенная, то ты можешь в интернете найти шаблон robots.txt для определенной cms, а после посмотреть, какие у тебя ошибки и добавить

SEO
neznakomec
На сайте с 26.01.2013
Offline
40
#2
ideaman:
Disallow: */feed/

Этим мы говорим роботу, что какая бы папка не встречалась, после которой будет /feed/, нужно её закрывать.
Пример:
site/cat/feed/
site/razdel/feed/
и т.п.

Если у тебя cms какая-то определенная, то ты можешь в интернете найти шаблон robots.txt для определенной cms, а после посмотреть, какие у тебя ошибки и добавить

Спасибо.

Эти ошибки как то влияют на ранжирование сайта в выдачи? Или это гугл просто меня уведомляет что "мол вот эти ссылки если вы не в курсе - отсутствуют"?

ideaman
На сайте с 25.01.2013
Offline
129
#3

neznakomec, В большинстве случаев такие страницы являются дублями основных страниц и считаются негативными при продвижении сайта

Cамые распространенные являются

/index.php

/feed

/wp-admin

/admin

/author/

/wp-comments

/wp-login.php

и т.п.

StaroverovMax
На сайте с 31.05.2006
Offline
174
#4

Скажите пожалуйста, а как поступить с такого рода ошибками?

Сила есть - ума еще больше надо.. Фитнес, бодибилдинг (http://sportmashina.com), а форум - закачаешься! (http://forum.sportmashina.com/index.php)
M0
На сайте с 24.07.2009
Offline
192
#5

StaroverovMax, попытаться понять, почему они происходят.

почему в урл присутсвуют фрагменты кодировки percent encoding

StaroverovMax
На сайте с 31.05.2006
Offline
174
#6
Mvk09:
StaroverovMax, попытаться понять, почему они происходят.
почему в урл присутсвуют фрагменты кодировки percent encoding

По той причине, что ссылки на эти страницы разошлись по интернету, но не везде кодировка оказались правильной..😒

M0
На сайте с 24.07.2009
Offline
192
#7
StaroverovMax:
По той причине, что ссылки на эти страницы разошлись по интернету

разве это не скрин внутренних ошибок индексирования?

E
На сайте с 21.09.2009
Offline
283
#8
neznakomec:
как правильно нужно указать строчку в файле роботс что бы гугл не индексировал эти хвосты

Никак. Роботс для гугла запрещает только сканировать, а не удалить из индекса.

StaroverovMax
На сайте с 31.05.2006
Offline
174
#9

Может у кого есть ещё идеи, как запретить или правильно редиректить эту фигню с %Fcnt%...?

P.S. Извиняюсь, что в чужом топике, но ведь и смысла нет плодить подобное)

StaroverovMax
На сайте с 31.05.2006
Offline
174
#10
StaroverovMax:
Может у кого есть ещё идеи, как запретить или правильно редиректить эту фигню с %Fcnt%...?

В принципе, проблема в том, что некоторые площадки неправильно обрабатывают символы в урл. Может есть возможность а httpaccess прописать именно замену символов, хотя не уверен, что это возможно..

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий