Как закрыть от индексации большое количество страниц

pro_web
На сайте с 02.08.2011
Offline
109
759

Здравствуйте на сайте удалилось порядка 40 000 страниц (в вебмастере гугла показывается что страниц нет и выдает как ошибку)

Как закрыть эти страницы от индексации что бы под фильтры не попасть ...

Продам страницу в Facebook. 31к подписчиков (тематика юмор). Подробности в лс.
T
На сайте с 31.07.2009
Offline
24
#1

Здравствуйте!

Во-первых, если при заходе на любую из этих страниц выдает код 404 ошибки - то все норм. Фильтра никакого не будет. Если нет 404, то нужно сделать.

Но если нужно закрыть от индексации, то можно закрыть в robots.txt задав необходимые правила. Подробнее можно прочитать здесь: http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449&from=40360&rd=1

Другой вариант прописать в каждую страницу, которую нужно неиндексировать, метатег robots: <META name="ROBOTS" content="noindex, nofollow">.

Второй вариант более действенный.

pro_web
На сайте с 02.08.2011
Offline
109
#2

вы предлагаете прописать закрытие 40 000 страниц в роботс ? это ведь не так уж и просто ...

F
На сайте с 16.01.2010
Offline
267
#3
pro_web:
(в вебмастере гугла показывается что страниц нет и выдает как ошибку)

Если выдает ошибки, значит он уже знает, что этих страниц нет.

Если выдает ошибки, то он сообщает вам, чтобы вы, как вебмастер могли принять меры, в случае если это исчезновение произошло без вашего ведома.

Если выдает ошибки и они должны там быть, значит всё в порядке и можно идти спокойно спать, со временем всё пропадет.

pro_web:
что бы под фильтры не попасть ...

Никаких фильтров за удаление страниц нет.

pro_web:
вы предлагаете прописать закрытие 40 000 страниц в роботс ? это ведь не так уж и просто ...

При наличии общего в урле страниц это не так уж и сложно.

Aphex
На сайте с 25.07.2006
Offline
127
#4

Можно удалить каталог со всеми ненужными url через панель WMT при условии запрета данного каталога, к примеру в роботсе.тхт. Я так удалил все стр. с тегами /tag/. За пару дней с индекса исчезли, а так висели месяцами, хоть и были запрещены в том же роботсе.

Жаль нельзя так удалить мусорные страницы с параметрами.

Делай только то, что дается тебе легче всего, но делай это изо всех сил.
I
На сайте с 12.07.2006
Offline
55
#5
tornator:
Здравствуйте!

Во-первых, если при заходе на любую из этих страниц выдает код 404 ошибки - то все норм. Фильтра никакого не будет. Если нет 404, то нужно сделать.

Но если нужно закрыть от индексации, то можно закрыть в robots.txt задав необходимые правила. Подробнее можно прочитать здесь: http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449&from=40360&rd=1

Другой вариант прописать в каждую страницу, которую нужно неиндексировать, метатег robots: <META name="ROBOTS" content="noindex, nofollow">.

Второй вариант более действенный.

Плевать хотел гугль что на первый, что на второй вариант, как показывает практика.Как индикатор не индексировать этот контент - да, как прямой запрет - нет. Так что лучше не отдавать никакой контент, который гуглю не нужен. Спокойнее будет.

pro_web
На сайте с 02.08.2011
Offline
109
#6

Спасибо за советы просто я слышал что алгоритм панда может блочнуть за паленные страницы сайта .

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий