Проблема с одинаковыми страницами

12
H
На сайте с 31.08.2010
Offline
12
1117

Друзья подскажите. Недавно заметил что в гугле содержится 11тыс страниц (не так давно было 300-500) Много страниц такого плана: cайт/страница.html?ruarobot_captcha=d9de1fa12a36ef3bffe220e08b002ea1&ruarobot_rnd=

Сайт на движке вордпресс. Левые страницы появились после удаления плагина ruarobot (создает каптчу)

Отсюда извечный русский вопрос: что делать?

Прошу прощения, если повторил вопрос.

New Member
На сайте с 21.12.2008
Offline
211
#1

Закрой одной строчкой все это в роботс.тхт

Раскрутка сайтов (https://seomasters.com.ua/)
H
На сайте с 31.08.2010
Offline
12
#2
New Member:
Закрой одной строчкой все это в роботс.тхт

Страницы все разные. А как это сделать по грамотному?

так что-ли: Disallow: /?ruarobot_captcha

После закрытия страниц в роботсе, они из кэша сами удалятся?

A2
На сайте с 22.12.2009
Offline
35
#3
Disallow: /?ruarobot_captcha

так у вас было бы если бы капча шла сразу с главной

вам нужно

Disallow: */?ruarobot_captcha=

Только у меня самые вкусные инвайты на лучший белый сервис по созданию фотоэффектов онлайн! (http://partner.effectfree.ru/register/KNEDFTD4VUU9N7K7O9BSYB)
Sower
На сайте с 30.12.2009
Offline
659
#4

В WMT есть что-то по поводу исключения определённых параметров урлов. Как раз на этот случай.

__________________Бесплатная накрутка ПФ: посещаемость, просмотры, переходы с поисковиков по ключевикам, итд.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
[Удален]
#5

Запретите через роботс. Найдите в выдаче все страницы с даным параметром а в вебмастере Концигурация сайта -> Доступ для сканера -> Удалить URL поудаляйте найденные страницы для уверености (оно удалит их из выдачи в течении 2-6 часов, хотя в вебмастере эти страницы удалятся в течении нескольких дней)

LeonCrab
На сайте с 30.01.2007
Offline
189
#6

Идеальный вариант - настроить .htaccess таким образом, чтобы все страницы подобного вида выдавали 410 (или 404) ошибку.

Можно и через robots.txt, но все-же лучше первый вариант.

Помощь в создании сайтов на MODX, Laravel, Slim. В личку. Хостинг, которому я доверяю (https://beget.com/p181956).
AS
На сайте с 12.01.2011
Offline
25
#7

Да правильней и логичней 404, не потеряете трафик)

LeonCrab
На сайте с 30.01.2007
Offline
189
#8
AloshqaSEO:
Да правильней и логичней 404, не потеряете трафик)

Трафик здесь ни причем.

H
На сайте с 31.08.2010
Offline
12
#9
LeonCrab:
Идеальный вариант - настроить .htaccess таким образом, чтобы все страницы подобного вида выдавали 410 (или 404) ошибку.

Можно и через robots.txt, но все-же лучше первый вариант.

Подскажите, что конкретно надо написать, чтоб правильно было. А то боюсь что-нибудь испортить...

Sower
На сайте с 30.12.2009
Offline
659
#10
hayoshka:
Подскажите, что конкретно надо написать, чтоб правильно было. А то боюсь что-нибудь испортить...

WMT > Конфигурация сайта > Параметры URL > Добавление параметра

Параметр:

ruarobot_captcha

Изменяет ли ..... :

Нет, параметр не влияет на содержание страницы...

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий