Правильно закрыть дубль в роботсе от гугла

12
[Удален]
940

Всем привет. Имеется движок форума vBulletin 4.x. В Гугле появились дубли такие:

site.ru/calendar.php?c=1&week=1434240000
site.ru/calendar.php?c=1&week=2318118400

В этом случаи можно в роботсе прописать так:

Disallow: /calendar.php*

?

New Member
На сайте с 21.12.2008
Offline
211
#1

Ну так он запретит сканировать, а не индексировать эти страницы.

Если они уже добавились в индекс, то нужно проблему решать уже другими способами.

301 редирект

noindex

404

canonical

Раскрутка сайтов (https://seomasters.com.ua/)
yCorp
На сайте с 22.10.2012
Offline
8
#2

Да сканировать запрещает, но и со временем он уберет их и из индексации... Редиректы как правило не получаются на такого образа скрипты. Ноиндекс для яндекса, а в nofollow загнать скрипт не получится.

Ставьте в роботе, и через пару недель (максимум месяц) страницы пропадут из индексации...

YourDesign.pro - Дизайн сайтов, интерьера, 3D объектов, визиток, плакатов, тендеров и мн. другое. YourBrand.pro - Брендинг, идея создания и продвижение бренда, продажа доменых имен. YourMarketing.pro - Продвижение, реклама, разработка схемы продвижения бизнеса и сайта. ------------------ Корпорация yCorp
K
На сайте с 01.08.2009
Offline
88
#3

Я бы залез в php код и добавил в <head>...</head> строку <meta name="robots" content="none">

[Удален]
#4

В каком именно файле то это прописать? Накосячить боюсь. Этот дубли уже более месяца никак из индекса не выпадут.

E
На сайте с 21.09.2009
Offline
283
#5
F
На сайте с 29.07.2010
Offline
27
#6
Ленар:
Всем привет. Имеется движок форума vBulletin 4.x. В Гугле появились дубли такие:

В этом случаи можно в роботсе прописать так:

?

http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449&topic=2370588&ctx=topic

Может так подойдет? :

User-agent: Googlebot

Disallow: /*?

---------- Добавлено 11.03.2013 в 01:01 ----------

fdanl:
http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449&topic=2370588&ctx=topic

Может так подойдет? :

User-agent: Googlebot
Disallow: /*?

Хотя это вариант для сайтов с ЧПУ...

jbot
На сайте с 09.11.2012
Offline
6
#7

А если через .htaccess по UserAgent'у заблокировать это поможет? Будут ли какие-то негативные последствия?

ay caramba..
X
На сайте с 12.07.2012
Offline
70
#8
yCorp:
Да сканировать запрещает, но и со временем он уберет их и из индексации... Редиректы как правило не получаются на такого образа скрипты. Ноиндекс для яндекса, а в nofollow загнать скрипт не получится.

Ставьте в роботе, и через пару недель (максимум месяц) страницы пропадут из индексации...

не правду говоришь...

yCorp
На сайте с 22.10.2012
Offline
8
#9
xarraw:
не правду говоришь...

А что не правильно? Поправь... Дай мне статью где написано, что в роботе нельзя индексацию убрать от поисковика.

B
На сайте с 09.06.2012
Offline
58
#10

Гугл клал на роботс. Если он проиндексировал страницу, она останется в индексе даже если ее закрыть в роботс. Более того если даже ее удалить через wmt, через некоторое время она опять будет в индексе, правда в сниппете будет указано, что страница закрыта от индексирования, что по сути ничего не дает.

Для того чтобы избавиться от дублей надо их редиректить 301 редиректом или закрывать мета тегом <meta name="robots" content="noindex,nofollow" /> . Кроме того необходимо по возможности избавиться от ссылок ведущих на эти страницы.

Файл роботс не обязательный к исполнению: http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий