Как выкинуть из индекса страницы со знаком вопроса?

12
S8
На сайте с 07.10.2010
Offline
14
3553

Есть страница http://site/fotosessiyavstudii.html

Яндекс кроме этой страницы проиндексировал ещё такую:

http://site/fotosessiyavstudii.html?gclid=CNC9l5nojakCFUKGDgodSG1sjQ

Покурил форум, справку яндекс и сделал следующее:

1) внес в robot.txt строку Disallow: /fotosessiyavstudii.html?gclid=CN_S3oSb_qgCFUku3god5DQISQ

2) В Яндекс вебмастер поставил страницу /fotosessiyavstudii.html?gclid=CN_S3oSb_qgCFUku3god5DQISQ на удаление, страница через какое-то время страница исчезла из индекса.

Так я жил не тужил две недели, но сегодня обнаружил новую страницу со знаком вопроса:

/fotosessiyavstudii.html?gclid=CJCZtNiTgKkCFRkK3godGBhfxw

Как сделать так,что бы Яндекс вообще не индексировал такие страницы?

[Удален]
#1

Пропишите в роботс

Disallow: *?*

N
На сайте с 19.04.2010
Offline
34
#2

Атака пейсателей не умеющих читать 🤣

fagot_seo
На сайте с 06.05.2011
Offline
65
#3

disallow: /fotosessiyavstudii.html?*

Автор курса Python для SEO специалиста (http://py4you.com/courses/python-for-seo/) Разработка ПО py4you.com (http://py4you.com/development/)
kimberlit
На сайте с 13.03.2007
Offline
370
#4
fagot_seo:
dissalow: /fotosessiyavstudii.html?*

Иди на кошечках потренируйся.

Dnn
На сайте с 30.06.2005
Offline
165
Dnn
#5
fagot_seo:
disallow: /fotosessiyavstudii.html?*

Себя запрети лучше ))

Тс, Disallow: /*?

S8
На сайте с 07.10.2010
Offline
14
#6

всё, спасибо, разобрался!

narodnik
На сайте с 12.06.2006
Offline
59
#7

Вот лучше скажите, кто-нибудь смог без юзания роботса и 301редир (каноникл, метаурл) повлиять на быстроробота в подобной ситуации (обычный индекс идет мимо)?

Опишу подробнее: есть сайт с разного рода ерундистикой в урлах ссылкок, скажем из вконтактика, мордокниги, жежечки, контекстной рекламы, итп (дабы источники трафа отлавливать в аналитиксе получше)... и периодически быстроробот кушает эти странички как новье, хотя для них и прописаны каноникл и мета урл на страничку без "?всякая_утмная_ерундистика"... и как многие могли догадаться эти странички подменяют в топе оригиналы (то с ростом, то с подением позиций, то с неправильной региональностью).

Тк на эти странички естественное ссылочное льется иногда, убивать их роботсом оч не охота.

Sergover
На сайте с 12.10.2009
Offline
57
#8
Dnn:
Себя запрети лучше ))

Тс, Disallow: /*?

Лучше в апаче редирект =)

Магазин аккаунтов с балансом Litres,DNS,Ozon,Rotapost и еще 50+ других сервисов тут - vk.cc/7QK0Sk
narodnik
На сайте с 12.06.2006
Offline
59
#9

Может кому-то будет полезно.

Ответ Платонов:

> Работает ли риал каноникал и мета урл для быстроробота, или мне все-таки стоит закрыть от него дубли роботсом?

К сожалению, в настоящий момент атрибут rel="canonical" тега <link> еще не поддерживается быстрым роботом. После того, как основной робот переобойдет страницы, содержащие rel="canonical", они будут исключены из поиска.

....

Рекомендую Вам запретить индексирование дублирующих страниц в файле robots.txt правилами "DIsallow:". Также Вы можете использовать директиву Clean-param, чтобы исключить индексирование страниц с динамическими параметрами.
Подробнее о Clean-param Вы можете прочитать на странице нашей помощи: http://help.yandex.ru/webmaster/?id=1041216
S
На сайте с 28.10.2005
Offline
299
#10

1. Пофиксить движок, чтоб не генерил сессии в урл

2. 301-й редирект с дублей на основную страницу

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий