А вы погуглите robots.txt
Вот, чтобы этого не искалось, пишут disallow: /robots.
Но если написать что-то типа disallow: /sitemap.xml
то на это будет ругань в WMT и ЯВМ. Дальше не пробовал...
А нет такой зависимости.
Вы вообще-то в первом посте спрашивали про фильтр... а не про позиции. Ну вот проблема с частичным дублированием решаема.
Если верите, что ПС способны отфильтровать лишний мусор, то попробуйте поискать именно этот мусор... человек понимает, что /d?ncrnd=3137132787 это дубль, а ПС нет.
Еслибы всё что можно использовали, то у вас почти не осталось бы этих атрибутов в кавычках.
Может /ru/forum/215449
Не выдумывайте великих способностей у ПС... они не для этого.
в страницы HTML сайта пишем только контент, а все повторяющиеся элементы грузим через JavaScript/XSLT
Но у вас не возникло ощущения фальшивости этой формулировки. (ну если душа чья-то, то кто/что создавал(о) это нечто)
Да, по низкочастотному, ну совсем никому не нужному запросу =кондиционер спб= например.
А про несколько страниц с сайта... это потом сами яндексоиды с Гугля скопировали.
А кому-то и они нравятся.
Вот что творится по запросам:
полный писец, ну polnyi-pisec в домене, ладно, наверное для Яндекса похоже на витальный ответ.
большой /пушистый зверь/, ну вот почему две сцылки на Луркмор? Сайт витальным назвать нельзя. А в тайтлах запрос есть... может быть на это и настроился божественный Матрикснет, пока.
На этот не помню. Но вот в последней CTRL+F витальн // ну как-то к ним иначе относятся.
С витального-для-человека.
Но Яндекс — это не человек... поэтому действует по признакам (витальности), ну и ошибается. Кому надо, тот использует.
Какая разница, витальный или не витальный вообще? Главное то, что Яндекс иногда цепляет несколько страниц.
Умные люди стараются витально проспамить несколько страниц.