Проблема только в том, считают ли ПС какие-то методы накруткой или нет. Им не всегда интересно выявлять накрутчиков... они годами кое-чего не делают, чего с т.з. здравого смысла давно пора было бы убить... иногда ограничиваясь лишь наказаниями (являющимися рекламой) и пропагандой, разносчиком которой является Cell
Этот тестировать уже поздно.
Можно. Но место в голове занято.
По реальным запросам в выдаче какая страница?
С т.з. искателя — какая страница является лучшим ответом?
Вопрос был: сайт — для чего?
А займитесь изучением вопроса:
В выдаче каких ПС больше сайтов с её же контекстом?
Может быть пора заняться технической стороной вопроса: как скрыть гавно от ПС. Это же не трудно... сделать так, чтобы им просто дороже было вас прополоть. Пусть пока занимаются теми, кого дешевле...
А у Колхоза несколько другая задача, например: понизить % таких сайтов в выдаче (если вообще им верить), а на отдельных выживших сайтах могут быть и антирекорды. Проблема в методах прополки... но они это не считают проблемой.
ps У вас сайт — для чего?
Если после прочтения страницы /ru/forum/190119 вы останесь при том же мнении, то лучше ничего не делать 🙅
А как ПС об этом узнает? У вас метрика или аналитикс?
А если они измеряются по кликам на странице выдачи?
Не сайт, а домен...
А вы ещё в разных браузерах попробуйте.
http://www.google.ru/search?q=xsl+LiveInternet
Если вы с xsl связались, то вам его придётся поизучать.
http://demo.yucms.ru//uslugi.html?
200 OK
http://demo.yucms.ru/news.php/ 200 OK
Ну что ж вы АПаете!
Вот я тему заводил про ссылки с *.yandex.ru/*, за неделю robots.txt у них не появился, а я ждал. Ну дней через 10 наверное.
Но там если поискать site:yandex.ru inurl:search и пр... на далёких страницах, то ... рас3.14здяйства хватает.
Да и может ли склейка произойти? Теоретически. При:
Хотя у зеркальщика есть другие поведенческие отличия от официальной версии. Может он типа экономит...
Ну как же не противоречит?
С 10 декабря (примерно) robots.txt есть.
6 декабря ещё не было... и осенью не было, наверное несколько месяцев (самый ранний кэш был от 28 сен, сейчас его нет).
В индекс залезли результаты поиска и на момент этого поста ещё они в выдаче есть, хотя Disallow: /
Пока (на момент этого поста) ещё есть чуть более ранний пример, закрытый в robots.txt около 25 ноября. Сколько ещё?
Вообще, такие ситуации полезны для изучения. Один дубль удалить не долго, а вот десятки тысяч уже сложнее.
Закрытое в роботсе бывает в выдаче без кэша. Открытое — с кэшем.