Ну что ж вы АПаете!
Вот я тему заводил про ссылки с *.yandex.ru/*, за неделю robots.txt у них не появился, а я ждал. Ну дней через 10 наверное.
Но там если поискать site:yandex.ru inurl:search и пр... на далёких страницах, то ... рас3.14здяйства хватает.
Да и может ли склейка произойти? Теоретически. При:
Хотя у зеркальщика есть другие поведенческие отличия от официальной версии. Может он типа экономит...
Ну как же не противоречит?
С 10 декабря (примерно) robots.txt есть.
6 декабря ещё не было... и осенью не было, наверное несколько месяцев (самый ранний кэш был от 28 сен, сейчас его нет).
В индекс залезли результаты поиска и на момент этого поста ещё они в выдаче есть, хотя Disallow: /
Пока (на момент этого поста) ещё есть чуть более ранний пример, закрытый в robots.txt около 25 ноября. Сколько ещё?
Вообще, такие ситуации полезны для изучения. Один дубль удалить не долго, а вот десятки тысяч уже сложнее.
Закрытое в роботсе бывает в выдаче без кэша. Открытое — с кэшем.
А есть ли вообще в выдаче морды со слешем? Вот со слешем или как?
Крайними мерами:
Выкинуть слова запроса из <body> оставив только в <title>
Или выкинуть все слова запроса из документа, оставив только в бэках. Если при этом слова запроса будут в дескрипшне, то может показаться соотв. предложение.
Если вы оптимизатор, и карма не позволяет выкинуть все слова запроса из <body> то, при условии, что документ мог бы найтись только по <title> или ссылкам, описание включаются в список возможных фрагментов сниппета. Можно только попытаться понизить вероятность прохождения фрагментов из <body> — сделав их похожими на <title> ... и повысить вероятность фрагмента (часто предложения) из meta description — оставив в нём слова запроса, но в остальных словах — сделав его максимально непохожим на <title>
Может это просто Яндекс тормозит, не может 301 заметить?
Про музыкальные инструменты.
С аяксом пример. ПС видит уникальные урлы, а в браузере всё не так.
Если нужно по гуглёвым #!канонам, то листайте, что-то будет и #!аяксовое, но и мусора много.
Да выкидывают эти гробы уже, а не настраивают.
Не знаю как лучше.
Но хотя бы поймите:
ПС тупее браузеров.
ПС индексируют отдельные документы, доступные по разным url без #якоря но с #!якорем, но можно эти выдумки себе не делать, можно иначе. Но в robots.txt скрипты закройте
ссылайтесь не на /index.html а на домен/ или корень /
Ну отключите скрипты в браузере.
Так вы сделаете для ПС несколько страниц
tunerus.ru/tips/
tunerus.ru/price/
tunerus.ru/questions/
Ну найдут они ссылки
<a href="/price/"... Цены </a>
<a href="/questions/"... Вопросы </a>
Если проиндексится, то хорошо (но на этих страницах сейчас то, что ПС уже нашли на главной/ хоть бы изменили текст пока).
Это ж сервер отвечает не 301
Нету. Но они не понимают регистра UrL в запросе.
А может и сайтик зафильтруется... за наглую попытку занять в закромах святаго яндекса слишком много места. Типа www.yandex-terra.ru/?q=node/12&ТрУбА
Если контент разный, то они не дубли:
Ну а в том вашем разделе дмоза — кого ещё надо было бы забанить за дело?
Если вы специалист по соответствиям сайта критериям качества Яндекса, то вам имеет смысл показывать только страницы типа help.yandex.ru/webmaster/?id=995342#!разводилово
В 99% остальных случаев вы не являетесь специалистом... и смотрите на левые моменты, не замечая основного, как и платоны.
Поэтому нет смысла показывать вам что-то кроме варезников.
А можно конкретизировать: на что именно затраты зелени и времени? Тема? Цель/задача? Может это прямо конфликтует с задачами СКР.