Вы действительно не понимаете основ и читать вдобавок не умеете. Кворум проходят не слова, а документы. Кворума в переколдовке запроса нет. Кворум - это отбор документов, которые в дальнейшем будут ранжироваться по запросу.
Если запрос "где можно купить принтер", а в документе написано "купить принтер", то такой документ пройдет кворум по этому запросу, потому что слова "купить" и "принтер" имеют значительный вес, а "где" и "можно" - незначительный.
Если в документе будет "где можно купить", то документ кворум не пройдет, так как "принтер" имеет значительный вес - самое значимое слово в данном запросе.
А вот веса словам задаются при переколдовке запроса.
Сейчас Яндекс лучше клеит 301-м, чем раньше, однако наиболее верный способ Вам описали во втором посте. Добавлю только, что на момент склейки в Яндексе с помощью директивы Host в robots.txt сайты должны быть полностью идентичны. Проще всего это делается с помощью ПУ хостингом, где один сайт прописывается алиасом к другому.
Для того, чтобы проверить учитываются ли ссылки, стоящие на зеркало, нужно найти ссылку с уникальным анкором и ввести анкор в кавычках в Яндекс. Если находится основной сайт по НПС, то ссылки, стоящие на зеркало учитываются при ранжировании основного сайта. Технология достаточно стара и всем известна.
Нет.
Для кого правильно?
Вы думаете в алгоритме Яндекса встречается такое понятие, как "релевантный пассаж"?
Откройте доклад Яндекса на РОМИП 2006 и увидите, что показатель релевантности документа запросу
Score = W(single) + W(pair) + k1*W(AllWords) + k2*W(Phrase) + k3*W(HalfPhrase) + ...
Под Ваше понятие "релевантный пассаж" здесь больше всего подходит W(HalfPhrase) - наличие многих слов запроса в одном предложении. Под наличием многих слов здесь вероятно и подразумевается наличие достаточного количества слов из запроса для прохождения предложением кворума.
А как Вы смотрите? Я не вижу такого.
Означает не индексировать страницы, в URL которых содержится "/page/". Disallow: */page/ - то же самое.
Disallow: /page/* и Disallow: /page/ - не индексировать страницы, начинающиеся с "/page/".
У Вас итак уже есть без первой звездочки:
Конечно.
Я бы сделал отдельный именно для Googlebot, а насчет Mediapartners-Google я ничего не знаю.
Звездочка в конце правила всегда подразумевается, так что ее можно ставить, можно не ставить - никакой разницы.
Можете дать сайт посмотреть?
Может дело в первом блоке - Mediapartners-Google. Хотя в таком случае была бы проблема и с другими страницами. Может стоит сделать отдельный блок для GoogleBot'a?
Ну и как последний вариант - на эти страницы стоят ссылки, поэтому google плюет на запрет в robots.txt.
Это тоже самое, что и:
Может просто не успели еще вылететь?
Только с page такая проблема или с другими тоже?
И ладно, если бы это только на форуме было, но ведь на сайте-то тоже самое:
Я не говорю уже о смысловой составляющей текста вроде:
И, кстати, по русскому языку у меня в школе всего 4-ка была :)
User-Agent: *
Disallow:
Host: (www.)site.ru