А как анализировать учёт этого донора ПС при ранжировании подопытного? (по конкретному запросу)
Из-за упёртости яндексоидов ... таких страниц можно создать на пару порядков больше, чем реально существует на том г-сайте... и мало кому придёт в голову вообще проверять на каждый возможный подвох. А проверку не совсем понятно как делать... автоматом проверить можно скорее только подозрение или случайно при этом отказаться от честных.
Не только.
Некоторым при этом удастся избежать бреда, а некоторым нет.
Сам Гугл на эту тему не заморачивается http://www.google.com/search?q=inurl:com/sitemap.xml
Ещё надо закрывать роботсы http://www.google.com/search?q=inurl:com/robots.txt
Кэш роботса по состоянию на 4 янв 2012... редко же он в него смотрит.
И сайтмап в нём реально указан другой. Т.е. индексится не именно сайтмап или роботс, а произвольный документ...
Вопрос: дата в кэше роботса соответствует чему? Последнему запросу бота?.. с целью индексации файла или с целью проверки того, что в нём написано? Или это одно и то же?
Попробуйте
Включить личные сообщения (ЛС)
/ru/forum/667478
/ru/forum/672000
А чем она отличается от Disallow: /reading.
https://mail.yandex.ru/neo2/?nocache спамерюгам на заметку
Это очень хорошо. Ползателям достанется меньше говна.
Колмановская хвасталась, что сделала http://vesna.yandex.ru/ и что им присылали типа письма про то, что эти бредотексты удавалось сдавать в каких-то учебных заведениях.
А с этого тоже толку не будет... поскольку его трудно будет применить потом.
Если ТЗ не подразумевает отсутствие неудобств для ПС (а ТЗ просто нет), то и потом этих проблем никто не вылечит, скорее всего.
Если основной проблемой кажутся непонятки с расценками на сео, а не вопрос, например: сколько будет через год подобных магазинов (а 90% из них окажутся лишними), возврат вложений споткнётся об чего-нибудь совсем простое.
Там может быть не только это надо делать. Хоть кириллицей.
И неповторимого контента у вас на таких страницах мало, а текста навигации много.
ТЗ есть?
Потом аудит будет бесполезен, вменяемый исполнитель не захочет связываться, по причинам типа:
А у заказчика будут психологические проблемы с выполнением рекомендаций: Ну как же! Мы уже потратили столько бабла!
Аудит-который-потом — хуже, чем выполнить всё правильно сейчас.
Не является. А рекомендовать... а потом иметь последствия чьих-то психологических проблем — не хочется.
Это тоже пугало.
Сколько лет ещё продержится закрываение его в robots.txt? Вот пример чего-то (devaka показал). Может есть пример поиска чего-то закрытого?
Не надо пугать заказчека голым HTML!
Нет.
Проблема чаще в заказчике. Рекомендации просто херят... а выполняют то, что легче липнет к мозгу.