bo1garia

Рейтинг
23
Регистрация
27.12.2009
Интересы
8a3287

снимется автоматом

вопрос звучит не про закрытие от индексации большей части сайта или про какую-то специфичную тематику, а именно про конкретную ситуацию. Именно про неё я и сказал, что абсолютно ничего не будет.

При этом, конечно, не следует забывать что инструкции robots.txt носят лишь рекомендательный характер для роботов поисковых систем. И страничку эту они все равно "посмотрят".

ничего абсолютно не будет. Robots для того и нужен, чтобы содержать рекомендации как индексировать страницы ресурса.

Технически яндекс любит титлы с точным вхождением ключа в начале + уникальность титла по отношению ко всему сайту

С редиректами я бы возился, если бы ссылочная масса на них работала. Если такой ситуации нет и все починили, то на "левых" страницах должна отдаваться 404-ая. Этого вполне достаточно.

такой же глюк по 10 проектам: показывает что все вывалилось из топ 50. На самом деле все в норме.

7tvn54w0:
откуда столь точные данные?
всегда считали 500 с морды и 150 с внутряка для смертных, из сколько угодно для избранных сайтов.

Данные из вебмастера Яндекс. Была показана ошибка при сканировании нескольких страниц сайта с пояснением, что превышен лимит в 3072 ссылки для одной страницы

а чего гадать-то? попробуй подобавлять урлы в аддурилку, если всё норм - спроси у яндексоидов из панели вебмастера "а в чем собственно дело?"

ПыСы Ну, а если стоит запрет на индексацию урлов значит попал под санкции)) Тем более стоит написать, чтобы озвучили причину

лимит всех исходящих ссылок, установленный яндексом на одну страницу, 3072 ссылки, при превышении эта страница не будет проиндексирована, а вебмастер покажет ошибку

ну и я отпишусь:

на блоге с 0 до 3 (23 страницы в индексе) :?

на сайте под фильтрами в Яндексе с 1 до 2 :)

на хорошем медицинском ресурсе с 1 до 0 :(

12
Всего: 20