Прогон по 600 каталогам даст результат месяца через 2, так что это наврядли из-за прогона вас понизили.
Все беки сразу не появляются и Яндекс не может отследить/не отслеживает когда была поставлена та или иная ссылка.
Тут кто-то спрашивал
Линкование методом дерева:
Есть допустим 25 сайтов, причём 18 - сателиты, 6 - субосновных и один основной.
групируется 3 сателита на один ключевик, которые ссылаются на один субосновной сайт, который в свою очередь ссылается на основной сайт по ключевику который крутят мелкие сателиты.
Получается схема:
мелкие сателиты | | | | | | | | | \ | / \ |/ \ |/ субосновные сайты | | | \ | / \ | / основной сайт
Извините за терминологию.
Если сайт белый и пушистый - пиши Платону, если нет - попробуй склеить эти зеркала с помощью роботс.тхт, указав за главное (директовой host) то, что уже имеет беклинки.
Мой опыт:
1. Размещение 3 пресс-релизов о запуске сайта
2. Пробежка по форумам с постами "Зацените" "Поглядите" "Попинайте" и т. п. (разумеется во всяких Флудах-флеймах. Модаратор не кривись :)
Задача стояла не раскрутить сайт а осветить общественности интересную инфу.
Без Адурл, и ниодного каталога засабмичено небыло.
GoogleAdsence появился через 2 дня, робот Яндекса зашёл через три дня, рамблер пришёл через неделю, сам гугл начал ходить через недели две.
Могу попробовать объяснить такую "оперативность" Янекдса - просто удачно совпало что он съел страницы с пресс-релизами и ссылки с форумов и на следующий день провёл апдейт.
Незнаю поможет или нет, у меня был такой опыт:
Мой сайт индексировался как два сайта: www.site.com и просто site.com в выдаче они по разным запросам по разному ранжировались, так продолжалось года четыре, потом мне надоело раскручивать "два сайта" и я прописал директиву "хост" в роботс.тхт сайт "клеился" полгода, но в итоге после письма в сапорт его таки "починили". Беклинки объединились, сразу вырос тИЦ. Далее я купил ещё четыре домена и сделал их алиасами старого сайта, в роботс ничего не прописывал, но начал раскручивать новые домены, Яндекс их все склеил очень корректно и очень быстро.
Выводы которые я для себя сделал: три года назад склейщик не работал вообще, а сейчас он работает отлично.
А тема то - не в тему...
Кажется так в .htaccess прописывается и тогда со всех страниц сервер сам выдаст роботу или пользователю на страницу ошибок, без переадресации.
RewriteRule ^1ya.php(*)$ 404.html
Пока писал, уважаемый K. Ermakov успел первый :)
Чтобы снести следы линкатора надо в роботс тхт в корне сайта прописать
User-Agent: *
Disallow /папка линкатора/
Потом зайти на http://webmaster.yandex.ru/delurl.xml
И вписать полный адрес папки вида http://site.com/linkator/
нажать на удалить...
в теории со следующего апдейта ниодной страницы в базе Яндекса остаться не должно
А теперь приходят такие же письма ещё на десяток адресов с которых был послан запрос.
Видимо у Оксаны ночная смена :)