Это не важно совершенно. Если ссылок много они могут ещё долго находиться в индексе, пока там ещё их робот посетит в итоге плавно и получится. Если мало - тоже самое. Если хотите заменить - снимайте партиями и докупайте, только докупайте получше качеством и поменьше числом.
За чёрные методы - есть риск бана, за серые - поймать фильтр, а за белые - будете в заднице болтаться.
Яндекс не против покупных ссылок, если продвигаемый сайт нормальный и в коммерческой тематике. Все так продвигаются, пока ранжирование на основе анкоров ссылок идёт. В коммерческих тематиках без этого никак.
Он просто фильтр поставил на сеоссылки, по которому их вес раза в 3 упал, а в некоммерческих тематиках перестал их учитывать.
Яндексу выгодно чтобы стоимость продвижения была высокой и люди шли в Директ. Сейчас Директ бывает выгоднее продвижения, именно из-за кучи фильтров урезающих веса ссылок, и прочих.
Сайт клиентский, а на нормальный хостинг мне больше года обещают перебраться:(
К чёрной относятся некоторые методы получения ссылок бесплатно. А покупка к чёрной не относится.
У меня прога бывало вылетала более чем на 20к страниц. А оперативки у меня 1 гиг.
Больше проблем не с тем, что число страниц ограничено, а тем что нет тайм-аута обращения к серверу. С осени не могу один сайт просканировать по этой причине.
Пишите свой сайт. Должно по логике хватить такого.
Disallow: /mail_*
Может не для того домена пишите?
Или может проще, использовать метатег роботс. Указать его в шаблоне такой страницы.
К чёрным ещё относятся методы о которых запрещено говорить на этом форуме, так как они нарушают законодательство.
И чё это давно известно...
На форуме и так много тем так тонут, добавка новых будет небольшая, статей создаётся немного. Впрочем можно включить порог, если меньше 3-х комментариев - тема не создаётся.
Собственно для нового софта, было бы интересно, если данные полученные в нём можно было открывать в коллекторе для дальнейшей работе и наоборот.