Str256

Рейтинг
611
Регистрация
07.01.2008
Интересы
компьютеры, интернет

Это не важно совершенно. Если ссылок много они могут ещё долго находиться в индексе, пока там ещё их робот посетит в итоге плавно и получится. Если мало - тоже самое. Если хотите заменить - снимайте партиями и докупайте, только докупайте получше качеством и поменьше числом.

vrodeden:
Не относилась бы, поисковики бы с ней не боролись. Покупая ссылки на сайт, вы создаете иллюзию того, что ваш сайт хороший и настолько интересен людям, что они десятками тысяч кидаются размещать ссылки на ваш сайт. И обычный ничем не примечательный сайт вылезет в топ, а какой то по настоящему хороший сайт не имеющий бюджета на покупку ссылок будет пылиться на задворках интернета. Хотя конечно все познается в сравнении. Заспамливание блогов и форумов конечно в разы чернее продажных ссылок.

За чёрные методы - есть риск бана, за серые - поймать фильтр, а за белые - будете в заднице болтаться.

Яндекс не против покупных ссылок, если продвигаемый сайт нормальный и в коммерческой тематике. Все так продвигаются, пока ранжирование на основе анкоров ссылок идёт. В коммерческих тематиках без этого никак.

Он просто фильтр поставил на сеоссылки, по которому их вес раза в 3 упал, а в некоммерческих тематиках перестал их учитывать.

Яндексу выгодно чтобы стоимость продвижения была высокой и люди шли в Директ. Сейчас Директ бывает выгоднее продвижения, именно из-за кучи фильтров урезающих веса ссылок, и прочих.

burunduk:
так это с хостингом разбираться надо (если сайт свой )
там кажется можно добавить свой IP в белый список

Сайт клиентский, а на нормальный хостинг мне больше года обещают перебраться:(

vrodeden:
Покупка ссылок тоже элемент черной оптимизации. Однако покупают почти все.

К чёрной относятся некоторые методы получения ссылок бесплатно. А покупка к чёрной не относится.

burunduk:
Оранжевый_бродЯга, вообще-то в топике не раз писалось что программа не рассчитана на парсинг больших проектов, оптимально до 1000 страниц

У меня прога бывало вылетала более чем на 20к страниц. А оперативки у меня 1 гиг.

Больше проблем не с тем, что число страниц ограничено, а тем что нет тайм-аута обращения к серверу. С осени не могу один сайт просканировать по этой причине.

Пишите свой сайт. Должно по логике хватить такого.

Disallow: /mail_*

Может не для того домена пишите?

Или может проще, использовать метатег роботс. Указать его в шаблоне такой страницы.

К чёрным ещё относятся методы о которых запрещено говорить на этом форуме, так как они нарушают законодательство.

И чё это давно известно...

artrozik:
ИМХО, никому не нужная функция, большая часть так и потонет без постов.

На форуме и так много тем так тонут, добавка новых будет небольшая, статей создаётся немного. Впрочем можно включить порог, если меньше 3-х комментариев - тема не создаётся.

Собственно для нового софта, было бы интересно, если данные полученные в нём можно было открывать в коллекторе для дальнейшей работе и наоборот.

Всего: 15927