Был такой опыт: создавалась виртуальная папка с одинаковым содержимым для большого кол-ва доменов. Гугл знал 3 страницы с разных доменов, остальные были приклеены к этим трем. Стоило сделать уникальной компоновку текстов, гугл расклеил половину.
BPR?
в данном конкретном случае - да, воспримет, т.к. эти страницы расклеены....
Пока писал, уже опередили ...
Первое время ваш сайт будет висеть в "новых" (это первые несколько строчек), потом отранжируется по индексу цитирования. Цена для всех комм. сайтов одинаковая.
Насчет того, нужно-ли помещать сайт в каталог - в общем случае да, нужно. Но если например тематика проекта высококонкурентная - на одном каталоге далеко не уедешь, нужна оптимизация и работа с внешними факторами
nizool, не орите плз
1)
2)
3)
4)
5)
итд итд итд, методов "черной" оптимизации куча, однако не забывайте -
если модераторы заметят - забанят сразу.
Мне-то что, одним конкурентом меньше ...
действительно, не для этого раздела уж точно инфа, я не подумал.
Если на сайте есть дорвеи, предназначеные только для роботов, то парится из-за такой мелочи, как 1x1 pix ссылки не стоит точно ...
В yaca сайт зареген я надеюсь?
Вообще, чтоб яндекс на конкретные сайты фильтры ставил - не слышал. Гугл пенальти может дать, рамблер пессимизировать, а яндекс вроде как сразу банит
колбасит их ..
устаканилось вроде
Вот, нашел у нее в беквардах
http://www.pandia.com/post/019.html
ПР рассчитывается для страниц, а не для сайта, соответственно они могут его и отдавать. На практике это работает, из своего собственного опыта могу сказать: разница между одной ссылкой и тысячью, с одного сайта, велика
Что касается цен, потратив некоторое время, нашел предложения в разы выгоднее; и ПР, и кол-во страниц побольше, и цена поменьше :) Думаю с учетом такого нечеткого ценообразования, если тратить на поиск платных ссылок побольше времени, можно неплохо зарабатывать чисто на покупке и перепродаже :D