Slc

Slc
Рейтинг
150
Регистрация
27.06.2003

Был такой опыт: создавалась виртуальная папка с одинаковым содержимым для большого кол-ва доменов. Гугл знал 3 страницы с разных доменов, остальные были приклеены к этим трем. Стоило сделать уникальной компоновку текстов, гугл расклеил половину.

BPR?

в данном конкретном случае - да, воспримет, т.к. эти страницы расклеены....

Пока писал, уже опередили ...

Первое время ваш сайт будет висеть в "новых" (это первые несколько строчек), потом отранжируется по индексу цитирования. Цена для всех комм. сайтов одинаковая.

Насчет того, нужно-ли помещать сайт в каталог - в общем случае да, нужно. Но если например тематика проекта высококонкурентная - на одном каталоге далеко не уедешь, нужна оптимизация и работа с внешними факторами

nizool, не орите плз

1)

2)

3)

4)

5)

итд итд итд, методов "черной" оптимизации куча, однако не забывайте -

если модераторы заметят - забанят сразу.

Мне-то что, одним конкурентом меньше ...

действительно, не для этого раздела уж точно инфа, я не подумал.

Если на сайте есть дорвеи, предназначеные только для роботов, то парится из-за такой мелочи, как 1x1 pix ссылки не стоит точно ...

В yaca сайт зареген я надеюсь?

Вообще, чтоб яндекс на конкретные сайты фильтры ставил - не слышал. Гугл пенальти может дать, рамблер пессимизировать, а яндекс вроде как сразу банит

колбасит их ..

устаканилось вроде

Вот, нашел у нее в беквардах

http://www.pandia.com/post/019.html

ПР рассчитывается для страниц, а не для сайта, соответственно они могут его и отдавать. На практике это работает, из своего собственного опыта могу сказать: разница между одной ссылкой и тысячью, с одного сайта, велика

Что касается цен, потратив некоторое время, нашел предложения в разы выгоднее; и ПР, и кол-во страниц побольше, и цена поменьше :) Думаю с учетом такого нечеткого ценообразования, если тратить на поиск платных ссылок побольше времени, можно неплохо зарабатывать чисто на покупке и перепродаже :D

Всего: 868