Fi9hter

Fi9hter
Рейтинг
248
Регистрация
05.08.2008

ТС, вы бы рассказали как эксперимент проводился.

В расширенном поиске 8 место, в xml 8 место. В обычном поиске не нашел сайта...

Rookee Devel:
Если продвигаешься под гугл, то проще всего поставить автозакупку на паузу и снять лишние ссылки.

Вручную 1500 ссылок отмечать замучаешься, их бы хоть отсортировать какие в индексе, а какие нет. А автосъема не в индексе, я не нашел.

Запрос вышел в топ1, бюджет нужно снизить. Как это сделать? Оставить только проиндексированные гуглом ссылки .

Даже апдейт не помог. Вообще лажа(((

1) Нет

2) Нет

3) Нет

4) Манипуляция внешней ссылочной массы для влияния на тиц. Т.е. неестественные ссылки - спам, покупка и прочее в массовых масштабах.

5) Если качественные то нет.

А в выдачи такие гс зачем, если их не банить?

А без использования вайт листов система сама часть доноров уже в черном списке держит? Потому что даже без них мало доноров доступных. Ввожу например простой фильтр: домен 2 уровня, тиц от 10, возраст домена от 365, вс до 1, прогнозируемое до 3, цена до 2, страница в индексе Я - выходит всего: Найдено сайтов: 342. Даже в сапе только и то больше найдется доноров.

Fi9hter добавил 03.10.2010 в 00:33

И как настроить чтобы для 1 страницы не покупалось больше 1 ссылки с донора, но для проекта в целом чтобы можно было? А то либо на каждую страницу куча ссылок с одного донора, либо на все страницы уникальные доноры, в итоге не хватает их.

Аааа,вот про что говорили, про ужин. Я на ужин не оставался ни вчера, ни сегодня, так что остался в норме)

Доклады которые мне нужны были не прочитали. Ну не делаются так дела, деньги отданы, а то что обещали не получил я.

Всего: 2075