intraweb

intraweb
Рейтинг
200
Регистрация
30.09.2007

У меня гугл нормально беки кушает. Дополнительно их не скармливаю. Просто стараюсь брать со страниц которые уже в индексе.

bober:
lis, 2 мин нормальный интерва, чтобы изежать бана, но для полной гарантии лучше, чтобы интервал менялся случайным образом. В настройках семонитора есть возможность такая.

Хорошая идея.

Web base site:www.webase.jp - введите в google.com. оно подсветит webase.

Топиков уже куча подобных, покупайте меньше ссылок на новый сайт, разбавляйте неуник - уником, пишите уникальные анкоры.

2 минуты достаточно большой интервал, не должен банить. Хотя не факт.

Обменяйтесь ссылками с двумя тремя самыми известными тематическими порталами, и будете на трастовые сайты ссылаться и ссылочки обратные получите. Я думаю что влияние исходящих ссылок на трастовые сайты положительное. Не в плане позиций, а в плане уменьшения возможности пессимизации или фильтра. Опять же только предположение, как на самом деле хз.

У меня тоже подобная ситуация с сайтом в зоне com. Сайт в google.com и google.ru в топе а в google.com.ua 2-3 страница. Я стараюсь для Украинского Гугла продвигать сайты c доменами *.com.ua с ними еще не разу не было проблем.

BiX:

По поводу прироста, то рецепт такой:
- анализируем количество бэков первых трех мест по запросу определяющем тематику (обычно высокочатсотник к которому стремимся), например "компьютеры"
- делим это дело на 3, а лучше на 4
Полученная цыфра - есть количество допустимых новых бэков за месяц для НОВОГО сайт, то есть только запущенного в сеть. Если сайт старше, то и ссылочное можно наращивать быстрей.
Не могу гарантировать 100% результат успеха такой формулы, но пока никаких фильтров не ловил.
Здесь можно почитать подробней, но на английском.

Очень интересная теория и статья, спасибо.

Есть два вопроса.

1. А если сайту 3-4 месяца, то сколько примерно ссылок можно ставить?

2. Должны ли ссылки быть подкреплены страницами, чтобы поддерживалось среднее для топа ратио ссылок к страницам описаное в статье?

CHEM_Eugene:
Отправлял. Написали стандартное письмо, мол мы все сделаем, но не в наших силах делать все вручную, поэтому через 30 дней робот перепроверит сайт на наличие скрытого текста.
Пока сайт в индексе не появился.

А контора, которая сайт делала, имеет такую практику - подгружает php-код на все сайты, которые делает и ставит на них ссылки по средствам этой штуки. Свою сеть так делают.

Размещать блок ссылок на сайтах клиентов ИМХО плохо, а тем более делать их скрытыми.

А на один анкор сколько примерно ссылок брали?

Было ли уникальным околоссылочное?

Брали ссылки в XAP или SAPE или в других источниках?

Всего: 1875