Sower

Sower
Рейтинг
659
Регистрация
30.12.2009
N_N_N:
Тоже склоняюсь к такому мнению. Плюс, вспоминаю заявки в мире года два назад. Жадность и тупость некоторых поражала. Если можно впихнуть в статью 3 ссылки, будут пихать все 3! И пофиг, что дублями анкора, без склонений, чуть ли не через предложение и все на морду. Да ещё выдели им ключи и линки болдом. Маразм - садит зад на "вечного донора" и сам же этого донора режет.

+1

На моих сайтах, которые торгуют ссылки в сапе, до сих пор 99% ссылок скупается с коммерческими анкорами. Берут пачками для одних и тех же сайтов, роя им яму. Где мозг у этих "псевдооптимизаторов"?

Потом начинается нытьё... "гугл отправил под фильтр за сапассылки". :D

Я правильные ссылки ставлю на отборных сайтах, а шелуху где попало.

Сами ответьте на свой вопрос. Или не пользуетесь поиском?

В прошлом году что только не делал, чтоб вытащить из под пингвина свои старые сайты. Все тщетно. Ни один не вылез. Новые сайты живут хорошо, пингвинов не боятся.

Не верю я в возможность полной реабилитации после пингвина. Береги честь смолоду. Попался раз, за попытку обмануть поисковик, так и будешь ходить с ярмом мошенника вечно (или долго).

Как мне кажется, база продажных сайтов формируется в гугле в основном руками горе оптимизаторов, которые попадут под пингвина или ещё кого нибудь, и начинают строчить тикеты со всеми адресами где покупали ссылки. И сайты гасят, и никакого прощения не получают.

Может есть тематическая связь между старыми и новыми страницами, и одна замещает другую, может не все страницы в индексе. Вам видней, по каким запросам какие страницы сидят. Попробуйте поискать их тайтлы в поисковике, найдёте причину.

Ark-of-Truth:


Могу сказать одно, п.2 - накопительный эффект в ПС не работает, или в очень низкой пропорции. Т.е. если загнать в индекс миллион уникальных страниц, то трафика конечно будет побольше чем когда их 100шт, но не в линейной пропорции. На 100стр может быть 1к трафика, а на миллион 10к. Одним словом дело не только в текстах.

Это по тому, что загнать в индекс миллион страниц практически не реально, если сайт не ломится от пиара с трастом и его посещаемость в десятки кило не бегает по этим страницам.

То, что гугл показывает по запросу site говорит лишь о количестве страниц, о которых знает гугл. Далеко не факт, что хотя бы половина из них находится в его индексе.

Если оборот 25 баксов в неделю есть, то можно задать им вопрос письмом.

warwar01:

Теперь про естейственные, нет таких. Есть ручные ссылки есть автоматические.
Гугл начал бороться с автоматическими, в том числе со статейными.

Он не делит ссылки на ручные и автоматические. Он борется с искусственными ссылками, поставленными с целью "влияния на PageRank". Ручной обмен ссылками с владельцами других сайтов для него ничем не лучше гестспама.

Cell:
Он только один - ссылка, по которой идут переходы (не ботов).

Ссылка, по которой идут переходы, кроме всего прочего, увеличивает BrowseRank.

Другие ссылки тоже учитываются, но на BR не влияют.

Всего: 7889