Ark-of-Truth

Рейтинг
78
Регистрация
29.01.2011

оптимально делать 2-3к текста.

Суть в следующем. Если вы свой ключевик на 8к текста вставите 20 раз, то много вероятен перебор по количеству и фильтр типа пингвин/панда. А если пару раз, то будет низкий процент в тексте (сильно разбавлено получится).

Оптимально - 1-2 раза употребить на небольшой кусок текста (1-3к символов).

september:
Нет, просто нужно думать своей головой при выборе доноров.
То, что вы перечислили выше (по крайней мере часть из того) важно при покупке ссылок с определенных страниц заранее отобранных по определенным критериям сайтов.

Полностью согласен.

Сайты при панде и пингвине хорошо вылазят в топ, главное знать что засунуть на сам сайт и как ссылочное проставить.

Есть только одна проблема, если конкуренты на сайт наставят Г ссылки, то сайт быстро отвалится.

А так же нужно понимать что "мега" порталы сейчас "не в моде" у гугла, и для увеличения трафика лучше делать несколько сайтов под разные группы запросов.

Есть проект заточенный под панду (теперь уже и пингвин). Продвигается набор СЧ в англ. гугле.

Проект полностью себя оправдал - стабильно растёт вверх с каждым апдейтом.

На этом апдейте траф удвоился (очевидно за счёт вылета конкурентов).

Ряд старых проектов - стабильно потеряли позиции. Сейчас принцип продвижения поменялся, для попадания в топ нужна совершенно другая стратегия.

При этом, стратегия противоположная продвижения в яндексе (для местных сайтов) и бинга (в англ.).

Нужно выбирать как двигать, либо сайт будет в топе у гугла либо в других поисковиках.

Сейчас приходится делать 2 продвижения (на разных сайтах). Один выводится в гугле, другой в остальных поисковиках.

Саттелиты делать хорошо, в том случае когда их всех запихать на один ИП, засунуть на них копипаст, перелинковать, получить подъём и потом в скором времени много вероятен бан...

1 ИП никак не мешает продвигать сайты, но до первого стука.

Я использую сотни класс C ИП адреса (разные страны, города и хостинги), тем не менее 3-4 ИП адреса банятся гуглом со всеми сайтами на них из-за плохих соседей на хостинге, поэтому до 5 сайтов в год теряются. Попытки писать гуглу за последних 3 года ни разу не вернули сайты из бана.

Ещё добавьте сюда такой момент - тексты. Если будете пихать туда размноженный контент, то рано или поздно гугл за это присылает письмо в ВМТ о том, что ваш сайт не отвечает их критериям качества (вот подумайте с каких доноров вы теперь будете получать ссылочное).

Если будете делать рерайт (а сайт нужно обновлять хотя бы раз в месяц), то вам понадобится в год текстов на:

100 сайтов * 12 месяцев * 2к знаков = 2400к знаков (нормальные рерайты выйдут минимум в 2-4тыс. дол.).

И ещё учтите что если вы хотите там размещать ссылки, то не с каждой статьи нужно это делать. Должно быть >50% страниц без исходящих ссылок.

Если всё сделаете по правилам, то вам эти саттелиты выйдут до 10к-15к дол за год.

А если начнёте экономить, то ваши сателиты буду полным ГС, но всё равно обойдутся вам дорого....

Куда проще купить ссылок на нормальных ресурсах и не парится.

Я сам влез в это дело когда-то давно, и теперь только под сателиты должен сидеть человек и ими заниматься - пихать туда тексты, ставить ссылки, переносить на разные хостинги (из-за бана ИП или постоянно умирающих или глючащих хостингов), ежедневно проверять сайты (а то упадёт хостинг па ру дней и сателит улетает из индекса), бекапов и т.д.

Ещё учтите что со временем сателиты теряют ссылки, и их нужно чем-то прокачивать, либо постоянно наращивать их количество.

Я пытаюсь компенсировать расходы за счёт автоматизации некоторых процессов и продажи ссылок, но это отдельная песня.

Управление тысячами ссылок и учёт поступления денег занимает очень много времени. А в результате это даже не компенсирует расходы на тексты/хостинг.

Дальше делайте вывод сами...

П.С. Я сделал давно, и последний год потихоньку сокращаю сетку, оставляя только самые важные тематики и лучшие из площадок.

За всё время панды (и при пингвине изменений не заметил) проявляется интересная вещь. Сайты хорошими ссылками стали двигаться значительно проще чем это было раньше, но есть одно условие - нужны хорошие и правильные ссылки.

Но при этом есть другая сторона медали - стоит на сайт начинать ставить ссылки с плохих площадок (сайты у которых много исходящих со страниц, хотя это СДЛ с трафиком и уникальными текстами) и страница вместе со всеми запросами на ней начинает быстро скатываться.

Это проверенно как для старых так и для новых сайтов.

Вывод - гугл стал сильно чувствительным к внешним факторам. Любые плохие ссылки тут же губят запрос. Завалить сайт сейчас можно в два счёта, чтобы там гугл не говорил про внешние факторы.

мониторю сотни сайтов, ПР у гугла как был так и остался, и считается приблизительно так же как это делалось раньше.

За последние 2-3 года ПР на сайтах стабильный, если и меняется то +/- 1 может плавать. А значит вес гугл считает и не раздаёт рандомно. Иначе бы на всех сайтах было бы что угодно. Есть правда некоторые разбежки по "свежести" иногда он обновляет и показывает свежий ПР, иногда устаревший (до полугодовалой давности). Это иногда сбивает с толку, если часто меняется ссылочная масса.

Есть некоторые изменения касающиеся молодых и свеже-запущенных (на старых нулевых доменах).

Очень часто гугл присваивает новым сайтам ПР3-4 (у меня было на сайтах 10-15). ПР не настоящий, так как беклинков и страниц на данный ПР отсутствует. Но на всех таких сайтах в течении следующих 1-2 апов ПР постепенно сполз до ПР0-1 как и должно было быть.

Касательно сайтов где мало страниц, там может происходить следующая вещь. Кто-то скопировал контент - произошла склейка, через некоторое время он может расклеится целому ряду различных причин. Склейка может произойти ещё по причине того что лёг хостинг надолго, в связи с чем у меня были ситуации что гугл быстро проклеил домен по стартовой странице.

После расклейки у вас всёравно останется старый ПР (иногда до полугода). Про факт клея на небольшое время вы можете даже не узнать.

В любом случае ПР пропадёт в течении 1-2 апов, если нету соотв. беклинков.

я бы не стал сразу так дёргаться.

по юзабилити подправить сайт это только +

а ссылки и прочее, нельзя сразу начинать массовое изменение. Пингвин не первый и не последний, через некоторое время опять поменяют и ссылки опять будут учитываться по другому.

А то так можно заспамится ссылками с narod.ru а через месяц выпустят нового зверя, который это отменит (или наоборот опустит).

Как минимум нужно месяц подождать, посмотреть на ситуацию, и с ссылочным действовать постепенно.

Кстате по поводу сайтов с небольшим ссылочным, это совсем не сейчас появилось. Картина наблюдается уже не менее полугода в бурженете.

нормальных программ для автоматического рерайта нету.

чтобы было более не менее приемлемое качество нужно это делать в с помощью этих программ в ручном режиме.

особой разницы как правило нету, правда бывают такие моменты - внутряк большой ссылкой иногда можно сразу под фильтр загнать, а морды как правило более устойчивы.

С точки зрения количества ссылок и прочих факторов, имхо внутряк даже проще продвигать и он более релевантный запросам.

Alex C:
Я только 1 раз платил при размещении, при этом ссылка уже лет 5 там наверное висит. Хотя тогда они писали что хотят $300 за год.

аналогичная ситуация, оплатил 1 раз, потом разорвал с ними договор (отменил оплату). А сайт так и остался в каталоге.

Большого толка от яху каталога нету. Это разве что только полезно для молодого сайта, чтобы траст некоторый набрать, а на серп вообще влияния не заметил.

Всего: 461