офф-топ. А вы не видите никаких этических проблем в том, чтобы поменять ссылки в статьях, изготовленных и размещенных на деньги клиента?
А чему тут удивляться? Был такой себе payperpost (с него блогун слизан), там блогеры вообще сами писали статьи, в которых линки размещались. Результат? Забанен весь payperpost гуглом, у всех пр 0. Причем, там блоги были очень чистые, mom-and-pop, большинство размещало совсем мало коммерческих постов.
Кто-нибудь искренне считает, что алгоритмом трудно вычислить платные статьи?
Особенно смешно, когда продают "навсегда" ссылки в статьях. На практике, честно было бы писать "на те несколько месяцев, пока гугл не накроет биржи статей, как накрыл биржи ссылок".
Если и размещать статьи, то вручную, на сдл с жестко тематической модерацией, не участвующих в биржах. Как говорится, "проходящих под радаром".
Более-менее на всех ссылка анкоры должны быть разными. Одинаковые анкоры - сигнал неестественности ссылок.
В вашем случае, это будут анкоры типа
страхование в урюпинске
страхование в мойдодырске
нечестное страхование
и т.п.
а дальше уже должны идти разбавочные:
страхуем по-жульнически
страховка без выплат
страховики-грабители
🚬
Когда сотрудники Сеопульта рассказывают о невиданных успехах в продвижении их системой вч ("каско" и т.п.), то, полагаю, они забывают сказать главное: продвижение вряд ли велось в автоматическом режиме. Т.е., роль сеопульта в таких проектах - разве что интерфейс предоставить.
Я попробовал поиграться с сеопультом в автоматическом режиме, так там от косяков волосы встают дыбом. Примеры:
Все анкоры (версия 2.0) ОДИНАКОВЫЕ. Ни одного "разбавочного" анкора сеопульт в авторежиме не закупил. Полагаю, не требуется объяснять восторг гугла, который видит десятки ссылок с идентичными анкорами.
Навскидку, около трети закупленных ссылок имеют тиц 0, пр 0. Причем, часть из них закуплена по ценам, соответствующим весьма качественным ссылкам. Отсюда делаем вывод, что контроля цены при закупке нет, а автоснятие не работает.
Закупаются ссылки с адалт-сайтов с очевидными стоп-словами в тексте.
Навскидку, 10-15% ссылок отсутствуют на донорах. Т.е., сеопульт сам ничего не проверяет, а полагается на данные с бирж.
При закупке в авторежиме, явно не проверяется количество текста на странице, т.к. довольно много доноров с одной строчкой текста.
Немало ссылок с непроиндексированных страниц.
Спасибо за ссылку. Впрочем, там ничего нового.
Вопрос был иной: возвращает ли фильтр к ситуации "без-ссылок" или же ухудшает выдачу, которая была до покупки ссылок?
Понятно, что о гугл-бомбинге речь не идет, просто об избыточной покупке ссылок.
На какой такой иммунитет от бана можно рассчитывать при продвижении статьями, если гугл забанил даже payperpost (вроде блогуна), где владельцы сайтов даже статьи сами писали?
Весьма очевидно, что продвигаемые статьями сайты имеют такую же грустную перспективу, как и продвигаемые ссылками.
Маразм. А сайт nytimes будет находиться по запросу Seiko?
Ну так и в чем проблема? Вселенский вопль: "Хрумер, спамеры!" А задницу почесать и элементарно от проблемы избавиться? И на блогах у меня то же самое, ноль спама, разве что забредают негры вручную спамить.
Спамит всегда глупая программа, нужно же иногда извилиной шевелить.
А смысл сабмитить от нулевых акков? Веса ноль, трафика тоже не будет. Такую программу нужно делать с модулем набора авторитета: акк пусть сабмитит урлы с новостных сайтов по кейворду, кликает по социалке чтобы набрать время пребывания на сайте, а уже через месяц потихоньку начинает постить нужные урлы - вперемешку с рэндомными с авторитетных сайтов.
А то от такого сабмита могут сайт забанить, вот и весь эффект.
Я гружу аяксовую форму комментария с небольшой задержкой