Давайте посмотрим на эти полноавтоматные сайты, приносящие прибыль.
Я прошу прощения, вы как справляетесь с таким объёмом информации?
Объёмы бототрафика очевидно растут, поэтому спрос на использование данного сервиса продолжает расти.
На рынке уже оформилась отдельная специализация - специалист по защите от бот трафика.
Если трафика нет, то ещё один агрегатор Яндексу не нужен.
Вкладываться в развитие сайта. Привлекать трафик, улучшать полезность контента для целевой аудитории.
Это всё второстепенно.
Берутся за всякое, но чем больше проблемных зон и обстоятельств, тем меньше желающих.
Дело тут конечно не в конкретном единичном внедрении, а в решении рабочих задач на перспективу. Костыльная система рано и позднее проявит свою недееспособность.
Более того, в одном из своих ответов (к сожалению, не вспомню где, по-моему, в текстах их блога) они открыто говорили, что мы является зеркалом рунета, мы не ставим приоритетной задачей определять право первоисточника и вообще первоисточник - это сугубо внутренняя техническая задача.
Приводя примеры, страница первоисточника выпала из индексации на продолжительное время - первоисточник меняется, что технически вполне понятно и снимает вопрос легитимности первоисточника.
Да, тут нужно учитывать, что 404-ая ошибка формирует необходимость ещё раз посещение данного адреса поисковым роботом.
И если таких страниц десятки и сотни тысяч, то рабочая очередь может растягиваться на месяцы.
Может, как вариант.
Но если это тысячи страниц из разных кластеров, то тут встаёт вопрос в трудозатратах, если это точечные (а не групповые) редиректы.
Здесь невозможно разбирать данный вопрос в отрыве от контекста.
Всё зависит от структуры сайты, наполняемости кластеров и возможности систематизировать подобную работу.
Надо разбираться в источниках рабочих сигналов. Если это внешние источники - это одна история, если это неправильные/неактуальные ссылки - другая.
Важен рабочий контекст.
Это понятно из вашего вопроса :)
Если бы такой приём работал, то все желающие собственники сайтов и вебмастера продвигали свои сайты ежедневным посещением своего сайта.
Однако всё несколько сложнее. Яндекс будет видеть вас как одного пользователя (что в общем-то очевидно) и не даст вам желаемого эффекта.
Нигде не надо заказывать. Если на сайте много отказов, то надо заниматься конверсионностью сайта, а не постоянной имитацией пользовательских сигналов.
Иначе вы потеряете время, деньги (на оплату ботов) и скорее всего в результате - адекватность в ранжировании всего сайта.
Не настолько, чтобы отказываться от возможности приобретать доп. ссылки.
Куда важнее хостовые хар-ки самого донора.
Это довольно распространённая стратегия, потому что в целом кол-во доступных хороших доноров по тематике быстро заканчивается.
Возникает 2 вопроса:
1) Пофиг, покупаю просто анкорные, т.к., по сути, нужен только вес.
2) Выписать с околоссылочным текстом + анкор.
Не вижу, где здесь вопросы.