есть 4 пациента под фильтром с апреля за переспам анкор листа.
на трех ничего не предпринимал, как сидели под фильтром так и сидят.
на одном предпринимал, никаких подвижек тоже нет.
объем предложений в сапе способен удовлетворить практически любые потребности, чего нельзя сказать про вечные ссылки
подключит sape.api и выдернет всех доноров за пару часов
есть тематики, где сейчас дорвеи в топе друг на друге сидят.
если отрубить влияние сапы, в выдаче будет армагедон
чтобы гугля ты не делал
всем сеошникам насрать
при любом раскладе будем
с топа траффик отжимать
по ВЧ тоже без ссылок продвигаете?
тоже ни разу не видел в паблике ничего такого.
Промышленные решения скорее всего на C или C++.
Если кто делал - тот молчит как партизан.
Selenium тормоз - я его только в одном потоке использую для некоторых автоматизаций. В нескольких потоках одновременно не пробовал. Еще пробовал QtWebKit из Python. Тоже тормоз.
Хотя оба js замечательно отрабатывают.
С автоматизацией у selenium все хорошо, мне хватает чтобы управлять Mozilla через Selenium Web Driver на Python. А с многозадачностью и скоростью да - плохо. Не для промышленных масштабов.
Раз уж пошла такая тема, может кто подскажет кто что использует для промышленных масштабов?
Selenium умеет полноценно выполнять js, на нем можно выращивать экземпляры "пользователей" со всеми примочками и историей. А вот спалится ли он перед Гуглом - это вопрос. Пробуйте если интересно.
Бот должен выращивать куки, просто ходя по Интернету для одного экземпляра.
Затем этим экземпляром можно прокликать несколько ссылок, но никак не все.
1) В идеале - один экземпляр на одно прокликивание.
2) Нужна просто куча прокси. (не проблема, но геморой)
Уже эти два пункта могут отбить желание заниматься сомнительным делом, от которого неизвестно какой толк.
проблема есть, если начнете писать поймете
Если у Вас есть свой ботнет, то почему бы и нет, может получиться.
Если нет - то как Вы это собираетесь реализовать?