Буквально на той недели переписывался с поддержкой.
У меня в вебмастере ссылок с ГС около 2к+, фильтров в данный момент на сайте нет.
Но, мой вопрос в Яндекс был таким:
Как влияют такие ссылки с ГС которых море, причем ссылки размещены в контенте, который парсился с сайтов где были ссылки на мой сайт.
Схема такая. Берется 1К+- доменов под АГС или просто ГС. Дальше брали любой нужный домен, смотрели упоминания домена в контенте на других сайтах.
И, по итогу контент парсился с тех сайтов где была ссылка нужного домена.(а откуда парсили новостники и другие сайты не страдали, брали только контент с ссылкой нужного домена)
Так и получилось, что напарсили специально контент с тех сайтов, где была ссылка на нужный сайт и разместили его на всех своих ГС.
Ответ Яндекса не совсем понятен.
То есть, представляю вебмастеров, которые попадут в подобное, что они будут бегать и писать хостингам где есть все ГС и дорвеи...
Надо быть хз миллионером, чтоб писать каждому владельцу доров чтоб тот убрал ссылки...так как естественно бесплатно они не будут снимать, не зря они все парсили..
P.s Не знаю как дальше будет ситуация с сайтом, но в данный момент он пока не под фильтром, но позиции не блещут...
Возможно, алгоритмы ихние сегодня как то работают, но что будет завтра хз...
Я сам сталкивался с подобным и нужно было как давать задачи людям, так и видеть отчет. И работал с бубнами долгое время.
Искал систему взаимодействия заказчик-исполнители-контроль.
Нашел, система молодая, не совсем справляется(по мои нуждам), но основу выполняет.
Посмотри видео https://www.youtube.com/channel/UC0_BO296Mmano2sZj9B7RHA/videos , может и тебе подойдет.(сама система бесплатная, с открытым кодом, но, там есть и платное дополнение, возможно тебе не понадобится)
P.s В любом случае придется искать систему для взаимодействия и контроля. Систем много, но подобрать под себя не легко)
Обновить плагин обязательно, а лучше сменить сразу на аналог, который поддерживается и обновляется.
Выше уже звучали предложения, айболит, манул.
Но, я добавлю, можно скачать бекап сайта на компьютер, и просканировать антивирусом NOD, Norton AntiVirus,Malwarebytes Anti-Malware ( все версии триальные, подойдут для сканирования.)
Кстати, сколько раз айболиты и манулы не находили, а нортон при сканировании видел вредоносный код.
Только сканируй не в архиве, а распакуй файлы в папку...
После сканирования антивирусами, можешь еще проверить онлайном, загрузив архив на https://www.virustotal.com тоже иногда видит..
Как вариант, сканировать всем чем можно.
Вчера тоже обратил внимание. Выше я писал что старенькие сайты Яндекс "опустил", а новые страницы на новых сайтах не индексирует практически.
Вчера пошел на биржу, купил "статью" за 60 рублей и закинул на один из старых сайтов, который Яндекс "нагнул"..
Через пару минут страница в индексе...
P.s Сайт на wordpress, обновление на сайте НЕ частые..как понимать Яндекс хз, "опускает" каждый Ап, но быстроробот есть...
На новых 6+ месячных сайтах обновления ежедневные, но с апреля месяца 10% страниц в индексе из добавленных..
Как "забуксовал" Яндекс с частыми АП, так и перестал новые страницы индексировать, а старые сайты скоро опустит на такие позиции, куда сам бот не ходит..
Печально, когда выше тебя сайты с рерайтами и простынями текста, которые переписывались со старых сайтов, которые сейчас Яндекс вытесняет все дальше и дальше.
P.s Можно было бы смириться, если бы выше были сайты с чем-то новым, а когда рерайтами обходят, печаль,беда...
Они последнее время так себя ведут. Но, у меня мнение, что все это в холостую как-то. Толку от наплыва ботов нет. Новое практически не индексирует, а старые страницы кидает туда, сюда или выкидывает, потом опять берет в выдачу.
Да и АП последние, тоже какие-то "бесполезные", для галочки. Вроде и был АП, а вроде и не был, изменений особых нет.
По трафику не понять, смотришь позиции, топ, трафик в минус и наоборот, позиции 2-3 страница, трафик в плюс.
Как не крути, если у самого головы нет, бюджет не поможет. Бюджет тоже надо уметь освоить.
В противном случае, останешься и без бюджета и без проекта. 🍿
А что ответят, как всегда от Платонатии только троллинг и закос под "дурачка"
Зачем гадать признаки, когда можно посмотреть практически в любом парсере.
Или набрать в том же google признаки для парсинга форумов.(списков куча для разных движков)
А какие то "специфические" признаки врядли кто озвучит, так как сам по ним парсит, и конкуренты думаю не нужны.
P.s Не совсем понимаю вашу задачу, но уже велосипедов море(парсеров), которые парсят по признакам движков.
У меня был немного другой вопрос в Платонатию, почему страницы новые практически не индексирует с конца марта, а со старыми "играет" каждый АП, то выкинет, то добавит их же, и все только со старыми, новые страницы практически не берет в индекс.
Ответа нет второй день.
P.s В стране Платонатии опять что-то сломалось походу, а "псевдо" АП для видимости...