Я согласен. Но спамеры просто долбят по Битрикс сайтам, а там - как повезет, на случай, если кто ещё эту дырку не устранил и не обновлялся.
Аналогично они долбят и по бывшим уязвимым местам других CMS.
Какое попадание, если речь идёт не о WP, а о Битриксе и дело в ссылках, а во внешних переходах с помощью которых маскируются переходы через код файл Битрикса отвечающий за вывод баннеров.
Не гарантирует, хотя и не помешает, но дело реально не в бэках.
Это фишинговая тема, связанная баннер модулем Битрикса, поэтому адрес /bitrix/rk.php?goto там не просто статистическая случайность.
Полагаю, перенаправлять такие заходы нужно в 403 и проблема будет решена.
Именно так.
Раздувать индекс этими полудублями точно не надо - можно просесть в поиске.
Да, это не ссылочный спам. Это вот что за история.
Да, правильное уточнение, в запрет их надо отправлять, а не в 404.
Как же не важно, если спамерам нужны именно проиндексированные беки, а индекса не будет?
TC же указал, что в индекс подобные адреса не попадают.
С этим согласен, они просто спамят и всё, а потом с тысяч сайтов собирают десятки возможных беков.
Vladimir кстати хороший вариант предложил, я тоже люблю подобные ручные варианты, но насколько я помню у Битрикса есть свой firewall для защиты от подобных заходов, где тоже можно обрезать заходы и фильтровать спамный трафик по реферам и прочим признакам.
Вам необходимо проверить не только фактическое наличие страниц в индексе, но и рабочее содержание страниц в индексе.
Т.е. необходимо убедиться, в индексе актуальные рабочие данные или нет.
Может быть такое, что страница сама в индексе, а её рабочий текст (частично или полностью) не проиндексирован и не ранжируется, потому что ПС его не видит и не использует в расчете релевантности.
Поэтому вам необходимо проверить ранжирование страниц по фактическому содержанию.
Если страницы не ранжируются вообще - одна история, если запросы не проходят кворум запросов без кавычек, значит документам не хватает релевантности и поведенческих.
Если проблема техническая в том, что вы огранили зоны индексации документа (и сами того не заметили) - это нужно лечить на уровне анализа кода, если же у вас пока каким-то причинам резко просели поведенческие, то вам нужно работать с поведенческими.
Это приличный срок, значит недобора по хостовым быть не должно.
Пробуйте, конечно. Любая практика - это знание.
Но смотрите, если выполненное задание не фиксируется в метрике, то оно фактически бесполезно - не будет учитываться, а значит вы тратите свои деньги только для того, чтобы это выяснить. Эпизодично какие-то задания будут проходить и это будет удачей, но как правило это будет лишь малая погрешность из всех.
В принципе, если вы готовы давить массой, то пожалуйста. Но также помните, что люди выполняющие задания - довольно безалаберные и зачастую вообще лишь имитируют выполнение задания, а переходы по реферам с буксов у вас будут накапливаться и собирать такие свидетельства, что вы используете буксы для накрутки ПФ вряд ли стоит.
Возможно, спасибо за дополнение 👍 уже давно не пользуюсь, поэтому не в курсе последних событий.