suraev

suraev
Рейтинг
153
Регистрация
26.07.2005

Возможно, меня дополнят, но на вскидку 2 момента:

1. вроде как им проще наращивать тиц, закупая ссылки с аналогичной тематики

2. с них веселее продаются ссылки в SAPE, т.к. там в настройках фильтра есть тематика Я-Бара.

---------- Добавлено 26.04.2012 в 00:20 ----------

Строительство забронировали.

Стройматериалы купили.

Отпишу завтра с утра.

На некоторых страниц достаточно много, так что отсутствие АГС можно проверить. Но кое-где не проверишь.

Та же ситуация. В личном кабинете отображается, что подписка активна.

Подумайте над тем, чтобы добавить в список "профитов" одобрение заявки в ЯК (без оплаты). Это уже будет серьёзный шаг.

Допишите в robots.txt

Disallow: /orders/

а то лишние страницы в индекс лезут.

Касаемо отказов по причине спама.

Проверьте сайт на наличие дорвеев, которые там есть, а вы об этом и не знаете. Обнаружив дорвей, его нужно не только удалить, но закрыть от индексации в robots.txt. После этого отписать модератору о факте удаления (чтобы зафиксировать дату) и отсчитать 30 дней до следующей подачи заявки.

Также мне попадалось встраивание скрытых ссылок в шаблон, о которых вебмастер и не подозревал. Это тоже может быть воспринято как спам. Проверьте главную страницу на количество внешних ссылок, например в сервисе http://dinews.ru/seo/ либо с помощью RDS бар.

Для проверки на наличие дорвея/скрытых ссылок обязательно запустите скрипт AI-Bolit, заодно проверитесь на шеллы и прочую бяку.

Также изучите проиндексированные в Гугле и Яндексе страницы. Иногда доводилось видеть оставшиеся с момента разработки страницы типа "Lorem-Ipsum", "BLA-BLA-BLA", на которые уже в данный момент ссылок нет, но в индексе они висят и роботу доступны - страницы удалить, в robots.txt закрыть

Также добавьте сайт в панели вебмастера Гугла и Яндекса, посмотрите там список загруженных страниц, иногда удаётся увидеть ненужное, в индексе может и не быть, но роботу доступно.

Keep moving:
Прошу помощи. Скрипт выявил вот что:


Ну и в самом файле несколько переменных и затем функция с длиннющим параметорм:
preg_replace("/.*/e","\x65\x76\x61\x6C\x28\x67\x7A\x69\x6E\x66\x6C\x61\x74\x65\x28\x62\x61\x73\x65........

Избавляться от этой твари простым удалением всей функции?

Не все функции одинаково вредны :) Расшифровать надо, что там внутри. Есть декодеры.

$strings = array("Web Shell by boff", "Web Shell by oRb", "devilzShell", "Shell by Mawar_Hitam", "N3tshell", "Storm7Shell", "Locus7Shell", "private Shell by m4rco", "w4ck1ng shell", "FaTaLisTiCz_Fx Fx29Sh", "r57shell.php", "default_action = 'FilesMan'");

взял из зарубежного скрипта, вылавливающего некоторые шеллы, может быть что-то новенькое будет.

---------- Добавлено 10.04.2012 в 12:28 ----------

В частности, вот этот фрагмент, default_action = 'FilesMan', встречается практически всегда, даже если сам шелл закодирован.

---------- Добавлено 10.04.2012 в 12:48 ----------

Вот ещё идейка: довольно часто, если на аккаунте много сайтов, дополнительные домены лежат не в отдельных корневых папках, а находятся как внутренние папки в папке основного домена. Когда таких дополнительных сайтов много, у скрипта нет шансов отработать - слишком много файлов. В итоге я могу по отдельности проверить папки дополнительных доменов, но не могу проверить папку основного домена. Нужна настройка, чтобы можно было игнорировать папки, являющиеся доменными именами (например, игнорировать папки первого уровня, содержащие в названии точку).

mff:
понял.

Значит поехали:
  • Качаем скрипт ai-bolit, кидаем в корень сайтов, ищем шеллы.


Удачи.

Скрипт Ai-Bolit переехал, теперь расположен по адресу http://www.revisium.com/ai/

Кстати, я дослал автору несколько новых шеллов, он оперативно внёс изменения. Также теперь скрипт ищет редиректы, прописанные в .htaccess. В общем, весьма полезная штука :)

Всего: 1146