это как так?
Ну я понимаю что в htaccess будут редиректы и т.п. Такое я видел на некоторых сайтах после вирусов. А вы о чём?
Причём, нафига вирусу 403-я?
его и нет!!!
Похоже кто-то владельцу напакостил прилично. Буду искать куда влезли. Видимо в коде прописали это дело, причём только для поисковиков Яшки и Гугла (кстати в гугле пока сайт в индексе).
Либо как вариант - это сделали хостеры, чтобы нагрузку снизить на сервера! Тоже не исключаю. Будут узнавать.
Это было сделано видимо как раз после выхода сайта из бана, который был наложен на 1 месяц. Поскольку я в то время проверял, всё было ОК, и роботс анализировался без проблем ;).
Но после возврата улетел. Я подумал, опять АГС наложили. И тут такое вылазит... с 403-ей!!! Спасибки.
Вот это свежая голова! Возможно вы правы. Может и АГС-то и нету)))) Пошёл искать.
p.s. в прочем, панель вебмастера почему-то не ругается и не говорит о подобных ошибках, что тоже странно.
1. Странная ситуация, сайт под АГС, но в аддурелку можно спокойно добавлять страницы. Про бан не пишет. Есть шанс, что с таких страниц работает ссылочное. Пока ИМХО.
Пока дал рекомендации по переделке сайта для форпринта, посмотрим, когда вылезет из под фильтра.
2. Но что-то так не везёт с сайтом, что даже яндекс не читает роботс, при проверки в анализаторе яндекса пишит:
Не удалось загрузить robots.txt
Что за чушь? Пробывал разные сайты, даже реально забанненные, всё нормально грузит. А вот с роботсом форпринта проблемка.
Заголовки вроде все правильные сервер выдаёт.
Просто глюк с анализатором? Надолго ли? Но другие сайты нормульно проверяет!
Не знаю что за совпадение, но у меня аналогично-с.
Разместил метрику и с яшки в 3 раза траф упал (c 120 до 40). И так небольшой был ;).
Интересно, просто совпадение?
сам такой же.
и
к чему тогда весь это топег?
кто сказал, что на таких сдл вообще не размещено внешних ссылок! Сапа-то она как бы вообще не причём.
azsx, вы так уверенно делаете выводы.
Я пока стараюсь только предполагать ;).
Однозначных количественных оценок показателей сайта для получения фильтра не выявлено.
Наличие внешних ссылок - это только один из важнейших факторов.
Но, в свою очередь, абсолютно не гарантирующий вылета в бан.
Это логично, так как в первую очередь АГС направлен против сайтов с избытком естественных и не очень ествественных ссылок.
-----
Кстати, тоже есть сайт для анализа, в индексе осталась одна страница:
azsx, найдёте ЯВНЫЕ признаки для фильтра? И АГС ли наложен?
Как частный случай, конечно. Это не психологические особенности, а особенности скоростной штамповки сайтов. Когда цель: напарсить и размножить. И всё это практически на полуавтомате!
ГС - это сайт который сделан быстро. Ну если так хочется выделить основные факторы, то можно попробовать. Но это сильно не поможет. Так как может найтись какая-нидь мелочь, которую вы не заметите, но её будет достаточно для банчика ;)
В повышенную зону риска попадают сайты:
Повторюсь, что каждый фактор в отдельности не так страшен, как их смертельное сочетание.
Задача Яшки: всё это прибить.
Как следствие:
p.s. странно, что дорвеестроителей что-то не слышно. У вас всё стабильно пока?
не удивлюсь, если алгоритм проверки достаточно медленный, як работа зеркальщика. ;)
Очень настораживает то, что "парсенные".
Как вариант, скрыть их от индексации, ваш уник может и вернётся (40% тоже неплохо).
Расписал пару дней назад на своём сайтике статейку про АГС. Попробовал сформулировать какие-то выводы. В прочем, предыдущий пост всё это уже отразил. Немного повторюсь:
1. Анализируемых факторов много.
2. Каждый фактор сайта по отдельности может быть вполне безвредным. Не мешать существованию сайта в индексе!
3. Мелкие факторы опасны именно в своём комплексном воздействии на сайт.
В комментариях есть интересные вопросы, пока без ответов:
1. насколько регулярно делается проверка сайта на качество?2. есть ли у алгоритма свой робот со своим значением Юзер-Агент?