DyaDya

DyaDya
Рейтинг
147
Регистрация
11.04.2007
Nadejda:
заходишь в htacces, а там все нормально. посоветовали создать новый, а старый удалить. вирус цеплялся к htacces , и сам вирус не было видно

это как так?

Ну я понимаю что в htaccess будут редиректы и т.п. Такое я видел на некоторых сайтах после вирусов. А вы о чём?

Причём, нафига вирусу 403-я?

Масол:
А в .htaccess заглянуть, прежде чем на АГС валить?

его и нет!!!

Похоже кто-то владельцу напакостил прилично. Буду искать куда влезли. Видимо в коде прописали это дело, причём только для поисковиков Яшки и Гугла (кстати в гугле пока сайт в индексе).

Либо как вариант - это сделали хостеры, чтобы нагрузку снизить на сервера! Тоже не исключаю. Будут узнавать.

Это было сделано видимо как раз после выхода сайта из бана, который был наложен на 1 месяц. Поскольку я в то время проверял, всё было ОК, и роботс анализировался без проблем ;).

Но после возврата улетел. Я подумал, опять АГС наложили. И тут такое вылазит... с 403-ей!!! Спасибки.

Nadejda:
Почему сразу глюк анализатора😂
Ответ сервера 403☝

добавлю чтобы понятнее было.
для пользователя выдается 200
для поисковых систем 403.
посмотреть здесь http://www.bertal.ru/index.php
может вирус?

Да и сам сайт аналогино поисковикам отдает 403. ищите причину

Вот это свежая голова! Возможно вы правы. Может и АГС-то и нету)))) Пошёл искать.

p.s. в прочем, панель вебмастера почему-то не ругается и не говорит о подобных ошибках, что тоже странно.

1. Странная ситуация, сайт под АГС, но в аддурелку можно спокойно добавлять страницы. Про бан не пишет. Есть шанс, что с таких страниц работает ссылочное. Пока ИМХО.

Пока дал рекомендации по переделке сайта для форпринта, посмотрим, когда вылезет из под фильтра.

2. Но что-то так не везёт с сайтом, что даже яндекс не читает роботс, при проверки в анализаторе яндекса пишит:

Не удалось загрузить robots.txt

Что за чушь? Пробывал разные сайты, даже реально забанненные, всё нормально грузит. А вот с роботсом форпринта проблемка.

Заголовки вроде все правильные сервер выдаёт.

Просто глюк с анализатором? Надолго ли? Но другие сайты нормульно проверяет!

Xontas:
у меня несколько сайтов и на одном из них решил попробовать метрику от яндекса
и вот именно этот сайт у меня и упал... причем серьезно упал по запросам...

Не знаю что за совпадение, но у меня аналогично-с.

Разместил метрику и с яшки в 3 раза траф упал (c 120 до 40). И так небольшой был ;).

Интересно, просто совпадение?

azsx:
DyaDya я в сео полный ноль

сам такой же.

azsx:
консультаций не даю, анализов не делаю

и

azsx:
потом посмотрю (все потом

к чему тогда весь это топег?

azsx:
Многие владельцы "сдл" жаловаться начинают с того, что сапы у них нет и не было

кто сказал, что на таких сдл вообще не размещено внешних ссылок! Сапа-то она как бы вообще не причём.

azsx, вы так уверенно делаете выводы.

Я пока стараюсь только предполагать ;).

Однозначных количественных оценок показателей сайта для получения фильтра не выявлено.

Наличие внешних ссылок - это только один из важнейших факторов.

Но, в свою очередь, абсолютно не гарантирующий вылета в бан.

Это логично, так как в первую очередь АГС направлен против сайтов с избытком естественных и не очень ествественных ссылок.

-----

Кстати, тоже есть сайт для анализа, в индексе осталась одна страница:

  • реально работающий интернет-магазин
  • без продажных ссылок

azsx, найдёте ЯВНЫЕ признаки для фильтра? И АГС ли наложен?

azsx:
По моему мнению, фильтр агс ловит именно особенности гс от которых "психологически" сложно избавиться.

Как частный случай, конечно. Это не психологические особенности, а особенности скоростной штамповки сайтов. Когда цель: напарсить и размножить. И всё это практически на полуавтомате!

ГС - это сайт который сделан быстро. Ну если так хочется выделить основные факторы, то можно попробовать. Но это сильно не поможет. Так как может найтись какая-нидь мелочь, которую вы не заметите, но её будет достаточно для банчика ;)

В повышенную зону риска попадают сайты:

  • с автоматичесим парсингом и публикацией статей и новостей
  • без проверки текстов, с кучей ошибок
  • со спамом
  • без релевантной перелинковки
  • с всякими облаками тегов, версиями для печати и т.п., дабы максимально наплодить страниц
  • на молодом домене

Повторюсь, что каждый фактор в отдельности не так страшен, как их смертельное сочетание.

Задача Яшки: всё это прибить.

Как следствие:

  • усложнение и удорожание штамповки сателлитов и сапо-сайтов.
  • удорожание продвижения.
  • меньше ГС-мусора в индексе.
  • ГС будут неотличимы от СДЛ, что тоже хорошо ;). И признать такие сайты ГС-ом будет не просто.

p.s. странно, что дорвеестроителей что-то не слышно. У вас всё стабильно пока?

234sha:
3 живут (тьфу-тьфу-тьфу)

не удивлюсь, если алгоритм проверки достаточно медленный, як работа зеркальщика. ;)

solomko:
Процентов 60 парсенные новости

Очень настораживает то, что "парсенные".

Как вариант, скрыть их от индексации, ваш уник может и вернётся (40% тоже неплохо).

Расписал пару дней назад на своём сайтике статейку про АГС. Попробовал сформулировать какие-то выводы. В прочем, предыдущий пост всё это уже отразил. Немного повторюсь:

1. Анализируемых факторов много.

2. Каждый фактор сайта по отдельности может быть вполне безвредным. Не мешать существованию сайта в индексе!

3. Мелкие факторы опасны именно в своём комплексном воздействии на сайт.

В комментариях есть интересные вопросы, пока без ответов:

1. насколько регулярно делается проверка сайта на качество?
2. есть ли у алгоритма свой робот со своим значением Юзер-Агент?

Всего: 2917