- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
DyaDya, отписал и платонам и свебу, вот сейчас свеб ответил что проблема решена. У меня такая проблема наблюдается только на 1 сайте из акка. Будем ждать, смотреть логи. Надеюсь и у меня, и у вас она решится :)
Может у них антидос какой-нить ботов блокирует?
Да сам сайт открывается, роботс вот такой вот:
User-agent: YandexBlog
Disallow:
User-agent: Yandex
Disallow: /xmlrpc.php
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Host: www.mydomains.ru
User-agent: *
Disallow: /xmlrpc.php
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Вроде бы все дерективы в порядке, не пойму, что запрещает индексацию.
Непонятно зачем сперва закрывать от индексации персонально Яндексу, а потом
делать то же самое для всех роботов? Подчеркнутое явно лишнее.
Подчеркнутое явно лишнее.
Не совсем. Это нужно для корректного составления роботса. Ибо host только яшка понимает, поэтому для него нужно все инструкции дублировать в отдельном блоке.
Некоторые, конечно, забивают на эту политкорректность и обходятся тупо одним блоком:
User-agent: *
Disallow: /xmlrpc.php
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Host: www.mydomains.ru
что вроде как тоже прокатывает.
DyaDya добавил 27.01.2010 в 17:40
DyaDya, отписал и платонам и свебу, вот сейчас свеб ответил что проблема решена.
надеюсь, что так.
ох ты блин, проверил свои сайты, уже 3 подкосило гдето на 1/3...
Хостинг тоже Свеб...
Надеюсь все нормализуется...
Оказалось вот в чем дело: После 20 января Яндекс что-то у себя сменил, из-за этого теперь у некоторых хостеров автоматически выдает 403 ошибку при обращении робота к серверу. Многие хостеры уже над этим работают. Чем больше у хостера серверов, тем дольше будет исправляться эта ошибка. У спейсвэба, например, восстановительные работы займут 2 недели. Я попросил перенести свой сайт на другой сервер, где эта ошибка уже исправлена. Сказали, что уже перенесли. Будет ап - посмотрим.
У меня тоже сайты на SWEB... Проблема точно такая. Но некоторые сайты нормально, а некоторые зацепило и вылетело от 50 до 200 страниц... НО! Все 10 сайтов на одном серваке... Так что это странно. Посмотрим что будет дальше 😒
Оказалось вот в чем дело: После 20 января Яндекс что-то у себя сменил, из-за этого теперь у некоторых хостеров автоматически выдает 403 ошибку при обращении робота к серверу. Многие хостеры уже над этим работают. Чем больше у хостера серверов, тем дольше будет исправляться эта ошибка. У спейсвэба, например, восстановительные работы займут 2 недели. Я попросил перенести свой сайт на другой сервер, где эта ошибка уже исправлена. Сказали, что уже перенесли. Будет ап - посмотрим.
После апа Яндекса 25-го на вылетевших из-за ошибки 403 страницах стояла дата именно 20 января.
В техподдержке Свеба сегодня ночью сказали что Яндекс внес изменения в настройки поисковых ботов и они все уже исправили.
По моим логам с сегодняшней ночи с половины 3-го ни одной 403 не замечено, везде исправно выдает 200 (заходов Яндексбота за это время несколько сотен)
Мне тоже вчера ответили, что неполадки устранены. Будем ждать, чтобы страницы вернулись.
sweb.
3 сайта с вылетом 620 страницы в целом.
Ответ менеджера sweb: