- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть мысль при обновлении сайта, на время даунтайма, вывешивать простейшую страничку с текстом типа «Извините, ведутся работы. Заходите через два часа.» (на том же IP адресе и DNS имени).
Опасение – за время даунтайма к нам может заглянуть индексатор гугла и наткнуться на такую вот страничку.
Собственно вопросы:
- Как нужно сделать эту страницу, чтобы индексатор не решил что наш сайт теперь это одна эта страничка?
- Нужно ли оснащать эту страничку тэгами noindex,nofollow?
- Есть также мнение, что нам надо размещать такую страничку не на адресе основного сайта, а на каком-то вспомогательном, например домене (поддомене). А на основном адресе сайта оставить только 302 редирект на этот вспомогательный домен со страничкой. Насколько такая схема предпочтительна?
Как должна в таком раскладе должна быть оформлена эта страничка в плане тэгов индексации?
Вообще задача выглядит достаточно типовой… наверняка в мировом разуме есть готовые советы на сей счет.
Э-э-э... ну исходя из собственного опыта по "регламентным работам" ничего страшного ни с одним сайтом никогда не происходило. Время даунтаймов - от нескольких минут до нескольких дней (!).
Гугль (да и любой поисковик) не настолько "быстрый Гонзалес", чтобы за пару часов выбросить сайт из индекса. Да и не логично это, ни один сервер не имеет 100% аптайм, это настолько очевидно, что наверняка заложено в алгоритмах.
Да, и если Вы хотите другого примера - форум, на котором мы имеет удовольствие общаться бывает в дауне с (не)завидной регулярностью, и что же, на любой мало-мальски SEO запрос - топ 10 Гугля.
Не заморачивайтесь, одним словом.
соглашусь с organic полностью, многократно закрывал сайты на профилактику, по времени от 10 минут до 24 часов - ни одна страница не вылетела с индекса...
v367, так что не создавайте себе проблем на ровном месте. :)
ну я бы предположил что плохо следите.
Вылетаю.
Сайт стоял 2 часа, гугль переиндексировал и на некоторые запросы с 404 страничкой висят в серпе чисто на ссылочном.
Было что денек полежал. после этого 1/4 посещений как языком слизало на недельку.
Если сайт статичен - то да. Скорее всего боятся нечего. А если обновлять и гугл все время пасется то день простоя, не говоря о двух чреват крайне негативными последствиями.
Так что я б предположил что подумать таки стоит.
Решения не знаю 9
Я не думаю, что при кратковременном даунтайме Google может выкинуть сайт из выдачи, для этого необходимо значительно дольшее время. Я переживаю, что он может скушать страницу заглушку «Извините, ведутся работы. Заходите через два часа.» Хотя если отдавать код 404 ошибки, то она не должна попасть в индекс!
Sm@RT, те 404 странички, что Вы видели в индексе - они точно отдавали 404 код?
отдавалось средствами движка.
да. разумное замечание.
я проверю когда в след раз ляжет.
http://googlewebmastercentral.blogspot.com/2006/08/all-about-googlebot.html
If my site is down for maintenance, how can I tell Googlebot to come back later rather than to index the "down for maintenance" page?
You should configure your server to return a status of 503 (network unavailable) rather than 200 (successful). That lets Googlebot know to try the pages again later.
Ну и добавить
Retry-After: кол-во секунд