- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет.
Сложилась такая ситуация, что необходимо было стереть множество страниц (около 3000) на нескольких доменах. В то-же время, там есть кое-какой трафик с SE, и не хочется его терять, поэтому я сделал редирект на другой домен с кодом ошибки 404.
Вопрос: Не накажет ли google за это? Теоретически такая ситуация может встречаться часто. Например крупные бесплатные хостинги ежедневно удаляют много сайтов-нарушителей, и т.д., в итоге им нужно куда-то деть 404 траффик.
...Не накажет ли google за это?
Сделай редирект на JavaScript (window.location...)! Если я не ошибаюсь, Google не понимает Яву.
не банит ИМХО...
это даже им на руку, быстрее из базы выкинут скэшировнные страницы, и как следствие трафик сойдет на нет.
вопрос в том, нужно ли это?
оставь как есть, и сделай жаба-редирект, как Анар сказал, или клоку сделай.
А за что банить-то? Так как страница отдает 404, то Гугль просто выкинет ее из своей базы. А банить сайты за те страницы, которых нет в базе - глупо. :)
А за что банить-то? Так как страница отдает 404, то Гугль просто выкинет ее из своей базы. А банить сайты за те страницы, которых нет в базе - глупо. :)
А как можно сохранить для гугля эту страницу, вот например мне хостер по ошибке стер целый раздел, было там не много контента, страниц 220. Все они давным давно были скушаны гуглем, и трафа там было 100-150 человек в сутки с СЕ. К сожалению, бэкапа нет, а вот траф бы хотелось сохранить, как это правильно сделать учитывая то что тех самых страниц уже нет?
А как можно сохранить для гугля эту страницу, вот например мне хостер по ошибке стер целый раздел, было там не много контента, страниц 220. Все они давным давно были скушаны гуглем, и трафа там было 100-150 человек в сутки с СЕ. К сожалению, бэкапа нет, а вот траф бы хотелось сохранить, как это правильно сделать учитывая то что тех самых страниц уже нет?
Разве что в кэше посмотреть...
но не думаю, что стоит таким способом 220 страниц ради такого трафа восстанавливать :)
Если они еще есть в Гугле, то контент можно вытянуть из его кэша (вот Вам и бэкап :)), а если их уже там нет, то и сыр-бор затевать незачем
Если они еще есть в Гугле, то контент можно вытянуть из его кэша (вот Вам и бэкап :)), а если их уже там нет, то и сыр-бор затевать незачем
В кэше гугля нет, есть только бэкварды на те страницы, которых нет, и как бы задача сохранить тот ПР который передается на страницы, которых уже нет.
не помню урл, но есть служба, которая занимается архивированием интеренета. там можно просмотреть страницы, какими они были на нужную тебе дату.
но вероятность того, что там окажутся все твои 220 страниц стремится к нулю.
Если бекварды стОящие, то следует аккуратно собрать список страниц на которые они ведут (не все же 220?) и повесить соответствующие заглушки со ссылкой на нужные страницы.Только без редиректов!
Или повесить не заглушки, а полноценные страницы.
во, вспомнил...
попробуй тут: http://web.archive.org/