- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт, проиндексированных страниц около 90К. Часть страниц уже давно устарела, и выдает 404, но робот Яндекса упорно не заходит туда и соответственно не удаляет из индекса. Подскажите, пожалуйста, можно ли применить такой способ, автоматически вызывать
http://webmaster.yandex.ru/deletedurl.xml?url=http//site.ru/item1.html
...
http://webmaster.yandex.ru/deletedurl.xml?url=http//site.ru/itemN.html
Это в принципе не законный метод, но с другой стороны - эффективная очистка от мусора, и Яндексу хорошо, и у посетителя меньше шансов увидеть 404. А вручную удалять можно и день и два :) Или пусть все остается как есть?
одскажите, пожалуйста, можно ли применить такой способ, автоматически вызывать
за очень частое обращения Ваш IP могут забанить.
за очень частое обращения Ваш IP могут забанить.
Да, собственно, и нет желания заспамить эту форму. Вопрос в том, применят ли санкции за автоматическое обращение. Определить, что обращаются не из браузера, думаю, не составит труда.
Если у адресов страниц общее начало, для их удаления надо использовать robots.txt.
Kokh, при слишком частом - принимает. А браузер и подделать можно.
Kokh, если страницы нет на Вашем сайте - то проблемы яндекса, как их удалять из своей базы устаревший хлам. Вам то что с того? Чем это мешает жить?
ps запрещать надо в роботс.
Если у адресов страниц общее начало, для их удаления надо использовать robots.txt.
Это было бы слишком просто, придется эмулировать браузер :) Спасибо.
Kokh, если страницы нет на Вашем сайте - то проблемы яндекса, как их удалять из своей базы устаревший хлам. Вам то что с того? Чем это мешает жить?
ps запрещать надо в роботс.
Например, мне мешает тем, что зачастую вместо новых страниц с тем же контентом, но другим адресом, Я не удаляет из индекса и выдает старые страницы с 404.
имхо, противозаконного в этом ничего нет ... и помочь Яндексу нужно
Kokh, если страницы нет на Вашем сайте - то проблемы яндекса, как их удалять из своей базы устаревший хлам. Вам то что с того? Чем это мешает жить?
ps запрещать надо в роботс.
Дело в том, что Яндекс начал неохотно индексировать новые страницы, вот у меня и возникла мысль помочь ему "разгрузиться". Раньше он просто тысячами их глотал. Не знаю с чем это связано, есть какой-то лимит проиндексированных страниц, так сказать критическая масса для отдельно взятого сайта? В общем не знаю, насколько эта теория верна. Кроме того, ситуация когда пользователь видит 404, тоже не есть гут, хоть она (ошибка 404) и выдается правильно, с формой поиска по сайту.
Дело в том, что Яндекс начал неохотно индексировать новые страницы, вот у меня и возникла мысль помочь ему "разгрузится". Раньше он просто тысячами их глотал. Не знаю с чем это связано, есть какой-то лимит проиндексированных страниц, так сказать критическая масса для отдельно взятого сайта? В общем не знаю, насколько эта теория верна. Кроме того, ситуация когда пользователь видит 404, тоже не есть гут, хоть она (ошибка 404) и выдается правильно, с формой поиска по сайту.
Вы все правильно подметили. Есть лимит, и он как раз на уровне 100к страниц. Закрывайте не существующие страницы в robots.txt.
Тем не менее, скверно, что у вас образовалось такое кол-во несуществующих страниц. Когда вы переделывали сайт - надо было задуматься об этом до, а не после.
По хорошему надо переселять старые страницы на новые адреса с редиректом 301. И Яндекс постепенно будет их заменять на новые. И вам хорошо, и Яндексу зыко, и пользователю комфортно :)