- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как новый фильтр за накрутку ПФ сказался на SEO в 2020 году
Возможно ли улучшение кликовых ПФ белыми методами
Дмитрий Севальнев

Яндекс улучшил формулу авторасстановки рекламы на Турбо-страницах
Авторасстановка позволяет владельцам Турбо-страниц cэкономить время
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
День добрый, уважаемые!
Вопрос конечно нубский, но в обилии информации все равно никак не разберусь. Что же делать с ошибками 404? Вебмастер показывает их неск. сотен (восновном - удаленные когда-то стр.), при этом пометок, что на эти стр. идет откуда либо ссылка не стоит (таких и нет, в большинстве). По вебмастеру в индексе страниц этих тоже нет (но есть в статистике по ошибкам!)
Я конечно наслышан, что для индексации обилие 404 не есть гуд, но с др. стороны сам Яндекс пишет, что обилие 301 тоже не хорошо, а 404 это нормально, она сигналит что бы страницу из индекса убрали.
Только вот 404 копятся в вебматере с пол года и не пропадают. Это вообще нормально?
Так какие необходимо предпринять действия? Редирект 301 для каждой из этих неск. сотен? И все неск. сотен загнать в роботс, пока тот не распухнет как хомяк?..
Помогите уж попунктно разобраться
Обычно для появления 404 существует веская причина.
404 обычное дело для CMS.
Проблемы с 404 решаются путём закрытия их в роботсе и редиректом.
Т.е. их нужно закрывать? Скажем, если скопится 100500 404-ых. все нужно занести в роботс и .htaccess ?
А Яндекс пишет про вред от обилия 301 редиректов. Не верить?
А если верить, то "много" это сколько? Неск. десятков, сотен. тысяч?...
1) в большинстве случаев для закрытия 100500 страниц хватает нескольких строчек правил. Закрывается не каждая отдельная страница, а их совокупность по определённой маске.
2) с редиректом аналогичная ситуация.
После того, как 404 выпали из индекса, редирект можно убирать.
404 не возникают на пустом месте. Необходимо определить причину и решить проблему.
Ну причина просто - удаленены/перенесены в архив соответствующие стр.
Меня больше вопрос удаленных интересует.
Редирект и роботс же по логике нужны для того, что бы робот и юзеры не обращались к несуществующим урлам. А если эти урлы существуют только в журнале вебмастера, то и делать с ними ничего не стоит?..
Или же как-то иначе схема работает?
Если страниц нет в индексе, и через навигацию или внешние ссылки на них не смогут попасть ни ПС, ни пользователи, то делать с ними ничего не надо.
Все ясно, благодарю!