- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, на днях подключил сайт к Яндекс Веб Мастеру и обнаружил большое количество страниц с ответом 404 и дубликатов.
Всего в поиске участвует 220 проиндексированных страниц, при этом в исключенных страницах 280 дублей и 2500 страниц с кодом ответа 404.
http://prnt.sc/ersvv6
В связи с чем появилось два вопроса. Надо ли что то с этим делать? По логике рас страницы находятся в исключенных, они не участвуют в поиске и не наносят никакого вреда. И если все же вмешательство требуется, то какое именно?
Дубли убрать однозначно.
Дубли выше сказали, про 404 - а откуда оно взялось?
Был переезд сайта, на новый дизайн, с сохранением доменного имени. Новый сайт взломали и стали заполнять чужими страницами с непонятным содержанием. Поэтому произвели откат к старому сайту.
В итоге все мусорные страницы, которые создавались не хозяевами сайта попали в удаленные по 404 ошибке. А также в связи со сменой названий урлов, странички с новыми урлами для нового сайта, сей час тоже отвечают по 404 ошибке.
Это основные источники удаленных страниц.
Если закрыть в robots.txt индексацию дублей и 404 страниц это полностью уберет их из числа загруженных роботом страниц и попавших в поиск яндекса?