- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую, уважаемые профессионалы!
Сделал сайт http://dokashina.ru/tyres/, дело в том. что фильтр сделан ссылками. Проходя, робот берет все в индекс. Т.к. много мусора таких страниц:
http://dokashina.ru/tyres/width_10.5-profile_13.5-diameter_r12-season_winter-studs_no-brand_amtel-runflat_no/ сделал 404 для них. Все максимально убрал, чтоб мусор не попадал в индекс. Но яндекс упорно не хочет брать в индекс релевантные страницы. Работа над сайтом продолжается по мелочам.
Есть у кого, какие мысли?
Также хочу заметить, что в магазине имеется много релевантных, оптимизированных страниц, например:
http://dokashina.ru/tyres/season_all/
http://dokashina.ru/tyres/studs_yes/
http://dokashina.ru/tyres/brand_bridgestone/
http://dokashina.ru/tyres/brand_dunlop/
http://dokashina.ru/tyres/diameter_r16/
и т.д. и таких страниц около 400 и список растет, планируется до 1000 страниц. Но яндекс упорно не желает брать их в индекс.
Сделал сайт http://dokashina.ru/tyres/, дело в том. что фильтр сделан ссылками. Проходя, робот берет все в индекс. Т.к. много мусора таких страниц:
Вполне очевидно, что нужно сделать - убрать ссылки в меню фильтрации, чтобы ПС не находили пустых мусорных страниц.
У Вас по факту более 1 000 000 мусорных страниц, поэтому +- 400 страниц полезного контента утонули в мусоре.
https://www.google.ru/#newwindow=1&q=site:dokashina.ru
Вполне очевидно, что нужно сделать - убрать ссылки в меню фильтрации, чтобы ПС не находили пустых мусорных страниц.
У Вас по факту более 1 000 000 мусорных страниц, поэтому +- 400 страниц полезного контента утонули в мусоре.
https://www.google.ru/#newwindow=1&q=site:dokashina.ru
Да, Вы безусловно правы. Но как из убрать? Кроме как 404 ошибки я не нашел решение.
неужели никто не даст дельного совета ?
уберите ссылки, закройте от индексации, через время выкинет из индекса
уберите ссылки, закройте от индексации, через время выкинет из индекса
Это фильтр, каким образом убрать ссылки? Я решил это 404 ошибкой по сути это тоже самое? Как я закрою от индекса там более одного миллиона страниц.
Я решил это 404 ошибкой по сути это тоже самое?
нет, нужен запрет в роботсе + отсутствие самих ссылок
нет, нужен запрет в роботсе + отсутствие самих ссылок
каким образом запретить около 1 миллиона страниц? Они все разные, какого-то стандартного решения ведь нету? Что посоветуете?
в мета на страницах написать инструкцию noindex (но тогда страница должна отдавать 200)
убрать все ссылки на эти страницы
Здравствуйте. С фильтрами у вас все нормально, беда начинается когда фильтруют не по одному значению, а по несколько. В результате чего получаются ссылки с такими хвостами:
width_135-profile_10.5/ и так далее
Как вариант можно выгрести возможные варианты и составить для робота необходимые конструкции.
Например
Disallow: */width_*-profile_
Disallow: */width_*-profile_*-season_
В общем попотеть надо.
Если ваш /sitemap.xml формируется автоматом и никак на него повлять нельзя, то отключить и сгенерировать его без этих хвостов.
Со временем поисковики выбросят из головы мусор. Если появится трафикогенерирующий МНЧ)), то допишете в робота необходимую allow-конструкцию.
Можно еще о каноникал подумать, но тут сильно надо думать как и куда их направлять.