Интернет магазин dokashina.ru

12 3
M
На сайте с 28.11.2012
Offline
22
1764

Приветствую, уважаемые профессионалы!

Сделал сайт http://dokashina.ru/tyres/, дело в том. что фильтр сделан ссылками. Проходя, робот берет все в индекс. Т.к. много мусора таких страниц:

http://dokashina.ru/tyres/width_10.5-profile_13.5-diameter_r12-season_winter-studs_no-brand_amtel-runflat_no/ сделал 404 для них. Все максимально убрал, чтоб мусор не попадал в индекс. Но яндекс упорно не хочет брать в индекс релевантные страницы. Работа над сайтом продолжается по мелочам.

Есть у кого, какие мысли?

M
На сайте с 28.11.2012
Offline
22
#1

Также хочу заметить, что в магазине имеется много релевантных, оптимизированных страниц, например:

http://dokashina.ru/tyres/season_all/

http://dokashina.ru/tyres/studs_yes/

http://dokashina.ru/tyres/brand_bridgestone/

http://dokashina.ru/tyres/brand_dunlop/

http://dokashina.ru/tyres/diameter_r16/

и т.д. и таких страниц около 400 и список растет, планируется до 1000 страниц. Но яндекс упорно не желает брать их в индекс.

wwwwww
На сайте с 29.04.2011
Offline
195
#2
mendis:
Сделал сайт http://dokashina.ru/tyres/, дело в том. что фильтр сделан ссылками. Проходя, робот берет все в индекс. Т.к. много мусора таких страниц:

Вполне очевидно, что нужно сделать - убрать ссылки в меню фильтрации, чтобы ПС не находили пустых мусорных страниц.

У Вас по факту более 1 000 000 мусорных страниц, поэтому +- 400 страниц полезного контента утонули в мусоре.

https://www.google.ru/#newwindow=1&q=site:dokashina.ru

Видишь? Свободная подпись.
M
На сайте с 28.11.2012
Offline
22
#3
wwwwww:
Вполне очевидно, что нужно сделать - убрать ссылки в меню фильтрации, чтобы ПС не находили пустых мусорных страниц.

У Вас по факту более 1 000 000 мусорных страниц, поэтому +- 400 страниц полезного контента утонули в мусоре.
https://www.google.ru/#newwindow=1&q=site:dokashina.ru

Да, Вы безусловно правы. Но как из убрать? Кроме как 404 ошибки я не нашел решение.

M
На сайте с 28.11.2012
Offline
22
#4

неужели никто не даст дельного совета ?

A
На сайте с 28.04.2014
Offline
3
#5

уберите ссылки, закройте от индексации, через время выкинет из индекса

Современный дизайн сайтов, UI, админки, стартапы (http://designman.pro/) alexey.andreichyk@gmail.com skype: alexey.andreichyk
M
На сайте с 28.11.2012
Offline
22
#6
alexandreichyk:
уберите ссылки, закройте от индексации, через время выкинет из индекса

Это фильтр, каким образом убрать ссылки? Я решил это 404 ошибкой по сути это тоже самое? Как я закрою от индекса там более одного миллиона страниц.

[Удален]
#7
mendis:
Я решил это 404 ошибкой по сути это тоже самое?

нет, нужен запрет в роботсе + отсутствие самих ссылок

M
На сайте с 28.11.2012
Offline
22
#8
burunduk:
нет, нужен запрет в роботсе + отсутствие самих ссылок

каким образом запретить около 1 миллиона страниц? Они все разные, какого-то стандартного решения ведь нету? Что посоветуете?

[Удален]
#9

в мета на страницах написать инструкцию noindex (но тогда страница должна отдавать 200)

убрать все ссылки на эти страницы

Volnorez
На сайте с 15.02.2013
Offline
65
#10

Здравствуйте. С фильтрами у вас все нормально, беда начинается когда фильтруют не по одному значению, а по несколько. В результате чего получаются ссылки с такими хвостами:

width_135-profile_10.5/ и так далее

Как вариант можно выгрести возможные варианты и составить для робота необходимые конструкции.

Например

Disallow: */width_*-profile_

Disallow: */width_*-profile_*-season_

В общем попотеть надо.

Если ваш /sitemap.xml формируется автоматом и никак на него повлять нельзя, то отключить и сгенерировать его без этих хвостов.

Со временем поисковики выбросят из головы мусор. Если появится трафикогенерирующий МНЧ)), то допишете в робота необходимую allow-конструкцию.

Можно еще о каноникал подумать, но тут сильно надо думать как и куда их направлять.

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий