mendis

Рейтинг
22
Регистрация
28.11.2012
anthony_:
А что конкретно вы хотите посмотреть?

Хочу посмотреть эти страницы которые в индексе.

immo:
Ну да, Disallow: /*?

т.е. именно так правильно?:

Disallow: /*?

immo:
Если все с ? в урле то Disallow: *?

вот так будет неверно Disallow: /*?

а так правильно ? Disallow: *?

MyDragon:
Делай кубики, в плане юзабилити будет получше для пользователей.
Зачем тебе дублирующий переспам нужен? Добавляй текст после товара
И в конечных страницах добавь побольше фоток .. + 3D панорамы... популярная тема да и время на сайте увеличит ;)

Подскажи, где больше добавить фоток?

И что это за зd понарамы? Пример дай.

неужели никто не знает?

wwwwww:
А так да - продолжайте толочь воду в ступе.

спасибо, натолкнули на мысль.

На страницы которые оптимизированны ведет ссылка, а которые нет, Стоит Тэг span. Думаю, что решит это проблемы? Как считаете?

wwwwww:
Примерный набросок, для закрытия ссылок на страницы "фильтрации":

добавить в robots.txt:

Disallow: /tyres/*width*
Disallow: /tyres/*profile*
Disallow: /tyres/*diameter*
Disallow: /tyres/*season*
Disallow: /tyres/*studs*
Disallow: /tyres/*brand*
Disallow: /tyres/*runflat*
Disallow: /disks/*width*
Disallow: /disks/*diameter*
Disallow: /disks/*brand*
Disallow: /disks/*pcd*
Disallow: /disks/*et_minus12*

Дело в том что имеется много оптимизированных страниц:

Вот пример http://dokashina.ru/tyres/diameter_r15-season_all/

То, что Вы предлагаете, то он и их уберет из индекса.

UXResearch:
Смотрите, вот ссылка на help яндекса, здесь очень подробно все написано :) http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml

Отвечая на Ваш вопрос, у вас есть несколько страниц, в урле которых есть одинаковый параметр "width". Всего в Вашем фильтре есть сортировка по 6 или 7 параметрам (уже закрыл сайта)
Соответственно Вам нужно запретить индексацию всех страниц, начинающихся параметром width, оставим 1 (если я правильно понял)
Соответственно командой Disallow: /*width Вы запрещаете все страницы с данным параметром
а командой Allow: /tyres/width_185-...season_summer/ разрешаете индексировать нужную страницу. В сервисе яндекс вебмастер есть проверка правильности robots.txt, где Вы потом сможете проверить увидит ли робот ту или иную страницу в соответствии с Вашим robots.txt

Может я, что-то не допонимаю, но ведь это будет "нескончаемый" список в робот ткст?

UXResearch:
Здравствуйте, проблема не сложная, сейчас все разрулим :)
Смотрите, по сути Вас, как я понял, интересуют 2 вещи:
1) Как запретить поисковикам индексировать страницы с результатами фильтрации
2) Как загнать нужные страницы в индекс
Поехали
1. С 404й Вы явно поторопились. То, что Вы сделали, робот может видеть как
а) некорректную обработку 404й ошибки
б) кучу битых ссылок
На самом деле проблема решается за 3 минуты. Вам нужно запретить индексацию страниц с результатами фильтрации в файле robots.txt. Для этого есть специальная команда Disallow: /* (вообще лучше потратить 5 минут и прочитать мануал по составлению robots.txt в хелпе Яндекса).
Таким образом, Вы для каждого робота (Yandex и *) прописываете 7 строк вида
Disallow: /*diameter_
Ну и естественно нужно исправить шляпу с 404м годом ответа сервера и вернуть 200 :)
2. Тема добавления страниц в индекс мусолится каждый день. Учтите, что все разом они все равно не добавятся, иногда для самых невезучих это даже кончалось фильтром, так что просто пробуйте известные человечеству способы
а) спросить Платона все ли в порядке с сайтом и нет ли ограничений от ПС
б) прогон Яндекс браузером
в) ссылки с хорошего твиттер аккаунта
г) покупные трастовые ссылки
д) sitemap.xml с ручным добавлением с яндекс.вебмастер
е) ссылки с главной страницы (например в футере)
Надеюсь помог, хорошего вечера :)

Смотрите:

Вот например страницы которые не нужны:

http://dokashina.ru/tyres/width_145-profile_10-diameter_r12/

http://dokashina.ru/tyres/width_145-profile_10-diameter_r14-season_summer/

http://dokashina.ru/tyres/width_185-profile_10-diameter_r14-season_summer/

а вот эта существует:

http://dokashina.ru/tyres/width_185-diameter_r14-season_summer/

и как написать запрет в роботе на это?

burunduk:
в мета на страницах написать инструкцию noindex (но тогда страница должна отдавать 200)

убрать все ссылки на эти страницы

Это ведь фильтр, каким образом убрать? И что выводить пользователю если он вбил эти параметры в фильтр?

Т.е. Вы предлагаете когда пользователь выбирает параметры которых не существует, то фильтр должен не отрабатывать , просто не переходить на эту страницу?

12
Всего: 15