- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В индексе яндекса присутствуют url вида: http://www.aromat.ru/cosmetics/cosmetics.php?producer=Bourjois&group=2331&search=off . Хвосты &search=off выполняют важную функцию, когда надо - несколько меняют страницы без хвостов вида http://www.aromat.ru/cosmetics/cosmetics.php?producer=Bourjois&group=2331 .
Как лучше сделать так, чтобы эти хвосты не появлялись в индексе? 301 настроить не получится, так как иногда необходимо, чтобы странички выглядели по-другому, нов большинстве случаев, странички с &search=off полностью дублируют те, что без них
Если robots.txt - то как закрывать такие параметры?
используйте canonical, страницы с хвостами должны быть каноничны страницам без хвостов. Страницы без хвостов каноничны сами себе.
olga123456789, ещё можно глянуть вот сюда http://help.yandex.ru/webmaster/?id=996567#996572
в роботс закрыть можно так -
Disallow: /*&
уберутся все страницы, где встречается знак &
Если есть желание закрыть, я бы вам посоветовал воспользоваться роботсом. С каноникаломи не работал. А роботсом закрывать все проще и действеннее.
User-agent: Yandex
Disallow:
Clean-param: search /cosmetics/cosmetics.php
Если адреса страниц вашего сайта содержат динамические параметры, которые не влияют на их содержимое (например: идентификаторы сессий, пользователей, рефереров и т.п.), вы можете описать их при помощи директивы 'Clean-param'. Робот Яндекса, используя эту информацию, не будет многократно перезакачивать дублирующуюся информацию. Таким образом, увеличится эффективность обхода вашего сайта, снизится нагрузка на сервер.