- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На портале была допущена ошибка в программной реализации, и возникла куча дублей страниц каталога. Такого типа:
К странице
www.site.ru/catalog/tovar
дубли
www.site.ru/catalog/tovar?r=2&k=5
www.site.ru/catalog/tovar?r=6&k=13
...
По дублям отдается тот же контент, что и по основному урлу.
Мы спохватились и сделали так, чтобы в дубли подставлялся мета-тег, запрещающий индексацию.
Можно ли как-нибудь ускорить вылет этих страниц из индекса? Они же там годами висеть могут.
отдавайте 404 на дубли, и в течении 4 апов возможно они вылетят.
А если редирект поставить со страниц www.site.ru/catalog/tovar?r=6&k=13 на www.site.ru/catalog/tovar ? Не быстрее уйдут из индекса? Даже, если не быстрее, возможно так лучше будет для пользователя, особенно, если они в закладки добавляют ваши страницы.
AXR_GREEN, хорошая идея, спасибо. Переделаем, все равно этих страниц быть не должно.
Алексей Катаев, нельзя редирект. Дело в том, что страницы с такими параметрами существуют, если вызывать их вот так
www.site.ru/catalog/tovar?r=6&k=13#tabview=tab3
Сейчас вообще нужно глобально этот механизм переделать, иначе индекс так и будет загаживаться дублями.
Попробуйте в robots.txt Clean-param
Clean-param: r&k /catalog/tovar
На портале была допущена ошибка в программной реализации, и возникла куча дублей страниц каталога. Такого типа:
К странице
www.site.ru/catalog/tovar
дубли
www.site.ru/catalog/tovar?r=2&k=5
www.site.ru/catalog/tovar?r=6&k=13
...
По дублям отдается тот же контент, что и по основному урлу.
А в robots закрыть религия не позволяет? :) Моментально вылетят.
Axiom777, интересно, не знал про такую директиву.
Rurouni, несколько тысяч страниц о_О
Rurouni, несколько тысяч страниц о_О
Хоть миллион
Можно ли как-нибудь ускорить вылет этих страниц из индекса? Они же там годами висеть могут.
Если так:
User-agent: Yandex
Allow: /catalog/tovar
Disallow: /catalog/tovar?*
При схожей проблеме с дублями, именно ускорить процесс вылета помог robots.txt
Страницы с редиректами висели несколько месяцев.
У меня похожая проблема, я с гуглем только совладать не могу. Вот это попало в индекс то, что не должно было:
/tovari/smd-svetodiodi.html?limit=15&start=10
/tovari/smd-svetodiodi.html?limit=25&start=10
/tovari/smd-svetodiodi.html?limit=30&start=5
/tovari/smd-svetodiodi.html?limit=50&start=5
Мне нужны только страницы вида
/tovari/smd-svetodiodi.html?limit=25&start=25
/tovari/smd-svetodiodi.html?limit=25&start=50 и т.д. То есть с шагом в 25 товаров. Никак не могу найти ответ. Буду признателен за помощь!
Хоть миллион
Я запутался в этом бешеном выражении.
Мы закрываем все страницы, у которых передается параметр (= присутствует знак вопроса в урле)?