- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет, просматривая страницы крупных интернет-магазинов обнаружил, что у 80% сайтов фильтры товаров в каталоге закрыты от индексации с помощью nofollow и noindex, логично что это делается от дублирования контента
Но проблема в том что остальные 20% закрывают только базовые вещи, вроде внешних ссылок на главной и страниц с корзиной, бюджеты у них не маленькие, поэтому создается впечатление что они что-то знают. Также стоит отметить, что эти 20% вполне себя комфортно чувствуют в топе по вч запросам
Собственно вопрос - нужно ли закрывать каталог товаров (меню), нужно ли закрывать фильтр, нужно ли закрывать страницы появившиеся после применения фильтра?
Всем привет, просматривая страницы крупных интернет-магазинов обнаружил, что у 80% сайтов фильтры товаров в каталоге закрыты от индексации с помощью nofollow и noindex, логично что это делается от дублирования контента
Но проблема в том что остальные 20% закрывают только базовые вещи, вроде внешних ссылок на главной и страниц с корзиной, бюджеты у них не маленькие, поэтому создается впечатление что они что-то знают. Также стоит отметить, что эти 20% вполне себя комфортно чувствуют в топе по вч запросам
Собственно вопрос - нужно ли закрывать каталог товаров (меню), нужно ли закрывать фильтр, нужно ли закрывать страницы появившиеся после применения фильтра?
Нужно тегом rel=canonical
Очевидно, что при работе фильтра товары по сути остаются одни и теже, поэтому логично их скрывать чтобы не было одинаковых страниц в базе.
Тут есть 3 варианта
1.закрыть от дублирования контента в файле робота
2.к страницам фильтра пагинации/листинга <meta name="robots" content="noindex, follow"/>
3.использовать на страницах пагианции/листинга/дублированных тег rel="canonical"
Тут есть 3 варианта
1.закрыть от дублирования контента в файле робота
2.к страницам фильтра пагинации/листинга <meta name="robots" content="noindex, follow"/>
3.использовать на страницах пагианции/листинга/дублированных тег rel="canonical"
+1
мне кажется больше тут добавить нечего.
Приведите примеры этих 20% дилетантов.
Закрывать нужно все. Лучше потом постепенно открывать. Чем изначально бороться с 20 тью дублями у посадочной страницы.
Приведите примеры этих 20% дилетантов.
Закрывать нужно все. Лучше потом постепенно открывать. Чем изначально бороться с 20 тью дублями у посадочной страницы.
http://101siding.ru/
Практически ничего не закрыто, при это структура, контент, мета теги, все выполнено очень грамотно
У них еще непонятно для чего закрыта страница http://101siding.ru/catalog/stenovye-paneli/
Для пагинации советуют использовать специальную разметку. Например для второй страницы можно так:
<link rel="prev" href="Страница1">
<link rel="next" href="Страница3">
А вообще, здесь подробнее описано
Страницы с динамическими параметрами фильтрации в URL всегда закрываю от индексации. Но для ИМ создаю страницы с выборками (результатами фильтрации по тому или иному параметру, читай тегирование) с нормальными ЧПУ, МЕТА и генеренным текстовым описанием. В итоге все это дело хорошо ранжируется и нет лишних дублей.
Наткнулся на статью по SEO оптимизации http://www.cmsmagazine.ru/library/items/advance/how-do-we-do-seo-audit/
Фильтры следует воспринимать как часть структуры сайта, а не просто динамический элемент сортировки товаров для пользователей. При корректной оптимизации страниц фильтров они будут значимым источником поискового трафика и продаж.
Кто что скажет по этому поводу?
Кто что скажет по этому поводу?
Это еще и понимать нужно как делать. Выше правильно заметили, чаще всего фильтрация, это дополнительные наборы данных, которые дублируют основные категории. запросы "размазываются" по ним. Лучше закрыть все, и по запросам если они есть, открывать нужные.