- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайтах многих интернет-магазинов существуют страницы фильтров, закрытые от индексации поисковиками (к примеру "узкие + высокие + тип товара + коричневые"). У одних ТОПовых сайтов эти страницы закрыты в robots.txt по фрагменту URL, у других с помощью META NOINDEX,FOLLOW. Ссылок на эти страницы не вижу явных (переход скриптом в результате выбора фильтра), но поисковик о них узнает когда человек зашел - видит метрикой. В результате в вебмастере Яндекса они у одних светятся в "закрыто robots", у других "запрещено элементом noindex".
Для SEO есть разница?
PS Лично мне больше второй вариант нравится, т.к. в именно этой сортировке может оказаться какой то редкий товар и тут по ссылке на него поисковик перейдет.
На сайтах многих интернет-магазинов существуют страницы фильтров, закрытые от индексации поисковиками (к примеру "узкие + высокие + тип товара + коричневые"). У одних ТОПовых сайтов эти страницы закрыты в robots.txt по фрагменту URL, у других с помощью META NOINDEX,FOLLOW. Ссылок на эти страницы не вижу явных (переход скриптом в результате выбора фильтра), но поисковик о них узнает когда человек зашел - видит метрикой. В результате в вебмастере Яндекса они у одних светятся в "закрыто robots", у других "запрещено элементом noindex".
Для SEO есть разница?
PS Лично мне больше второй вариант нравится, т.к. в именно этой сортировке может оказаться какой то редкий товар и тут по ссылке на него поисковик перейдет.
под гугл лучше использовать X-Robots-Tag "noindex, follow", он недолюбливает robots.txt... Вообще надежней X-Robots-Tag что под гугл, что под яндекс
Фильтры лучше закрывать в robots.
Почему?
Яндекс.Вебмастер информирует вас о том, в результате каких инструкций страница была запрещена для индексации.
Это всё равно что ехать в месту назначения по параллельным дорогам. Кто-то так, кто-то так.
PS Лично мне больше второй вариант нравится, т.к. в именно этой сортировке может оказаться какой то редкий товар и тут по ссылке на него поисковик перейдет.
Будет сильно надо, поисковик всё равно перейдет, как ходит и учитывает nofollow ссылки, как индексирует главную и при явном корневом запрете в robots-е.
Здесь вопрос не в предпочтительности для SEO, вопрос в применительной практике. Групповое назначение noindex в мета тег гораздо удобнее реализовывать через CRM, нежели прописывать сотни, тысячи, а иногда и десятки тысяч адресов в robots которые в определённый момент времени необходимо запретить для индексации, а потом разрешить.
Для крупных интернет магазинов это зачастую актуально. Но это что касается товаров, служебные разделы и адреса необходимо закрывать в robots-е.
И насчёт фильтров - есть фильтры как перечни, а есть целевые посадочные фильтры как рабочий кластер. Поэтому фильтр фильтру рознь.
Почему?
Потому что фильтры обычно реализуются масками ?param=чего-нибудь.
Соот-но, в robots-e по данному признаку удобно закрывать все подобные перечни, если это нужно.
Однако всё зависит от конкретной задачи. В целом, robots - это про правила переобхода сайта, мета - про регламент отдельного документа.
Почему?
Потому что есть большая разница между сканированием и индексацией. Если закрывать в роботс - робот не будет сканировать тонны мусора. Тегом вы запрещаете индексацию, не сканирование. А урлов фильтратор генерит тонны.
Ну, и это намного проще и удобнее, чем ковырять отдельно каждую страницу.
Именно этим мне ограничение через МЕТА и нравится - стоит галочка "не показывать" в админке - есть запрет, не стоит - welcome
Потому что фильтры обычно реализуются масками ?param=чего-нибудь.
Не всегда. У одного очень крутого магазина реализован фрагмент "-noind" в урлах страниц, которые он не хочет показывать и этот фрагмент закрыт.
Потому что есть большая разница между сканированием и индексацией. Если закрывать в роботс - робот не будет сканировать тонны мусора. Тегом вы запрещаете индексацию, не сканирование. А урлов фильтратор генерит тонны.
Именно этим мне ограничение через МЕТА и нравится - стоит галочка "не показывать" в админке - есть запрет, не стоит - welcome
И не только вам, но и программисту, который может получать ТЗ о запрете индексации множества товаров с разными признаками и выборочным положением на сайте. В robots же придётся вносить целевые адреса коих может быть бесконечно много и это становится весьма ощутимой проблемой.
Не всегда. У одного очень крутого магазина реализован фрагмент "-noind" в урлах страниц, которые он не хочет показывать и этот фрагмент закрыт.
Очень может быть, это на усмотрение того, кто им управляет. Возможно именно так им удобнеe.
Свободу творчества и рабочих подходов никто не запрещал.
Я верно понимаю, что если процесс создания фильтрации бесконтролен, то лучше роботс?
Наборные пользовательские фильтры, результаты поиска, utm и прочие рекламные метки конечно лучше (и нужно) отсекать на уровне robots-а. Виктор правильно сказал - даже не нужно, чтобы робот по ним ходил и тратил краулинговый бюджет.
Поэтому задача оптимизатора лежит в плоскости инструкций для robots и в использовании meta для целевых страниц.
видит метрикой. В результате в вебмастере Яндекса они у одних светятся в "закрыто robots", у других "запрещено элементом noindex".
Для SEO есть разница?
Для процесса индексации некоторая разница есть - чтобы "элемент noindex" заметить - скачать страницу надо.
А чтобы страница, закрытая в роботсе, появилась в выдаче - может быть достаточно сцылок на неё, но с сервака она может и не скачиваться.