Актуальна ли сейчас методика закрытия текста от индексации с помощью js и noindex?

12
NN
На сайте с 23.03.2017
Offline
13
3475

Ранее всегда использовал следующий подход:

1) все ненужные и заведомо не соответствующие семантике страницы текстовые элементы вида: "поиск", "нашли ошибку на странице", "кликните чтобы увидеть бла бла бла бла" и т.д. - закрывал в noindex, чтобы такой "служебный" текст не сбивал релевантность страницы и не имел шансов попасть в сниппет в выдаче Яндекса (помниться тег noindex обрабатывает только Яша)

2) Все лишние элементы навигации прятались в js чтобы облегчить загрузку страницы для бота и также не мешать семантике страниц: большие фильтры, url результатов которых не представляют интереса для индексации и закрыты в robots; служебное меню, не выполняющие задач поиска и навигации - это ссылки на пользовательское соглашение и прочее.

Вопрос:

Актуальны ли данные действия для большого сайта ( более 1 000 000 индексируемых страниц, более 30 000 уников в сутки) в 2017 году?

Особенно с учетом, что доля гугла растет, а гугл не учитывает noindex и заявляет, что отлично и регулярно читает js (не знаю что заявляет по этому поводу Яша, но думаю что он делает тоже самое), а чтобы видеть и учитывать DOM модель полностью, также просит не закрывать js в robots.

Павел Горбунов
На сайте с 13.06.2011
Offline
123
#1

name_nick, noindex - традиционно делается только для Яндекса, да ,актуально.

Если вам нужно, чтобы роботы индексировали js - не закрывайте его в robots, и проблем не будет.

Не стремитесь сделать лучше - улучшайте!
NN
На сайте с 23.03.2017
Offline
13
#2

раньше была практика - все лишние элементы и функционал закидываешь в js.

Раньше - это, когда на пример оптимизации большого проекта было модно смотреть на Викимарт (хз насколько модно это было, но в моем окружении любили пообсуждать как все делает викимарт, ну и на конференциях вокруг Сливинского всегда были толпы народу с подобными вопросами)

Цель манипуляций с js - облегчить загрузку и индексацию страниц ботом. Страница, где лишнее обернуто js, в итоге в глазах бота была легче (все что в js не индексировалось и в сохраненке, например, этого не было) и имела меньше содержимого, а также не индексировались лишние служебные текстовые элементы мешающие релевантности.

Сейчас js активно индексируется (вроде как) и судя по всему в js, что то лишнее от индексации не спрячешь. В то же время текущие рекомендации ПС - не закрывать js в robots.

Таким образом вопрос) Как сейчас прятать лишние элементы от индексации, чтобы не портить релевантность страниц? Или для оптимизаторов больших проектов данная задача уже не актуальна?

Если посмотреть например на zoon.ru - там подобны приемы используются. Активно используется noindex и js.

Павел Горбунов
На сайте с 13.06.2011
Offline
123
#3
name_nick:
Раньше - это, когда на пример оптимизации большого проекта было модно смотреть на Викимарт

это точно.

Викимарт тогда был очень популярен, и на эту тему они тоже рассказывали интересные наблюдения.

R7
На сайте с 17.01.2017
Offline
7
#4

Да. Лучше не закрывать через этот тег. Слышал, что даже под фильтры можно попасть

богоносец
На сайте с 30.01.2007
Offline
753
#5

Вам чего надо?

Чтобы в сниппет не лезло и фобии о частичном дублировании не мучали?

http://erum.ru/118.htm

name_nick:
и заявляет, что отлично и регулярно читает js

А вы в robots.txt закройте ваши .js

и проверьте — ищется это навигационное гавно или нет?

http://www.google.ru/search?q=125363%2C+%D0%B3.+%D0%9C%D0%BE%D1%81%D0%BA%D0%B2%D0%B0+%D0%A1%D1%82%D1%80%D0%BE%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9+%D0%BF%D1%80-%D0%B4+site%3Awww.unmedia.ru%2Fshablon-sajta.html

PL
На сайте с 27.07.2011
Offline
72
#6

Надо закрывать и в туда и туда, но только с умом, Закроешь менюшку какую лишнюю и повылетают у тебя страницы самолетом)

проверяй pageweight или еще чем

лучше больше и лучше
Y
На сайте с 26.04.2012
Offline
77
#7
name_nick:
раньше была практика - все лишние элементы и функционал закидываешь в js.

Раньше - это, когда на пример оптимизации большого проекта было модно смотреть на Викимарт

тоже упарывался по этой фигне, на самом деле эффективность весьма сомнительна

---------- Добавлено 07.06.2017 в 15:54 ----------

богоносец:
Вам чего надо?
Чтобы в сниппет не лезло и фобии о частичном дублировании не мучали?

http://erum.ru/118.htm

устарело немного

Не беру и не ищу проекты.
Z
На сайте с 13.06.2017
Offline
1
#8

так работает или нет?

AT
На сайте с 08.04.2012
Offline
59
#9

noindex работает

J4
На сайте с 21.05.2009
Offline
99
#10

С помощью JS и noindex можно закрывать тексты от индексации. Но например меню закрывать от индексации, ссылки на контакты и прочее сейчас особого смысла нет, можно коммерческие факторы попортить в Яндексе.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий