- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ранее всегда использовал следующий подход:
1) все ненужные и заведомо не соответствующие семантике страницы текстовые элементы вида: "поиск", "нашли ошибку на странице", "кликните чтобы увидеть бла бла бла бла" и т.д. - закрывал в noindex, чтобы такой "служебный" текст не сбивал релевантность страницы и не имел шансов попасть в сниппет в выдаче Яндекса (помниться тег noindex обрабатывает только Яша)
2) Все лишние элементы навигации прятались в js чтобы облегчить загрузку страницы для бота и также не мешать семантике страниц: большие фильтры, url результатов которых не представляют интереса для индексации и закрыты в robots; служебное меню, не выполняющие задач поиска и навигации - это ссылки на пользовательское соглашение и прочее.
Вопрос:
Актуальны ли данные действия для большого сайта ( более 1 000 000 индексируемых страниц, более 30 000 уников в сутки) в 2017 году?
Особенно с учетом, что доля гугла растет, а гугл не учитывает noindex и заявляет, что отлично и регулярно читает js (не знаю что заявляет по этому поводу Яша, но думаю что он делает тоже самое), а чтобы видеть и учитывать DOM модель полностью, также просит не закрывать js в robots.
name_nick, noindex - традиционно делается только для Яндекса, да ,актуально.
Если вам нужно, чтобы роботы индексировали js - не закрывайте его в robots, и проблем не будет.
раньше была практика - все лишние элементы и функционал закидываешь в js.
Раньше - это, когда на пример оптимизации большого проекта было модно смотреть на Викимарт (хз насколько модно это было, но в моем окружении любили пообсуждать как все делает викимарт, ну и на конференциях вокруг Сливинского всегда были толпы народу с подобными вопросами)
Цель манипуляций с js - облегчить загрузку и индексацию страниц ботом. Страница, где лишнее обернуто js, в итоге в глазах бота была легче (все что в js не индексировалось и в сохраненке, например, этого не было) и имела меньше содержимого, а также не индексировались лишние служебные текстовые элементы мешающие релевантности.
Сейчас js активно индексируется (вроде как) и судя по всему в js, что то лишнее от индексации не спрячешь. В то же время текущие рекомендации ПС - не закрывать js в robots.
Таким образом вопрос) Как сейчас прятать лишние элементы от индексации, чтобы не портить релевантность страниц? Или для оптимизаторов больших проектов данная задача уже не актуальна?
Если посмотреть например на zoon.ru - там подобны приемы используются. Активно используется noindex и js.
Раньше - это, когда на пример оптимизации большого проекта было модно смотреть на Викимарт
это точно.
Викимарт тогда был очень популярен, и на эту тему они тоже рассказывали интересные наблюдения.
Да. Лучше не закрывать через этот тег. Слышал, что даже под фильтры можно попасть
Вам чего надо?
Чтобы в сниппет не лезло и фобии о частичном дублировании не мучали?
http://erum.ru/118.htm
и заявляет, что отлично и регулярно читает js
А вы в robots.txt закройте ваши .js
и проверьте — ищется это навигационное гавно или нет?
http://www.google.ru/search?q=125363%2C+%D0%B3.+%D0%9C%D0%BE%D1%81%D0%BA%D0%B2%D0%B0+%D0%A1%D1%82%D1%80%D0%BE%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9+%D0%BF%D1%80-%D0%B4+site%3Awww.unmedia.ru%2Fshablon-sajta.html
Надо закрывать и в туда и туда, но только с умом, Закроешь менюшку какую лишнюю и повылетают у тебя страницы самолетом)
проверяй pageweight или еще чем
раньше была практика - все лишние элементы и функционал закидываешь в js.
Раньше - это, когда на пример оптимизации большого проекта было модно смотреть на Викимарт
тоже упарывался по этой фигне, на самом деле эффективность весьма сомнительна
---------- Добавлено 07.06.2017 в 15:54 ----------
Вам чего надо?
Чтобы в сниппет не лезло и фобии о частичном дублировании не мучали?
http://erum.ru/118.htm
устарело немного
так работает или нет?
noindex работает
С помощью JS и noindex можно закрывать тексты от индексации. Но например меню закрывать от индексации, ссылки на контакты и прочее сейчас особого смысла нет, можно коммерческие факторы попортить в Яндексе.