Как-то можно скрыть контент выпадающего меню от поисковика?

seto
На сайте с 27.03.2009
Offline
121
828

На сайте стоит Поиск с дропдауном (джава скрипт, как я понмаю), в котором стоит тысячи локаций - городов, стран, мест.

Это размывает основной конент, т.е. снижает ли плотность ключевиков, релевантность основного текста и т.д.?

Может как то можно закрыть эти дропдауны с поиском от поисковика?

Y
На сайте с 14.11.2011
Offline
120
#1
seto:

Это размывает основной конент, т.е. снижает ли плотность ключевиков, релевантность основного текста и т.д.?

Нет.

Во первых, должен быть не просто текст, а полноценный контент. Время генереных текстиков прошло ...

Если ПС правильно определила основной контент блок, то конечно нет, а вот если верстка и код похожи на кашу ... то мало ли там .... бывало и такое в 2009г у Яши ...

Дропдаун меню должно быть отделено, скриптами, дивами и пр. А если прям посередине контента вставить ... то хз ... я такого не пробовал ))))

seto:

Может как то можно закрыть эти дропдауны с поиском от поисковика?

Noindex, не?

Ну тогда картинкой!))))) :)

S
На сайте с 23.01.2006
Offline
140
#2

yvcom, тема в разделе Гугла, при чем тут Яндекс и noindex?

Если это саджест поисковый, скрипт его генерящий живет в отдельной папке, закрытой в robots - вообще не повлияет.

Полезности: Комплексное ускорение сайтов https://www.aseo.tech | Статьи для сайтов и Дзена по 19,9 руб. https://fixpricecontent.ru
P
На сайте с 06.01.2009
Offline
587
#3
sPoul:
yvcom, тема в разделе Гугла, при чем тут Яндекс и noindex?

Если это саджест поисковый, скрипт его генерящий живет в отдельной папке, закрытой в robots - вообще не повлияет.

Это уже не помогает.

---------- Добавлено 03.10.2018 в 12:02 ----------

yvcom:

Если ПС правильно определила основной контент блок, то конечно нет,

Т.е. большие блоки навигации не "размывают" релевантность страницы ?

S
На сайте с 23.01.2006
Offline
140
#4

postavkin, ну закрытие может и не помогает, соглашусь. Хотя и не всегда.

Но если в JS будет НОРМАЛЬНО сделанный скрипт - то есть не document.write и без влобовую прописанных url страниц, а они будут хотя бы собираться по частям - тогда все в порядке будет.

Из того, что Гугл "находит" путем "анализа" страниц - это по паттерну "похожие на url" подстроки из js, css, html сайта. Данные свежестью месяца два-три - в рамках текущего разрабатываемого проекта много раз наблюдал такие косяки индексации в аналитике. Пока интересно было и мы не пофиксили попадание такой фигни в аналитику.

Lighthouse и headless браузеры - это круто конечно, но жесть как ресурсоемко. Так что про полный рендеринг страниц ботом гугла можно не напрягаться.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий