Антоний Казанский

Антоний Казанский
Рейтинг
791
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Silvester :

По инструкциям я разобрался (?), как строить и кластеризовать СЯ, сейчас буду этим заниматься. Предположим, у меня получится 30 кластеров. Что с ними делать? Для каждого кластера подобрать какую-нибудь вебстраницу из имеющихся просто по смыслу? Например, кластер A (самый высокочастотный) по смыслу подойдет для статьи А (3-ий уровень вложенности), а кластер M (середнячок по частотности) - дляглавной страницы сайта?

Или переделывать структуру сайта - при том, что имеющаяся структура предположительно идеальна и любая переделка ухудшит ее для людей?

Или что-то третье?

Вы задаете вопросы, которые затрагивают и структуру, и формирование семантического ядра и кластеризацию.

Эти вопросы надо решать на примере конкретного сайта. Череда ваших вопросов указывает, что вам нужно объяснять тематический материал на несколько часов подробных разъяснений. Вряд ли кто-то будет этим заниматься в формате ответа на форуме.

Поищите для начала SEO курсы по семантическому проектированию и кластеризации запросов - в интернете масса материалов. 

А потом уже конкретный вопрос - с конкретным примером своего сайта спросите на форуме - поможем вам точнее определиться с рабочим решением.


Потому что, когда вы спрашиваете,

Silvester :
Или что-то третье?

То исходя из того, что вы написали - там и третье, и четвёртое, и пятое. 

Алеандр #:
То есть, все же, директивы в роботс на практике запрещают индексирование, независимо от того, что у них написано в помощи. Я же написал выше, можете лично это проверить в консоли. И это будет не написанное в хелпе, а практическое применение. Я ориентируюсь именно на него, а не на теорию.

Допустим. А как тогда вы, опираясь на свою уверенность и логику, обоснуете вот такой практический случай ?

p.s. Заранее оговорюсь - мне в этом вопросе не нужна помощь или какие-либо рекомендации.

Пример и вопрос именно в контексте запрещения индексации в robots.txt

katz666 #:
типа all in one seo для WP Блокировщик вредных ботов? - так там гуано

Если WP, то можно посмотреть здесь.  Насчёт того или иного компонента для WP я ничего не скажу, я сам работаю с Joomla-ой и меня вполне удовлетворяет RSFirewall.

Какой из них гуано, а какой нет тоже комментировать не берусь, познакомиться с функциональностью в любом случае будет нелишним, а там уже конечно каждый выбирает для себя. 

 


katz666 #:

да я в курсе, это просто была рабочая модель, на бурж оставлю только зарубежных, а их не так много, как ру- и укр

или реализую через отдельный файл с параметрами IP -1 на каждой строчке, а в htaccess будет 1 общая команда

Если у вас не самопис, а популярная CMS - посмотрите в сторону дополнительных компонентов брэндмауэров, они как правило уже имеют базовые настройки и фильтры для отсекания зарубежных ботов. 

Алеандр #:
Нет смысла за это воевать,

Воевать конечно нет смысла :) есть смысл прислушиваться к коллегам и учитывать их полезный опыт :)


Алеандр #:
достаточно дополнительно в роботс поставить запрет на /*?* и все вопросы будут решены. Для ПС этот вариант будет запрещен к индексированию и они отлично с этим справляются

Увы, недостаточно.

Как практика показывает Гугл инструкции robots может запросто игнорировать, и Яндекс увы тоже варианты /? и /*?* может игнорировать.


Алеандр #:
а по факту, за счет правила htaccess, при реальных значениях, будет редирект или 404, как настроить.

Ну, соб-но, мы это и обсуждаем :)


Алеандр #:
Тогда пустое значение даже не придется вылавливать, оно будет запрещено к индексации, а сам параметр будет не страшен в виде вхождения, поскольку он, опять же, совершенно пустой.

Увы неоднократно сталкивался с ситуаций, когда Яндекс индексировал вариант site.ru/? с копией Главной страницы, при явно запрете обхода в robots-е /?

Поэтому здесь эффективнее действовать через htaccess


Vladimir #:

А смотреть вы должны свой вебмастер, а не мой. И если оно туда попало, то будет долбить не один месяц.
Вы похоже в свой вебмастер совсем не заходите, или первый раз с сайтами работаете? Не похоже по дате...

Естественно не единым вордпрессом. Но дан пример, вы что не в состоянии на его основе сделать под свой сайт?
Или вам, что все на блюдечке с голубой каемочкой?))

Послушайте, что за фанаберия такая? С чего вы взяли, что кто-то должен по вашим наставлениям куда-то смотреть?

Что за высокомерие "вы похоже"? К чему все эти вальяжные гипотезы?

Есть пользовательский вопрос, обсуждается контекст вопроса и ищутся варианты ответа. 

Вы предложили свой - Ok, ваше право. Другие участники форума предлагают свои решения.


Vladimir #:
Тоже сложно пример htacces разобрать?

Мне несложно. Мне ваши примеры под WP не нужны, я даже в них не вникаю, потому что нерелевантные данные мне в настройках не нужны и я пишу нужные мне настройки самостоятельно.  Там где мне надо средиректить лишнее вида site.ru/? и у меня срабатывает редирект на Главную, а также где надо нахрен послать ссылочный спам вида site.ru/?go=http://site.ru срабатывает 403, причём с любым параметром.

В ваших же случаях, которые вы приводили - одно правило совершенно точно будет накладываться на другое, поэтому как минимум они требуют правильной очередности обработки. А второе - не универсально, о чём вам следом сообщили.  

Так что уж если решились помогать - помогайте адресно, в контексте вопроса, а не в контексте личных привычек по своему сайту.


Vladimir #:
Замечу лишь, что роботс вас не спасет от большого количества дублей страниц вида /?****

А вот здесь вы, справедливости ради, надо сказать, правы.


Vladimir #:
Которые будут периодически индексироваться, а потом выкидываться по правилу.

Здесь - нет. Если правилами запрещено, то индексироваться не будет (кроме случаев, когда правила игнорируются).

Поэтому вариантов, что сначала вопреки индексации проиндексировалось, а потом согласно старым правилам удалено из индексации - такого не бывает.

Бывает только в случае, если вы уточняете правила.

Хотя, если вдруг такое произошло, то это аномалия и этот вопрос интересно исследовать. Но в любом случае это нерелевантно общему правилу.


Vladimir #:
Самое главное правило на сайте не роботс, а правило - на сайте не должно быть дублей страниц.

Это понятно. Но иногда дубли возникают не изнутри, а снаружи, когда, например, Яндекс начинает индексировать рекламные страницы по UTM меткам из Директа, которые дублируют оригинальные страницы, поэтому здесь в любом случае идёт доп. настройка через robots.txt   

Алеандр #:
В вашем примере "site.ru/?lubaya-posledovatelnost " - это уже параметр

Формально вы правы, но рабочим параметр выглядит, когда у него есть значение т.е. вот так  site.ru/?lubaya-posledovatelnost=znachenie или хотя бы вот так  site.ru/?lubaya-posledovatelnost=

Ведь как вариант может может быть и такая конструкция  site.ru/?  где и параметр нулевый, и значение нулевое, и тогда мы вряд ли сможем зацепить нулевой параметр через  QUERY_STRING, придется разбирать строчку запроса целиком.

webinfo #:
Это надо у гугла спрашивать, почему это он вдруг решил запихивать JavaScript в индекс.

Вообще конечно любопытный пример, почему путь к js файлу попадает в индекс как самостоятельная страница.

Может быть такое, что в принципе по этому пути формируется отдельная страница с кодом 200?

webinfo #:
Если эта фраза не понятна, то поясняю: это обрабатывается сервером nginx.

Хмм.. тогда уже у меня вопрос - каким образом подобные ссылки в индекс попадают?

webinfo #:
И чего там неполного?

Конкретных рабочих примеров нет.


webinfo #:
хотя он может быть и не знает, что они у него где-то используются

О том, и речь под пример site.ru/?***** попадает и то, и другое.

minsky #:
Ты смотришь что тебе советуют, я же скинул, там всё есть

Так может быть ему частотка по отдельному городу нужна.

Всего: 12690