По инструкциям я разобрался (?), как строить и кластеризовать СЯ, сейчас буду этим заниматься. Предположим, у меня получится 30 кластеров. Что с ними делать? Для каждого кластера подобрать какую-нибудь вебстраницу из имеющихся просто по смыслу? Например, кластер A (самый высокочастотный) по смыслу подойдет для статьи А (3-ий уровень вложенности), а кластер M (середнячок по частотности) - дляглавной страницы сайта?
Или переделывать структуру сайта - при том, что имеющаяся структура предположительно идеальна и любая переделка ухудшит ее для людей?
Или что-то третье?
Вы задаете вопросы, которые затрагивают и структуру, и формирование семантического ядра и кластеризацию.
Эти вопросы надо решать на примере конкретного сайта. Череда ваших вопросов указывает, что вам нужно объяснять тематический материал на несколько часов подробных разъяснений. Вряд ли кто-то будет этим заниматься в формате ответа на форуме.
Поищите для начала SEO курсы по семантическому проектированию и кластеризации запросов - в интернете масса материалов.
А потом уже конкретный вопрос - с конкретным примером своего сайта спросите на форуме - поможем вам точнее определиться с рабочим решением.
Потому что, когда вы спрашиваете,
То исходя из того, что вы написали - там и третье, и четвёртое, и пятое.
Допустим. А как тогда вы, опираясь на свою уверенность и логику, обоснуете вот такой практический случай ?
p.s. Заранее оговорюсь - мне в этом вопросе не нужна помощь или какие-либо рекомендации.
Пример и вопрос именно в контексте запрещения индексации в robots.txt
Если WP, то можно посмотреть здесь. Насчёт того или иного компонента для WP я ничего не скажу, я сам работаю с Joomla-ой и меня вполне удовлетворяет RSFirewall.
Какой из них гуано, а какой нет тоже комментировать не берусь, познакомиться с функциональностью в любом случае будет нелишним, а там уже конечно каждый выбирает для себя.
да я в курсе, это просто была рабочая модель, на бурж оставлю только зарубежных, а их не так много, как ру- и укр
или реализую через отдельный файл с параметрами IP -1 на каждой строчке, а в htaccess будет 1 общая команда
Если у вас не самопис, а популярная CMS - посмотрите в сторону дополнительных компонентов брэндмауэров, они как правило уже имеют базовые настройки и фильтры для отсекания зарубежных ботов.
Воевать конечно нет смысла :) есть смысл прислушиваться к коллегам и учитывать их полезный опыт :)
Увы, недостаточно.
Как практика показывает Гугл инструкции robots может запросто игнорировать, и Яндекс увы тоже варианты /? и /*?* может игнорировать.
Ну, соб-но, мы это и обсуждаем :)
Увы неоднократно сталкивался с ситуаций, когда Яндекс индексировал вариант site.ru/? с копией Главной страницы, при явно запрете обхода в robots-е /?
Поэтому здесь эффективнее действовать через htaccess
А смотреть вы должны свой вебмастер, а не мой. И если оно туда попало, то будет долбить не один месяц.Вы похоже в свой вебмастер совсем не заходите, или первый раз с сайтами работаете? Не похоже по дате...
Естественно не единым вордпрессом. Но дан пример, вы что не в состоянии на его основе сделать под свой сайт?Или вам, что все на блюдечке с голубой каемочкой?))
Послушайте, что за фанаберия такая? С чего вы взяли, что кто-то должен по вашим наставлениям куда-то смотреть?
Что за высокомерие "вы похоже"? К чему все эти вальяжные гипотезы?
Есть пользовательский вопрос, обсуждается контекст вопроса и ищутся варианты ответа.
Вы предложили свой - Ok, ваше право. Другие участники форума предлагают свои решения.
Мне несложно. Мне ваши примеры под WP не нужны, я даже в них не вникаю, потому что нерелевантные данные мне в настройках не нужны и я пишу нужные мне настройки самостоятельно. Там где мне надо средиректить лишнее вида site.ru/? и у меня срабатывает редирект на Главную, а также где надо нахрен послать ссылочный спам вида site.ru/?go=http://site.ru срабатывает 403, причём с любым параметром.
В ваших же случаях, которые вы приводили - одно правило совершенно точно будет накладываться на другое, поэтому как минимум они требуют правильной очередности обработки. А второе - не универсально, о чём вам следом сообщили.
Так что уж если решились помогать - помогайте адресно, в контексте вопроса, а не в контексте личных привычек по своему сайту.
А вот здесь вы, справедливости ради, надо сказать, правы.
Здесь - нет. Если правилами запрещено, то индексироваться не будет (кроме случаев, когда правила игнорируются).
Поэтому вариантов, что сначала вопреки индексации проиндексировалось, а потом согласно старым правилам удалено из индексации - такого не бывает.
Бывает только в случае, если вы уточняете правила.
Хотя, если вдруг такое произошло, то это аномалия и этот вопрос интересно исследовать. Но в любом случае это нерелевантно общему правилу.
Это понятно. Но иногда дубли возникают не изнутри, а снаружи, когда, например, Яндекс начинает индексировать рекламные страницы по UTM меткам из Директа, которые дублируют оригинальные страницы, поэтому здесь в любом случае идёт доп. настройка через robots.txt
Формально вы правы, но рабочим параметр выглядит, когда у него есть значение т.е. вот так site.ru/?lubaya-posledovatelnost=znachenie или хотя бы вот так site.ru/?lubaya-posledovatelnost=
Ведь как вариант может может быть и такая конструкция site.ru/? где и параметр нулевый, и значение нулевое, и тогда мы вряд ли сможем зацепить нулевой параметр через QUERY_STRING, придется разбирать строчку запроса целиком.
Вообще конечно любопытный пример, почему путь к js файлу попадает в индекс как самостоятельная страница.
Может быть такое, что в принципе по этому пути формируется отдельная страница с кодом 200?
Хмм.. тогда уже у меня вопрос - каким образом подобные ссылки в индекс попадают?
Конкретных рабочих примеров нет.
О том, и речь под пример site.ru/?***** попадает и то, и другое.
Так может быть ему частотка по отдельному городу нужна.