ronibestplay

Рейтинг
53
Регистрация
06.02.2022
estic #:
Если бы сразу было настроено, то таких "плясок" не было бы.
Имеете ввиду сразу странице canonical на себя проставлять?
estic #:

Если бы сразу было настроено, то таких "плясок" не было бы.

Намного эффективнее использовать программные каркасы, не допускающие дублей. Директивы robots.txt лучше использовать для существующих (уникальных) страниц, которые не должны индексироваться. Причем опять-таки директивы добавляются сразу при создании таких страниц, а не потом, чтобы пытаться их "исключить".
Дак весь прикол то в том, что для любого сайта site.ru/?chetotam открывается. Соответственно такие штуки только руками и надо делать. Что-то я в worpress том же не видел запрещающих каких либо директив на такие адреса. Яндекс их спокойно загоняет в индекс. Теперь буду знать какие проблемы, другое дело что инфы насчет конкретно ?-ка одна тема 2011 года выпуска.
В любом случае всем огромное спасибо за время и что пытаетесь помогать людям.
estic #:
Да, это все нужно делать сразу. Т.е. это средства не "исключения", а "недопущения". Даже статус 404 не всегда помогает. Именно для "исключения" есть специальный статус 410.
Оно не то что бы не помогает я не знаю в чем там дело точно. Просто он сперва признал канонической, потом что-то типа она не каноническая через 3 дня прислал, потом мол опять...может со временем как то это устаканится, но такие танцы с бубнами напрягают если честно. Атрибут я не убрал, но закрытие роботс для данной проблемы намного эффективнее
Даже больше скажу, наткнулся на тему в которой упоминается  Disallow: /?*, нашел совершенно случайно, изучая вопрос о правильном составлении robots.txt. Причем читая уже 6 по счету статью, в которой только сам догадался увидев как закрывают отдельно .pdf - все файлы, решил попробовать с вопросиком. Только потом в яндексе вбил какой-то запрос из 7 слов, который наткнул меня на этот топик. Путь к простому ответу лежал очень долгий.
estic #:

"canonical" помогает, если писать без ошибок (с одной "n"). И про Disallow давно вам написал:

Согласен, я и написал что попытки достучаться были. Вы написали " Нужно использовать rel="canonical" или Disallow для адресов со строкой запроса. " Куда  понятнее было бы сказать Disallow: /?* поставь  и все что после вопроса закроет для робота. Конечно моя проблема, что не сообразил, но повторюсь для нечастых гостей форума именно незнание ситуации и приводит на него. И rel="canonical" не помогает исключать такие страницы, по крайней мере за неделю с лишним, как и clean param
Махмуд Аббас #:
Я тебе это ещё на первой странице написал.
Спасибо конечно за попытки всем. Просто я про роботс мало что знал и не думал что можно запретить все, что после определенного знака.
Махмуд Аббас #:
Я тебе это ещё на первой странице написал.
с 2011 года тему искать не просто знаете ли. Рассчет на то что люди помогут, в том собственно говоря и суть форума. К примеру сейчас я это знаю, меня спроси я дам четкий ответ. А так получилась на 6 страниц ветка в которой по сути ответ правильный я сам и нашел.
Правильно мне кто то говорил на форуме жуют эту тему уже давно. Аж с 2011 года, только вот найти ее спустя месяц только получилось. Никакие cannonical и гет параметры не помогают. Жаль что никто мне не подсказал Disallow: /?* Кучу времени бы сэкономил. https://searchengines.guru/ru/forum/651739
Jet D. #:
РКН когда что-то блокирует, не особо разбирается в тонкостях технических моментов, и мало волнуется, если у кого-то где-то "стили поехали". Как говориться, лес рубят - щепки летят.
Да не я к тому что ватсап работает...
Всего: 315