?a=support что это за страница

R
На сайте с 06.02.2022
Offline
53
#51
Махмуд Аббас #:
Я тебе это ещё на первой странице написал.
Спасибо конечно за попытки всем. Просто я про роботс мало что знал и не думал что можно запретить все, что после определенного знака.
E
На сайте с 01.10.2017
Offline
115
#52
ronibestplay #:
Никакие cannonical и гет параметры не помогают. Жаль что никто мне не подсказал Disallow: /?* Кучу времени бы сэкономил.

"canonical" помогает, если писать без ошибок (с одной "n"). И про Disallow давно вам написал:

estic #:
Нужно использовать rel="canonical" или Disallow для адресов со строкой запроса.
Домены на продажу: https://p20.ru/collection/domains-for-sale
E
На сайте с 01.10.2017
Offline
115
#53
ronibestplay #:
Просто я про роботс мало что знал и не думал что можно запретить все, что после определенного знака.
Кто ж знал, что вы "мало что знали". Если решили самостоятельно разобраться в вопросе, нужно сначала ознакомиться с основами, прежде чем задавать вопросы на форуме.
R
На сайте с 06.02.2022
Offline
53
#54
estic #:

"canonical" помогает, если писать без ошибок (с одной "n"). И про Disallow давно вам написал:

Согласен, я и написал что попытки достучаться были. Вы написали " Нужно использовать rel="canonical" или Disallow для адресов со строкой запроса. " Куда  понятнее было бы сказать Disallow: /?* поставь  и все что после вопроса закроет для робота. Конечно моя проблема, что не сообразил, но повторюсь для нечастых гостей форума именно незнание ситуации и приводит на него. И rel="canonical" не помогает исключать такие страницы, по крайней мере за неделю с лишним, как и clean param
E
На сайте с 01.10.2017
Offline
115
#55
ronibestplay #:
не помогает исключать такие страницы
Да, это все нужно делать сразу. Т.е. это средства не "исключения", а "недопущения". Даже статус 404 не всегда помогает. Именно для "исключения" есть специальный статус 410.
R
На сайте с 06.02.2022
Offline
53
#56
Даже больше скажу, наткнулся на тему в которой упоминается  Disallow: /?*, нашел совершенно случайно, изучая вопрос о правильном составлении robots.txt. Причем читая уже 6 по счету статью, в которой только сам догадался увидев как закрывают отдельно .pdf - все файлы, решил попробовать с вопросиком. Только потом в яндексе вбил какой-то запрос из 7 слов, который наткнул меня на этот топик. Путь к простому ответу лежал очень долгий.
R
На сайте с 06.02.2022
Offline
53
#57
estic #:
Да, это все нужно делать сразу. Т.е. это средства не "исключения", а "недопущения". Даже статус 404 не всегда помогает. Именно для "исключения" есть специальный статус 410.
Оно не то что бы не помогает я не знаю в чем там дело точно. Просто он сперва признал канонической, потом что-то типа она не каноническая через 3 дня прислал, потом мол опять...может со временем как то это устаканится, но такие танцы с бубнами напрягают если честно. Атрибут я не убрал, но закрытие роботс для данной проблемы намного эффективнее
R
На сайте с 06.02.2022
Offline
53
#58
В любом случае всем огромное спасибо за время и что пытаетесь помогать людям.
E
На сайте с 01.10.2017
Offline
115
#59
ronibestplay #:
Оно не то что бы не помогает я не знаю в чем там дело точно. Просто он сперва признал канонической, потом что-то типа она не каноническая через 3 дня прислал, потом мол опять...может со временем как то это устаканится, но такие танцы с бубнами напрягают если честно.

Если бы сразу было настроено, то таких "плясок" не было бы.

ronibestplay #:
Атрибут я не убрал, но закрытие роботс для данной проблемы намного эффективнее
Намного эффективнее использовать программные каркасы, не допускающие дублей. Директивы robots.txt лучше использовать для существующих уникальных страниц, которые не должны индексироваться. Причем опять-таки директивы добавляются сразу при создании таких страниц, а не потом, чтобы пытаться их "исключить".
R
На сайте с 06.02.2022
Offline
53
#60
estic #:

Если бы сразу было настроено, то таких "плясок" не было бы.

Намного эффективнее использовать программные каркасы, не допускающие дублей. Директивы robots.txt лучше использовать для существующих (уникальных) страниц, которые не должны индексироваться. Причем опять-таки директивы добавляются сразу при создании таких страниц, а не потом, чтобы пытаться их "исключить".
Дак весь прикол то в том, что для любого сайта site.ru/?chetotam открывается. Соответственно такие штуки только руками и надо делать. Что-то я в worpress том же не видел запрещающих каких либо директив на такие адреса. Яндекс их спокойно загоняет в индекс. Теперь буду знать какие проблемы, другое дело что инфы насчет конкретно ?-ка одна тема 2011 года выпуска.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий