Kaavain

Kaavain
Рейтинг
175
Регистрация
28.07.2015
plab #:

Неделю назад происал клинпарам в роботсе. Отправил сайт на перепроверку. Сегодня метка: Проблема осталась. Хотя в вебмастере при указании адреса с параметрами при проверке роботса все очищается правильно.

Короче у яндекса чото не то.

Убрать этот клинпарам нафиг. Если только сайт полностью на чпу и ни одна страница с параметрами не нужна. 

Яндекс третью неделю молчит, не отрицает но и не признает очевидную свою ошибку. 

Впрочем, чего еще от них ожидать. 

domen77 :

Умеете ли вы достойно проигрывать в личном или в бизнесе?

Есть такие, кто как дети никогда не признают ошибок, и опрокидывают шахматную доску?

Да. 

Да. 

Тема закрыта. Спасибо за лаконичность. 

Vladimir #:

По качеству все норм, по стоимости почти тоже самое
Если дешево то FirstVdS

К качеству тоже претензий нет за три года. 

Vladimir #:
Ищи и исправляй,  и все будет норм.

Исправил, спс. Но см. выше, проблема осталась.

Vladimir #:
На этом все, тема закрыта, надеюсь.

Тема не закрыта, так как найденный тобой косяк (спасибо №2) никак не влияет на проблему именно этой темы.

Vladimir #:
Ищи и исправляй,  и все будет норм

Секундочку.

Вся эта кривота касается ТОЛЬКО домена trafaret.net и не касатеся домена www.trafaret.net , верно? С точки зрения поисковика это разные домены. Поэтому что происходит с trafaret.net мне безразлично - там пусть творит что хочет, основное зеркало у меня указано, то что вдруг откуда-то появляется  robots_net.txt тоже не должно никого волновать, так как это не канонический же роботс. А для домена www все ровно, никаких редиректов  robots.txt не существует, все корректно. Так что к проблеме это не относится.

Но мой внутренний перфекционист с тобой полностью согласен, я поломаю голову как устранить эту неоднозначность, хотя я полностью убежден в том что она никак не влияет на работу робота. Тем более что отличие  robots.txt (реального фала на сервере) от  robots_net.txt (что показывается роботу по запросу  robots.txt домена www) лишь в отсутствии строки Host: www.trafaret.net

Vladimir #:

1. Выше писал, один робот приходит, другой удаляет
2. Анализ нижней картинки это подтвердил, осталось найти бота

https://trafaret.net/robots.txt

Ты изъясняешься шарадами, но теперь я понял. 

Прямого редиректа  robots.txt  => robots_net.txt нет. Есть редирект !www -> www

И, да, похоже эта цепочка работает кривенько... Надо обдумать последовательность редиректов... Для меня, правда, .htacess это жутковатое место, все время боюсь поломать что-нибудь там...

Но, еще раз, даже это никак не влияет на поднятую мной проблему. Пусть robots.txt самый наикривейший, это не делает а) страницы недоступными и б) не дает права удалять страницы по clean_param.

PS: и, да, у меня основное зеркало 17 лет www. И все поисковики про это знают. 

Vladimir #:
Прямо же написал, убери редирект

Да я понял! Вопрос как ты его увидел???  robots.txt  => robots_net.txt

Точнее даже так - ГДЕ? Так как его нет... 

Vladimir #:
Писал же уберите лишние редиректы 301

Какие-такие "лишние"? Лишних нет, по крайней мере да, кстати, спасибо за наводку, убрал звено 443 с домика, но более лишних не вижу.

Vladimir #:
Уберите редирект с robots.txt  => robots_net.txt

ПРИЧЕМ ТУТ ЭТО? Я же уже раза три писал, что у меня на одном движке четыре домена, и у них РАЗНЫЕ роботсы. Но редирект-то ты где углядел? Подставляется у меня robots_net.txt путем RewriteRule ^robots\.txt$ robots_%2.txt [NS] 

Но... раз тебе известен  robots_net.txt, значит где-то это засветилось... Шаман однако, колись.

Но, еще раз, к делу это не относится, конкретно к разбираемому случаю. Есть у меня роботс, нет у меня роботса, есть у меня роботс и он кривой... Дерьмояндекс-то 17 лет подряд брал тот, что надо. И кушал строчку каую надо, и клинил эти парамы какие надо. А тут вдруг... ну то, что на четырех страницах тут.


Антоний Казанский #:
Приведите скриншот, где Яндекс удалил ваши рабочие страницы с каноническими адресами ввиду правил clean-param.

Не буду уподобляться яндексу, отвечу на поставленный вопрос. И таких страниц было 10 000. И любая изних пробивается инструментом проверки роботс.тхт как валидная. И у КАЖДОЙ страницы прописан валидный canonical (с отброшенными лишними параметрами).


Всего: 1291