- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Озадачился вопросом, подскажите, плиз, кто в курсе...
В canonical всех страниц указан главный url вида http://site.ru/razdel/page/, но некоторые разделы нежелательны к появлению в выдаче, потому в robots.txt логично прописано
Но есть и "штатный" htaccess:
Полчается, что можно запросить http://site.ru/index.php?id=page, http://site.ru/page/, или даже вообще http://site.ru/любая_фигня/page/ - всё равно попадаем на главный url http://site.ru/razdel/page/
Мучает вопрос: можно ли быть уверенным, что роботы поймут всё правильно и страница page не будет индексироваться?
rel=canonical влияет не на индексацию (ну не должен как бы), см хелп, там другое слово
http://www.google.ru/search?q=canonical+site%3Asearchengines.guru
Да, я прекрасно понимаю, что rel=canonical указывает роботу "главный url", если страница доступна по нескольким. Остальные он должен убрать из индекса (зачем хранить копии? вполне понятно).
Но если главный url запрещён к индексации в роботсе - не станут ли они вместо главного индексировать неглавные алиасы (которые в роботсе, соответственно, не запрещены и уже не дублируют поисковую базу)? Ведь, с точки зрения логики - могут! ))
Да, я прекрасно понимаю, что rel=canonical указывает роботу "главный url", если страница доступна по нескольким.
то он волен выбрать любой удобный для него, так что в случае если
главный url запрещён к индексации в роботсе
какбы напрашивается.... причем есть вероятность что все
какбы напрашивается.... причем есть вероятность что все
Вот и я думаю... Но, с другой стороны, на остальные (неглавные) url сервер отдаёт код 302, а вроде как в индекс попадают лишь отдающее код 200 и не запрещённые в роботс?
Нет, если у вас код 302, то такие страницы будут еще долго храниться в индексе, пока робот не посчитает, что вы перепутали 302 и 301, и тогда уже склеит их с главным урлом, который запрещен в роботсе.
Ingref, т.е есть смысл таки изловчиться и заставить отдавать 301 вместо 302? Я тоже об этом думал, но сходу сделать не получилось и я подумал "так и надо", CMS ведь тоже вроде как не дураки писали...
Есть смысл, да.
Да, я прекрасно понимаю, что rel=canonical указывает роботу "главный url", если страница доступна по нескольким. Остальные он должен убрать из индекса (зачем хранить копии? вполне понятно).
В хелпе такого нет. Это вы придумали
Ох ...
по номральному 1 странице - 1 фиксированный URL
по этому
сразу не верно.
я бы сделал так:
?id=* - закрыл через robots, и сделал бы редирект (301) с них на нормльный чпу адрес
сайт вычистил от таких ссылок (с ?id=*), на страницах с чпу проспиал canonical на этот же адрес
и дальше ждал когда ПС выкинут старые ?id= из поиска.
это было-бы наиболее правильное решение с точки зрения ПС
---------- Добавлено 21.08.2017 в 11:57 ----------
ну и дальше, разделы которые не нужны, через robots закрываем,
и всё, корректно решена ваша задача
Alfinnov, так оно так и есть фактически!
Разве что в роботсе ?id=* не закрыто (стремновато)
Ссылок с ?id= нигде нет, все страницы сразу создаются с ЧПУ и соответствующим каноникал. Но Янедкс всё таки индексирует сначала ?id=, но с временем заменяет на ЧПУ. На старых сайтах (их несколько на этой Getsimple) всё нормально и стабильно, а вот с новыми страницами - "качели", то заменит, то обратно. В вебмастере вижу код 302. В общем-то - не напрягает, но вот сейчас озадачился...
Если изменить штатый htaccess
На такой
получаем ступор с сообщением "сервер перенаправляет запрос на этот адрес таким образом, что он никогда не завершится"... Но это уже тут офтопик, наверное... 🤪