- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если ?разныйбред - это параметры, от которых зависит контент (напр выборка товара) то конечно 200
ты не понимаешь проблемы, цпа сети пересылают пользователей по уникальным url, в которых зашито куча параметров самой сети, т.е. на один канонический url получается сотни, а то тысячи с ненужными параметрами и все робот будет скачивать, а если страница сама по себе имеет параметры (для вывода товара, что очень часто встречается), то как ставить каноникл?
надо проводить серверную обработку, а это затратное занятие
P.S. я вообще за то что бы в роботсе было прописано Disallow: /*?
ты не понимаешь проблемы,
Ну вот и пытаюсь же понять.
цпа сети пересылают пользователей по уникальным url, в которых зашито куча параметров самой сети, т.е. на один канонический url получается сотни, а то тысячи с ненужными параметрами и все робот будет скачивать, а если страница сама по себе имеет параметры (для вывода товара, что очень часто встречается), то как ставить каноникл?
надо проводить серверную обработку, а это затратное занятие
Ну хорошо, давай возьмём этот частный случай. 301 тут не используем (раз речь о каноникале).
И что, при таких урлах робот не будет жрать страницы? Где профит?
Я как раз вижу профит в каноникале. ПС или такие уры может выкинуть(при каноникале на базовый урл) или же, если эти страницы реально нужные в выдаче (урлы от цпа с мусором -не этот случай) - канонизировать их. Иногда последнее тоже нужно.
то как ставить каноникл?
Ну в целом это воще не проблема. 'PHP_SELF/QUERY_STRING' :)
Ну в целом это воще не проблема. 'PHP_SELF/QUERY_STRING'
проблема в QUERY_STRING могут быть лишние параметры, как их отделить без дополнительной обработки?
И что, при таких урлах робот не будет жрать страницы? Где профит?
я об этом и пишу - робота на них не нужно пускать, запретить полностью крол в роботсе для подобных страниц
Я как раз вижу профит в каноникале. ПС или такие уры может выкинуть
мусорные url появляются с гораздо большей скоростью чем их сканирует робот!!!!
а заодно учти, что если новый url найден по внешнёй ссылки, то робот будет на него постоянно ломиться, пока ссылка стоит, то постоянно, после её удаления с достаточно большим промежутком, но будет!!!
и только запрет в роботсе может спасти от постоянного обращения к мусорным страницам
проблема в QUERY_STRING могут быть лишние параметры, как их отделить без дополнительной обработки?
Конечно, если по урлу с мусором отдаётся 200, то надо с ним решать. Я об этом и говорил выше.
Вот только каноникал к этому... Если есть мусор - каноникал как раз должен указывать на не мусорную страницу.
Или же сервером/движком обрабатывать эти мусорные параметры. (это не всегда сложно, но всё же..)
Выходит что? От каноникала опять профит?
робота на них не нужно пускать, запретить полностью крол в роботсе для подобных страниц
Отсутствие каноникала на странице как этому способствует/поможет? ;)
А вот присутствие как раз таки может и помочь. В след. раз(ы) робот просто будет знать, что по этому мусорному урлу ему делать нечего - канонический урл же получен ранее.
и только запрет в роботсе может спасти от постоянного обращения к мусорным страницам
В роботсе поможет только не появится в выдаче (и то не всегда), а ботам до фени эти роботсы :)
tippula, использовать для пагинации canonical - глупо.
например на авито используют canonical, глупые ли ребята там работают 😕
да и вообще от мусора только редиректы спасут, а каноникал как доп страховка если вдруг что левое пролезло
Если есть мусор - каноникал как раз должен указывать на не мусорную страницу
ещё раз, технически в подавляющем большинстве случаев это сделать нереально, я говорю про большие им, а не статичные сайты
Выходит что? От каноникала опять профит?
нет только очень большие проблемы с его корректной простановкой
Отсутствие каноникала на странице как этому способствует/поможет?
если страница закрыта в роботсе каноникл просто не нужен ;)
А вот присутствие как раз таки может и помочь. В след. раз(ы) робот просто будет знать, что по этому мусорному урлу ему делать нечего - канонический урл же получен ранее.
а вот это как раз заблуждение, роботу до этого нет ни какого дела :(
В роботсе поможет только не появится в выдаче (и то не всегда), а ботам до фени эти роботсы
роботы разные, я говорю про индексатора, он всегда сначала запрашивает роботс
ещё раз, технически в подавляющем большинстве случаев это сделать нереально, я говорю про большие им, а не статичные сайты
Да легко ж! PHP_SELF (ну или что нужно). Без QUERY_STRING (если оно не нужно).
если страница закрыта в роботсе каноникл просто не нужен
Да! Но ёёё!
Ты мешаешь мух с котлетами. дисалов в роботсе и каноникал в хедере - разные по несущим функциям.
burunduk, ты вот всё время упираешь на роботс. Да никто не спорит, что роботс полезен. Но это НИКАК не говорит о том, то каноникал - костыль.
И нет особых проблем в его простановке. Вот хоть убей, не понимаю, почему он вызывает у тебя такой ужас.
Каноникал — костыль.
Он вызывает не ужас, а затык в HTTP-трафике бота.
Или сделайте два почти одинаковых сайта на 1000 страниц.
В одном из них 15?дублей с каноникалами.
И сравните время индексации. У того, который с дублями, количество страниц в индексе будет стремиться к 1000, но долго.
Каноникал — костыль.
Он вызывает не ужас, а затык в HTTP-трафике бота.
Да ёмоё ж.. Не понимать я, причём тут каноникал, какой откуда затык? Пс пойдёт по внешним кривым урлам ВНЕ зависимости от наличия на странице каноникала. Первый раз пойдёт. А вот остальные (в ближайшее время во всяком случае. А это может быть и месяцы) - уже не факт. Что наоборот, облегчит нагрузку на сайт.
Что не так-то?
Или сделайте два почти одинаковых сайта на 1000 страниц.
В одном из них 15?дублей с каноникалами.
И сравните время индексации
Опять мухи в котлетах. :(:
2. Когда новый сайт.
Во втором случае - совершенно правильно использовать 301.
Ида, без каноникала - что, ускориться индексация 1000+15 страниц?
какой откуда затык?
Напишите любой скрипт, который чего-то скачивает по HTTP, обычно он работает медленно.
Не надо создавать этой возможности. Лучше чтобы не ходила.
Если есть возможность (в robots.txt) запретить ПС скачивать, это лучше, чем сначала ПС скачает, а потом убедится... а ещё и не факт, что оставит в индексе именно то, чего надо.