В Яндексе нужно использовать Clean-param для этих целей в Роботсе...
зачем? Ведь Гугл очень хорошо понимает prev/next
А вот тут прочитал рекомендации следующие по поводу страниц пагинаций:
1. На страницах пагинации указать атрибуты rel="next/prev"
2. Одновременно с этим закрыть страницы пагинации от Яндекса:
<meta name="yandex" content="noindex, follow" />
но позволить роботу ходить по ним (т.к. next/prev он не понимает).
Норм будет? что-то я озадачился )
Какие затраты на контент? Доход по месяцам за последние 3 месяца можете озвучить?
Коллеги, подскажите, что лучше юзать для сайта с большим кол-вом поддоменов? Let's encrypt теперь есть wildcard? Не пойму на них сайте.
Я очень много раз это просил его сделать, но он как-то все время так витиевато объясняет, мол так сделать нельзя. При этом прогер сильный, проект в одиночку поднял некислый.
У меня самописные CMS. При этом программист говорит что нельзя на такие страницы повесить 404...
Ну так и чего лучше для страниц пагинации юзать? У меня по одному проекту много таких, я раньше как-то не заморачивался, а сейчас думаю может убрать, чтобы меньше хлама в индексе было.
А кто еще как решает проблему каких-то мусорных генеренных страниц?
У меня к примеру в Вебмастере Яндекс показывает страницы типа:
/?page=fbrqfbnfdbnjwweyksxl&page=187
/?page=fbrqqierververveyksxl&page=4222
/?page=fdsvdsvdsvdsl&page=7123
?gcmes=312434&gcmlg=22344
И прочий бред, откуда они вообще берутся и стоит ли с ними бороться? Они то попадают в индекс, то Яндекс их исключает. CMS сама не генерит эти страницы, их как бы нет по факту.
в рунете? Вроде Цукер тоже грозился охваты урезать...
Почему нет? Сейчас все конференции имеют онлайн-формат. В Барселоне проводится крупнейшая конфа мобильных разработчиков (с Тенера билет 3к рублей туда-обратно). Есть еще истории типа Андрея Андреева (badoo), который изначально начал международный бизнес именно в Испании (не считая российских проектов ДО).