- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Что гет параметр сложно сравнить с истинным урлом и выдать 404?
Я очень много раз это просил его сделать, но он как-то все время так витиевато объясняет, мол так сделать нельзя. При этом прогер сильный, проект в одиночку поднял некислый.
А вот тут прочитал рекомендации следующие по поводу страниц пагинаций:
1. На страницах пагинации указать атрибуты rel="next/prev"
2. Одновременно с этим закрыть страницы пагинации от Яндекса:
<meta name="yandex" content="noindex, follow" />
но позволить роботу ходить по ним (т.к. next/prev он не понимает).
Норм будет? что-то я озадачился )
я повесил canonical на всю пагинацию, на подразделы с датами, смотрю как выкидывает по несколько сот страниц
не уверен в правильности этого решения, но у меня очень много дублей с пересечением поддоменов
я повесил canonical на всю пагинацию, на подразделы с датами, смотрю как выкидывает по несколько сот страниц
не уверен в правильности этого решения, но у меня очень много дублей с пересечением поддоменов
трафик не жаль?
---------- Добавлено 29.03.2018 в 08:27 ----------
А вот тут прочитал рекомендации следующие по поводу страниц пагинаций:
1. На страницах пагинации указать атрибуты rel="next/prev"
2. Одновременно с этим закрыть страницы пагинации от Яндекса:
<meta name="yandex" content="noindex, follow" />
но позволить роботу ходить по ним (т.к. next/prev он не понимает).
Норм будет? что-то я озадачился )
легче закрыть от всех
aleksandrbol, трафик на пагинацию? не, не видел )
aleksandrbol, трафик на пагинацию? не, не видел )
И какая польза для читателя, ели вы его заманиваете на страницу пагинации? Не вся сила мира в трафике, а в его конверсии.
/?page=fbrqfbnfdbnjwweyksxl&page=187
/?page=fbrqqierververveyksxl&page=4222
/?page=fdsvdsvdsvdsl&page=7123
?gcmes=312434&gcmlg=22344
И прочий бред, откуда они вообще берутся и стоит ли с ними бороться?
Такие страницы перетягивают на себя бюджет бота, из-за такого мусора он не успеет проиндексить действительно важные страницы. Однозначно нужно от такого избавляться.
В гугл вебадмине есть функция "Параметры URL" позволяющая напрочь удалить все дубли по определенным параметрам в урле. В Яндексе такого нет?
легче закрыть от всех
зачем? Ведь Гугл очень хорошо понимает prev/next
зачем? Ведь Гугл очень хорошо понимает prev/next
А конверсия со страниц пагинации большая, или человек приходит и сразу же уходит? Есть у кого-нибудь подобная инфа?
В гугл вебадмине есть функция "Параметры URL" позволяющая напрочь удалить все дубли по определенным параметрам в урле. В Яндексе такого нет?
В Яндексе нужно использовать Clean-param для этих целей в Роботсе...