- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У большого магазина, портала есть большое количество дублей, страниц сортировки и фильтров.
Например,
для товаров - отдельные страницы сортировки по брендам + пагинация;
для новостей сортировка по дате, тегам, авторам статей.
Дубли можно "скрыть" от поисковых роботов двумя способами:
1. ограничиться указанием для ссылки страницы фильтра rel=nofollow, <noindex>, запрещением непосредственно индексирования страницы в robots.txt через Disallow.
2. ссылку на страницу с фильтром реализовать при помощи JS, SEO-hide, а также зная IP, либо названия ботов запретить переходить на эти страницы настроив htaccess.
Это предлагается c целью ускорения процесса индексации всего сайта, тем более в отличии от Google, у Yandex проблемы с индексацией.
Как влияет общее количество страниц на ранжирование и индексацию, если например у сайта всего 100 000 страниц, а в индексе не более 15 000?
Насколько целесообразна 2-ое предложение, какое отношение поисковиков к скрытию ссылок через JS ?
1. дубли - это плохо, пагинацию можно не трогать, а все остальное закрыть нужно командами в роботс
2. JS поисковики не учитывают
3. кол-во страниц влияет даже не столько на ранжирование, сколько на трафик, старайтесь засунуть как можно больше страниц в индекс
Лучший способ для дублей - каноникал, лучше ничего нет
Пагинация - отдельная песня, возможно тоже каноникал, надо глядеть
Лучший способ для дублей - каноникал, лучше ничего нет
Пагинация - отдельная песня, возможно тоже каноникал, надо глядеть
Я может неясно описал проблему, суть даже не в дублях, а в том проиндексируются ли полезные страницы (в том числе продвигаемые и страницы с ссылками на продвигаемые страницы) быстро из-за большого количества других малоинформативных страниц, дублей, которые например можно запретить индексировать. если даже для страницы стоит свойство non-canonical или rel=nofollow для ссылки, это вовсе не означает что бот не перейдёт по этой ссылке.
Понимает ли бот, по каким ссылкам можно ходить, а по каким не стоит?
У меня был опыт, когда уменьшение общего количества страниц (как полезные страницы, так и страницы-дубли, сортировки, фильтры) приводило к увеличению страниц в поисковой выдаче.
У меня был как-то сайт на базовой оптимизации при реальной численности страниц не более 500, генерировалось более 100 000 страниц, оказалось что программист-очумелец прикрутил к пагинации генератор случайных чисел.