- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
День добрый. У меня на каждой странице интернет магазина есть большое количество фильтров. Сайту больше года и все это время они стояли закрытыми в robots.txt - Disallow: /*mfp*
на сайте постоянно добавлялся товар, категории, писались тексты, но посещалка как не особо росла и страницы туго заходили в индекс.Недавно я убрал Disallow: /*mfp* тем самым открыл индексацию этих страниц. Но при этом добавил на все такие страницы rel="canonical" с указанием категории. Последние дни в панели гугл есть такой график http://joxi.ru/Y2LR6XZH9Jd5vr.jpg
Я это сделал для того, чтоб гугл открывал страницы фильтра и далее индексировал страницы с товарами. Но меня пугает такой график ибо гугл тратит много краулингового бюджета на страницы .которые не нужны в поиске.
Следовательно вопрос, что делать с этими страницами?
1. Открыть в роботс.тхт и прописать каноникал на главную категорию (т.е оставить так как есть)
2. Закрыть обратно в роботс тхт правилом Disallow: /*mfp*
3. Оставить открытым в роботс тхт, но прописать <meta name="robots" content="noindex,nofollow" />.
4 Ваш вариант.
Заранее благодарен за ответы. Думаю многим будет интересно оптимальное решение в плане оптимизации этих страниц.
Сделать 2 фильтра - один индексируемый для сбора трафика, его нужно оптимизировать. Второй - полный фильтр для юзабилити, но закрытый для ПС.
3 вариант лучше всего! Что бы боты не лазили по фильтрам), про сортировку тоже не забывайте.
Гугл каноникал не всегда хавает, бывает закидывает в индекс, роботс такая же фигня.
СЕО фильтр может будет полезен?
Первый вариант предпочтительней. А краулинговым бюджетом, если за него так беспокоитесь, целесообразней управлять посредством обработки запроса If-Modified-Since
Первый вариант предпочтительней. А краулинговым бюджетом, если за него так беспокоитесь, целесообразней управлять посредством обработки запроса If-Modified-Since
Сайт простоял в таком положении неделю. Т.е страницы фильтра были с rel="canonical" в <head>. После такого бурного сканирования роботом гугл вебмастер показал +700 страниц в индексе и через проверку site:mysite.ru были замечены некоторые страницы фильтра. Т.е гугл сам учел, что брать в индекс, а что нет несмотря на rel="canonical". Я побоялся, что он добавит в индекс тысяци вариаций фильтра и обратно закрыл его в роботе + в движке отключил активные ссылки и вместо них весь фильтр работает так:
Код вместо ссылки на всех позициях фильтра
Сделайте нормальный сеофильтр и не мучайте Гугл