- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день,
в индексе находится большое количество страниц, полученных путем уникализации параметров фильтрации товара, т.е при фильтрации создаётся уникальная страница с ЧПУ и метатегами, с сайтом никак не связанная.
Сейчас в индексе уже пол-лимона таких страниц (в sitemap 50К), собирают они примерно 5-6% от общего трафа.
Считаю, что такая разница между кол-вом страниц в сайтмэп и индексом влияет на ранжирование сайта.
Вопросы:
1. так ли это?
2. и типичный российский вопрос - что делать?
удалять (потихоньку) или просто не плодить новых и не париться?
Здравствуйте!
Не берусь давать конкретные советы, скорее, поинтересуюсь и выскажу личное мнение.
1) Как генерируются ЧПУ и метатеги? И зачем вообще плодить странные страницы? Я думаю, тут лучше аяксовская фильтрация
2) Какой именно трафик с этих страниц? Если это внутренние переходы, то вообще пофиг на него.
Слушайте, Вы прям заинтересовали. Можно сайт посмотреть?
2. и типичный российский вопрос - что делать?
_Oma2_, вам в помощь: clean-param в robots.txt ; т.о. уберёте из индекса возникающие дубли страниц
_Oma2_, вам в помощь: clean-param в robots.txt ; т.о. уберёте из индекса возникающие дубли страниц
А разве я писал про дубли? Дублей нет. Как убрать понятно. Вопрос в другом: надо ли удалять?
ибо:
1. не скажется ли удаление такого числа страниц на позициях сайта;
2. не является ли такое кол-во страниц, не связанных с сайтом и не отдающих 404 ошибку, препятствием для ранжирования в поиске.
---------- Добавлено 18.12.2015 в 20:16 ----------
Здравствуйте!
1) Как генерируются ЧПУ и метатеги? И зачем вообще плодить странные страницы? Я думаю, тут лучше аяксовская фильтрация
2) Какой именно трафик с этих страниц? Если это внутренние переходы, то вообще пофиг на него.
1. в урл при фильтрации вместо ? & [ и прочего через тире подставляется текстовое значение
сделано до меня, я бы не делал, т.к. страницы не связаны с сайтом, а значит не управляемы
2. 5% от общего трафа приходящего на сайт
повторюсь: влияют ли эти страницы на ранжирование?