- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно говоря возник спор. Имеется крупный интернет магазин, множество категорий, где имеется фильтр по брендам, весу, интерфейсу и так далее . От индекса страницы с примененным фильтром не закрыты , они начали выходить в топ. Получается пользователь сразу попадает на нужную информацию, но текст раздела , описание товара дублируются . С одной стороны это хорошо для пользователя, что он с выдачи сразу попадает на страницу с включенным фильтром, а с другой стороны это копия страницы(их таких образуется много) , что может плохо повлиять в дальнейшем на позиции или нет? Вопрос, стоит ли закрывать такие страницы от индексации? :confused:
Если страницы фильтра выходят в топ, значит, это кому-то нужно :) На самом деле, нужно посмотреть, какие ключи выходят, может быть, наведут на мысли по дополнительному расширению ядра. Я бы сделал страницы под ключи фильтра ("горячие кнопки", указал бы их кнопками рядом с фильтров, урл таких страниц, естественно, должен быть нединамичным. Результаты работы фильтра закрываю от индексации, но не в роботсе, а непосредственно на страницах генерации фильтра через ноуиндекс-ноуфоллоу в мета нейме.
Напишите скрипт который будет при применении фильтра, убирать текст со страницы, так же что бы название данного фильтра добавлялось в title и description, что бы не было дублей таких, так же при переходе на вторую страницу каталога в начале title дописывалось к примеру старница 1 и т.д и , тогда наличие дублей исключается.
То есть, если я правильно понял, существует возможность когда url разные, а содержимое включая head одинаковое?
Это грозит вылетом части страниц из индекса, с понижением позиций как повезет, может и проскочить.
Но почему, в данном случае не подумать и не засунуть в код канонические адреса, чтобы одна страница имела только один канонический адрес. Тогда станет все равно по какому адресу на нее перешел робот поисковика?
Конечно возможно, посмотрите некоторые интернет магазины, меняется только вывод товаров, а мета данные и текст не меняется.
Чем больше страниц, тем больше точек входа для потенциально посетителя.
Конечно возможно, посмотрите некоторые интернет магазины, меняется только вывод товаров, а мета данные и текст не меняется.
Опять туплю и не понимаю.
Одно дело, когда один и тот же url, но меняется содержимое тега body, типа фильтр.
Другое дело одна и та же страница может выдаваться под разными url
Если вы говорите про первый вариант, то я даже не знаю, что можно сделать. Если второй то один из возможных url назначается каноническим и все хорошо.