- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ребят, поделитесь опытом.
Есть интернет-магазин 5000~ страниц.
Что сделали:
1. Для страниц пагинации поставили canonical на основную страницу раздела, т.е.
с
example.ru/catalog/razdel?page=1
example.ru/catalog/razdel?page=2
example.ru/catalog/razdel?page=all
на
example.ru/catalog/razdel (на этой странице канонический адрес на саму себя)
2. Для страниц, генерирующихся с помощью фильтра, поставили canonical на основную страницу раздела, где применяется фильтр, т.е.:
с
expample.ru/catalog/razdel?price=[value]&razmer=[value]&..
expample.ru/catalog/razdel?price=[value]&razmer=[value]&..
expample.ru/catalog/razdel?price=[value]&razmer=[value]&..
на
example.ru/catalog/razdel
3. На всех остальных страницах канонический адрес на себя.
Что ожидаем:
1. Страницы, генерируемые фильтром, не будут участвовать в поиске, в следствии чего не возникнут проблемы с дублями и релевантной в выдаче
2. Выполнение рекомендаций яндекса, как следствие положительную отдачу от него :crazy:
Что получили:
Прошло примерно 2 АПа (знаю, что мало)
В Яндекс.Вебмастере растут исключенные страницы роботом: растут ошибки типа "Документ является неканоническим".
В Гугл.Вебмастере все спокойно и без ошибок.
Встаёт вопрос
Либо Яндекс дибил, либо я. Ну скорее я, конечно, но может хоть вы подскажете в чём? Были мысли вообще убрать rel canonical со всех страниц, и пусть ПСы сами маятся с определением дублей и т.п.
Any ideas?
В данном случае ПС ведет себя корректно)
п.1. - Зря, теперь будет учитываться только первая страница, все остальные это ее дубли,включая содержание, вылетит из индекса. Все товары на этих страницах дубли товаров на первой, если это не так то убирайте)
1. Страницы, генерируемые фильтром, не будут участвовать в поиске, в следствии чего не возникнут проблемы с дублями и релевантной в выдаче
Сумевший задать вопрос знает ответ)
Да действительно эти страницы не будут участвовать в поиске, но поисковая система их проиндексирует и они будут являться дублями, хотите вы этого или нет) более того, на этих страницах разные товары и подобными действиями вы лишаете себя огромного кол-ва различных запросов НЧ и спектра. Да и что плохого если человек попадет на 2 или третью страницу каталога?)
2. Для страниц, генерирующихся с помощью фильтра, поставили canonical на основную страницу раздела, где применяется фильтр, т.е.:
Вот тут вы все верно сделали)
а с гуглом нет проблем по тому что он очень хорошо индексирует скрипты и всю динамическую шушеру.
Благодарю за ответ.
В таком случае у меня осталось 2 пути решения проблемы:
1. Убрать rel=canonical со страниц пагинации (...?page=1,2,3..)
2. Или проставить на них canonical на саму себя.
Пожалуй, выберу второй вариант.
Самое интересное, что в рекомендациях Яндекса про canonical не очень понятно (двойной смысл) написано:
http://help.yandex.ru/webmaster/controlling-robot/html.xml#canonical
Если не забуду отпишусь о результатах
Есть теория, есть практика)
Сам на такую штуку напарывался с ИМ... хочется как лучше)