Закрывать или нет результат поиска?

X
На сайте с 04.12.2018
Offline
279
627

Интернет-магазин.

Лет 10 назад реализовал возможность сортировки по размеру и закрыл все эти результаты в robots.

Несмотря на запрет Яндекс с удовольствием кушал эти страницы и многие из них попали в выдачу и резвенько так давали до 10% входящего траффика. В 2016-м по совету решил открыть эти результаты и траффик с этих страниц удвоился, но их как то уж очень много попало в индекс. Ровно через год Яндекс сказал свое "фи" и выкинул почти все эти страницы в недостаточно качественные. Ссылок на них нет, поэтому недостаточно качественные вывалились из индекса, а новые он и не индексирует, хотя народ ходит - народ то выбирает параметры. В целом оставшиеся в индексе страницы (их около 40) продолжают привлекать траффик по НЧ запросам и сейчас это около 5% от всех входящих.

Сегодня нашелся еще один спец, который ухмыльнулся и сказал, что если я не хочу продолжения падения сайта - эти страницы нужно заблокировать в robots.

- стоит ли блокировать?

- как сохранить траффик? Неужели "выловить" все траффиковые и сделать по ним посадочные тэги?

- не потому ли они сохранились в индексе, что они дают траф?

Удобный съем позиций (http://allpositions.ru/redirect/58277)
Vladimir SEO
На сайте с 19.10.2011
Online
1709
#1

Собираешь ся - получаешь структуру , страницы под все трафиковые запросы нужно создать , а поиск закрыть

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
X
На сайте с 04.12.2018
Offline
279
#2

Посадочные же только под траффиковые запросы?

К примеру Рулетка 200 см надо, а Рулетка 215 см нет?

Vladimir SEO
На сайте с 19.10.2011
Online
1709
#3

если нет трафика то зачем страница ? ))) Л логика

X
На сайте с 04.12.2018
Offline
279
#4
xVOVAx:
если нет трафика то зачем страница ? ))) Л логика

Автоматом можно.

Или таким автоматом еще глубже загоню?

Ну и раз уж отвечаете -)

Действующие страницы поиска удалить через вэбмастер яндекс, или пущай само вываливается?

Витали_Ч
На сайте с 11.04.2009
Offline
132
#5

Только meta noindex. Не забываем и про google.

Vladimir SEO
На сайте с 19.10.2011
Online
1709
#6
Xubart:
Автоматом можно.
Или таким автоматом еще глубже загоню?


Ну и раз уж отвечаете -)
Действующие страницы поиска удалить через вэбмастер яндекс, или пущай само вываливается?

автоматом создавать страницы можно , если не лям их нагенерите , надо же знать как это правильно делать

действующие страницы Средиректить конечно на посадку))) Л логика))

все таки сео не ваше, не мучайтесь - заплатите кому то , тут есть парни с отзывами

---------- Добавлено 23.10.2019 в 23:32 ----------

Витали_Ч:
Только meta noindex. Не забываем и про google.

так в гугл мета пашет тоже

Витали_Ч
На сайте с 11.04.2009
Offline
132
#7
так в гугл мета пашет тоже

Об том и речь, что скрывать не в роботсе

W
На сайте с 08.02.2017
Offline
169
#8
Xubart:
как сохранить траффик? Неужели "выловить" все траффиковые и сделать по ним посадочные тэги?

да

10символов

Комплексный аудит ИМ. Формирование УТП, анализ юзабилити, каналов продвижения. Контекстная реклама, настройка систем аналитики. Консультация - бесплатно, в ЛС
богоносец
На сайте с 30.01.2007
Offline
753
#9
Xubart:

- стоит ли блокировать?
- как сохранить траффик? Неужели "выловить" все траффиковые и сделать по ним посадочные тэги?
- не потому ли они сохранились в индексе, что они дают траф?

Не потому.

Всегда ограничены возможности индексатора по выявлению всего того... что ТП назойливо рекомендует исключать из индексации (поскольку ихний бот туп).

Изучаете признаки, по которым искалка распознает дубли / страницы поиска..,

генерите страницы поиска так, чтобы для ползателя они остались такими же, а для индексатора 'разнообразнее', начиная с маски урлов,

запихиваете в индекс страницы поиска по ходовым запросам. Не жадничайте

pc когда я пользовался поиском, то не столь уж редко мне попадались страницы поиска по сайту, раздражения это не вызывало

X
На сайте с 04.12.2018
Offline
279
#10

Вопрос технического характера.

ЮРЛЫ закрываемых страниц выглядят так:

/script.php?что-угодно

Для меня важно сохранить накопленные ПФ несколькими страницами.

Соответственно под эти ключи делаю страницы

site.ru/ЧПУ-под-параметр-1
site.ru/ЧПУ-под-параметр-2
site.ru/ЧПУ-под-параметр-n

И ставлю на них 301 редиректы.

Это верное решение?

Правильно понимаю, что сделав запись в robots

Disallow: /script.php

смысла от моего редиректа не будет?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий