Вебмастер страницы содержат одинаковый Тайтл

12
JS
На сайте с 19.11.2020
Offline
97
#11
Виктор Петров #:

Если делать правильно, а не механически - ничего не падает, наоборот - растёт. Если у меня есть высокорелевантный хаб - сотня однообразных страничек под тот же запрос уже как бы и не нужна. 

Так же надо делать...

<meta name="robots" content="noindex, follow" />

Правильно?

Виктор Петров
На сайте с 05.01.2020
Offline
240
#12
John Silver #:

Так же надо делать...

<meta name="robots" content="noindex, follow" />

Правильно?

Не, я не про это. В robots.txt достаточно прикрыть - если брать техническую сторону.
Но важно, чтобы у вас был не тупо листинг, а именно хаб, хорошо представляющий ассортимент, связанную семантику, отлично прокачанный в текстовом плане. Хаб - это не просто список товаров. Ну и ясн-понятн, что тот же Яндекс должен ваш ассортимент видеть в полном объёме, это алгоритмически считывается в основном.

JS
На сайте с 19.11.2020
Offline
97
#13
Виктор Петров #:

Не, я не про это. В robots.txt достаточно прикрыть - если брать техническую сторону.
Но важно, чтобы у вас был не тупо листинг, а именно хаб, хорошо представляющий ассортимент, связанную семантику, отлично прокачанный в текстовом плане. Хаб - это не просто список товаров. Ну и ясн-понятн, что тот же Яндекс должен ваш ассортимент видеть в полном объёме, это алгоритмически считывается в основном.

Но в  robots.txt я так понимаю ты полностью закрываешь страницы 2,3,4,5... Мой же метод разрешает роботу переходить по ссылкам на страницах пагинации 2,3,4,5... но запрещает индексацию этих страниц. Так вот, какой метод более правильный?

Vladimir
На сайте с 07.06.2004
Offline
614
#14
John Silver #:

 Так вот, какой метод более правильный?

Разрешение индексации....
PS 20 лет практики для себя, а не услуги другим

Аэройога ( https://vk.com/aeroyogadom ) Йога в гамаках ( https://vk.com/aero_yoga ) Аэройога обучение ( https://aeroyoga.ru ) и просто фото ( https://weandworld.com )
Виктор Петров
На сайте с 05.01.2020
Offline
240
#15
John Silver #:
Но в  robots.txt я так понимаю ты полностью закрываешь страницы 2,3,4,5

Ну я же не зря упомянул хаб как основу. 
Правильная перелинковка товаров дополнительными блоками и толковый сайтмап снимают большинство возможных проблем со сканированием. А уж если хорошо проработать фильтратор, сортировку и тегирование - то и вообще ну и вот.

Aurums
На сайте с 28.02.2020
Offline
78
#16
Если на пагинации, то тоже было так. Через неделю где-то пропал алерт об этом.
JS
На сайте с 19.11.2020
Offline
97
#17
Vladimir #:

Разрешение индексации....
PS 20 лет практики для себя, а не услуги другим

Вот я и говорю, что после запрета индексации пагинации у меня посещаемость просела. Но тут у людей наоборот растет. Короче ХЗ. Я, пожалуй, лучше разрешу индексацию.

fliger
На сайте с 17.09.2015
Offline
113
#18
Если куча этих страниц выводятся одним файлом, добавить, как выше писали, уникальный текст к каждой. Хотя бы - страница 1, - страница 2 (в зависимости от параметра URL). Я так делал (у меня самописные скрипты), изменяя текст в зависимости от параметра запроса.
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий