Страницы пагинации: уникализация или закрытие от индекса?

W1
На сайте с 22.01.2021
Online
288
#41
livetv #:

А каноникал и ноуиндекс одновременно можно использовать?

Можно. Всё равно каноникал не будет работать, если есть ноуиндекс.

Мой форум - https://webinfo.guru –Там я всегда на связи
Vladimir SEO
На сайте с 19.10.2011
Offline
1717
#42
livetv #:

А каноникал и ноуиндекс одновременно можно использовать?

я же выше написал уже, если страница не индексируемая - то на ней можете хоть хрен нарисовать огромный красным цветом и послать все пс  туда же .
Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
L
На сайте с 10.02.2015
Offline
222
#43
Vladimir SEO #:
я же выше написал уже, если страница не индексируемая - то на ней можете хоть хрен нарисовать огромный красным цветом и послать все пс  туда же .

Просто тут были форумчане, которые говорили, что нужно использовать что-то одно.

Вот и интересно мнение остальных.

W1
На сайте с 22.01.2021
Online
288
#44
livetv #:

Просто тут были форумчане, которые говорили, что нужно использовать что-то одно.

Вот и интересно мнение остальных.

Какое тут может быть мнение, если это факт? Увидев ноуиндекс, робот страницу не индексирует. Поэтому каноникал можно хоть писать, хоть не писать - результат одинаковый.

Хотя Джон Мюллер считает, что не следует их употреблять одновременно, дабы не морочить роботу мозг:

the guide that you shouldn't mix noindex & rel=canonical comes from: they're very contradictory pieces of information for us
Road to Hell
На сайте с 25.01.2021
Offline
33
#45

Продолжаю делиться сео-опытом с сеошниками .. гы гы 🤣 

В общем просто накинуть <meta name="robots" content="noindex, nofollow" /> на мусорные страницы это только полдела, нужно теперь дать увидеть роботу этот тег. Если в robots.txt у вас есть директива Disallow: *?, для запрета на сканирование мусорных страниц с GET-параметрами, то робот сканировать такую страницу не будет, а вот проиндексировать может, если на нее есть внешняя либо что скорее внутренняя ссылка. Поэтому в индексе может оказаться запись непосредственно о существовании самого URL, как констатация факта. Содержимое же страницы, и главное любые meta-теги, в индекс добавлено не будет, потому что сама страница не парсилась. 

Получается чтобы дать роботу просканировать такую страницу, нужно снять запрет на это в robots.txt. Запрет был снят, но хер там был года. Последняя версия robots.txt от 17.07, когда был добавлен новый шаблон. Вчера 26.07 хотел проверить, обновился ли robots.txt, днем ранее я как раз удалил директиву, но данные от 17.07, до сих пор. Я по наивности думал что robots.txt сканируется роботом каждый день, как и sitemap. Решил закинуть URL с robots.txt на переиндексацию, оказалось он вообще не в индексе. Вот это поворот. Это при том что с какой-то же периодичностью он то все таки обновлялся, а сейчас чет приуныл. 

Glory to the Nation!
Road to Hell
На сайте с 25.01.2021
Offline
33
#46

Шоу маст гоу он ...

Робот таки проиндексировал новый шаблон robots.txt и стало возможным проверить пару догадок.

Вывод №1.  Для того чтобы робот увидел  <meta name="robots" content="noindex, nofollow" /> таки нужно удалять соответствующую директиву из robots.txt   

Было

-----//-----

Стало



Вывод №2.  В обоих случаях робот продинамил canonical, по факту он стоял с этого урла. Судя по другим моим данным из серч консоль, робот видит canonical только если разрешено и сканирование и индексирование.  При таких раскладах нужно выбирать между canonical и noindex. Вот это поворот! Ну тут очевидный выбор за noindex.

-----


Не знаю даже, есть понт задавать такой вопрос здесь ... ладно, может тут все таки есть seo-монстры 😁

Вопрос в общем такой - эти мусорные страницы, которые формируются GET-параметрами, уже попали в индекс ... как бустануть их массовое повторное индексирование? Сейчас, с лимитом в около 10 ссылок на день для переиндексации через серч-консоль это полная борода, у меня таких страниц почти 2К


МА
На сайте с 02.11.2018
Offline
168
#47
Road to Hell #:

Вопрос в общем такой - эти мусорные страницы, которые формируются GET-параметрами, уже попали в индекс ... как бустануть их массовое повторное индексирование? Сейчас, с лимитом в около 10 ссылок на день для переиндексации через серч-консоль это полная борода, у меня таких страниц почти 2К


Да хз, Гугл щас полумертвый в плане индексации/переиндексации. Я вот щас запиливаю вариант с гугл-апи, т.к. другие варианты уже испробованы. Если и это не поможет, тогда останется только камлать. Хехе.

P.S. Там ограничение кажись 200 урлов/сутки, в твоем случае, если это ВНЕЗАПНО сработает, всего-то 10 дней понадобится.
Nokia x71 (https://x71.ru/) - хороший смартфон, и отзывы интересные
Road to Hell
На сайте с 25.01.2021
Offline
33
#48
Махмуд Аббас #:

Да хз, Гугл щас полумертвый в плане индексации/переиндексации. Я вот щас запиливаю вариант с гугл-апи, т.к. другие варианты уже испробованы. Если и это не поможет, тогда останется только камлать. Хехе.

P.S. Там ограничение кажись 200 урлов/сутки, в твоем случае, если это ВНЕЗАПНО сработает, всего-то 10 дней понадобится.

100 отдельных урлов либо десять корневых улов было еще при Царе баяне .. гы гы .. года 3 назад, с тех пор резали лимиты 2 раза как минимум ... сейчас около 10 урлов, не больше 20 это точно 

W1
На сайте с 22.01.2021
Online
288
#49
Road to Hell #:
нужно выбирать между canonical и noindex. Вот это поворот!

Я выше процитировал Джона Мюллера. Так что никакого поворота, едем по прямой.

Road to Hell
На сайте с 25.01.2021
Offline
33
#50
webinfo #:

Я выше процитировал Джона Мюллера. Так что никакого поворота, едем по прямой.

ну вы прям капитан очевидность, я не знаю кто вам 48 лайков наставил, вы же по существу ничего ответить не можете ... а то что они там в  Пало-Альто языком чешут, это вообще может ничего не значить, или будет актуально через 3 года. Я проверил на практике и поделился с людьми, мне не жалко, я ж не второсортный сеошник чтобы обламываться кому-то помочь 

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий