Я уже давно это понял и этим инструментом вообще не пользуюсь.
Да и мой вопрос отчасти как раз о том, что я понимаю, что силою Google никак не заставить что-то делать. В том числе не работает инстумент отклонения ссылок и новый деиндексации.
У меня иной раз уж два новых проекта на этом домене, а Google всё видит страницы пятилетней давности.
Я точно знаю, что в моей тематике рулят категории и чем больше товаров в категории тем лучше. Но гуглу нужно чётко на это указать.
Есть извращенцы кто вываливают по 500 товаров на страницу и, что самое удивительное, это работает и занимает ТОП1. Но при таком подходе на рекламе не заработаешь. А у меня СДЛ но MFA.
Потому важно всеми силами показать гуглу, что у тебя ассортимент в категории больше. Это он должен либо понять со временем, либо ему это нужно явно указать через пагинацию.
Но принципиальный момент, чтобы он имеено понял это.---------- Добавлено 01.02.2020 в 17:54 ----------
Опытный путь показал, что сраницы пагинации должны быть в выдаче и каноникал на самих себя. Лично у меня и у всех в нише это работает.
Знаешь, я один раз поменял слово "results" на слово "Items" в микроразметке и вытащил сайт из под фильтра.
Google сейчас очень чувствителен к малейшим изменениям. Мне хотелось бы тоже посмеятся, но уже совсем не смешно.
Страницы категорий приносят весь траф, если они вывалятся из TOP10 проект помрёт.
Так что, да, еще раз повторю, пихать пагинацию в sitemap, в определённом смысле, угроза. Если ему саму нравится эти страницы индексировать, пусть их хавает, но вот насильно пихать ему я их не хочу.---------- Добавлено 01.02.2020 в 16:49 ----------В бурже, в конкурентных тематиках, одна техническая ошибка может стоить нексолько лет работы. И я такую ошибку совершил... Очень хочется услышать тех у кого есть ИМ, каталоги или аггрегаторы.
ну это первое, что приходит в голову, но это как бы правило плохого тона... ХЗ, может, в конечном счёте, так и сделаю.
Можно, но все варианты точно не для этих страниц. Дело не в том чтобы загнать. Они все в индексе. Google считает их ценными и, потому, не выплёвывает. Вопрос в том как на переобход пустить.
Когда страниц много, Google выборочно посещает страницы и захоит на те, что в приоритете. Для него сейчас приоритет точно не эти страницы. А мне именно их нужно переиндексировать.
Я уверен, что у кого-то была точь в точь ситуёвина и он бы смог подсказать хоть сколько по времени это было.---------- Добавлено 01.02.2020 в 16:32 ----------
Да там дофигища этих страниц... Переобход рукми делать? Или предлагаете через bulkaddurl все загнать?
Мне не индексировать нужно! Они все в индексе. Мне переиндексировать.
Romanov Roman, я найду ссылку и отправлю в ЛС, а то тут некоторые персонажи будут потом меня обвинять в пособничестве Google, а другие (есть и такие) скажут, что я на них работаю.
Да, в моей нише высокая конкуренция. Google USA > 68/100. Там никто не делает каноникал на главную...
О чём и разговор!!! Самое главное, чтобы Google увидел правильную секвенцию. Он должен точно понять что 50 страниц пагинации -- это одна страница, вне зависимости от того в индексе они или нет. Иначе попросту теряется логика этих страниц.
В моём случае они в индексе, кто-то предпочитает их закрывать от индекса.
Но, всё же, главный вопрос так и остался без ответа. Как загнать GoogleBot на эти страницы?
Так как он считает их второстепенными, по сравнению с главной страницей категории, он очень редко их посещает. У некоторых страниц пагинации индекс еже за ноябрь!
А мне очень важно, чтобы Google понял правильную зависимость, иначе, категории так и будут продолжать сыпаться.
А Вы уверены, что дело не в недавних обновлениях алгоритма Google, а именно в сетке сайтов?
Возможно, это просто core update.
Оу!, в современных реалиях мало кто что конкретного подскажет, но
нет
точно нет
Если это реально аффилиат, то помимо того, что удалили сайты с одного IP, нужно снять со всех ГА и уж, тем более, удалить из консоли.
Но всё это нужно было делать раньше, то есть последовательность дожна быть другая,
1) Разные регистраторы (желательно, не обязательно)
2) Разные хостинги (желательно, не обязательно)
3) Разные IP -- обязательно! (разные подсетки и локации, желательно)
4) Нет никакой связи с Google, нет GA, нет в консоли и т.д.
Но ояпть же, если на сайтах код AdSense, то не спалить их нереально. А вот если только РСЯ, то все ок.
угу, пошли улучшения, а потом к утру всё затихло и назад откатило... а были уже признаки позитивного апа... жаль.
Ну дак мне его в пример привели.
---------- Добавлено 01.02.2020 в 10:15 ----------Зачем вырывать фразу из контекста...? Я полностью с этим согласен, потому и написал, что для меня не авторитетны эти сайты. И уж, упаси боже, я по ним не сужу.---------- Добавлено 01.02.2020 в 10:17 ----------
И нет, проблема, поднятая в старт посте не решена. Моя цель переиндексировать по-бырому эти страницы. И, как я написал выше, от того что я влуплю каноникал на главную страницу категории, они от того быстрее не переиндексируются.
tylatong, ну вот я так и думал, что Вы меня к этому провацируете... Я еще раз говорю, меня интересует другой вопрос.
Я никому безоговорочно не верю. Конкретно по этому вопросу был чёткий ответ, не размытый, не в твитере а ветке Reddit где ответил лично Мюллер, причём очень развёрнуто.
И даже если бы он этого не писал, я глубоко уверен, что закрывать пагинацию в noindex не надо. Мой опыт это показал.
Давайте не будем разводит оффтоп. Я создал отдельную тему по конкретному вопросу. Еще раз повторю, Ваша позиция мне ясна.