Если вы не поняли или просто не читали, - речь в теме и шла об основном и дополнительном индексе. Люди по привычке называют соплями и ничего смертельно страшного в этом нет.
Вместо того, чтобы дать ТС ответ на вопрос "как узнать какие именно страницы" - орёте "гугл перестал показывать сопли еще в 2007 году" и хамите. Вы ответили на вопрос ТС этим?
Всего хорошего.
Костный мозг, мне безразличны и ваше мнение, и ваше хамство.
Вы можете считать заблуждением все, что вам угодно. Я делюсь личным опытом, который позволяет мне не один год успешно держать коммерческие сайты в ТОП несмотря на смену алгоритмов, фильтры и конкуренцию.
Не все страницы участвуют в результатах поиска - это факт. Исправить это можно и привлечь доп. трафик - тоже факт. А называете вы это соплями или иначе, отрабатываете такие страницы или нет, заставляете их работать или игнорируете - ваше сугубо личное дело.
Проверить если огромная разница между:
site:name.com
site:name.com/&
Если разница небольшая - не стОит тратить время, т.к. на сайте есть страницы, которые и не обязаны участвовать в поиске - это страницы пагинации, тегов-меток и т.п.
Можно проверить сайт на дубли - если есть, убрать (удалить, закрыть от индексации, указать канонические ссылки).
Если решили все же проверить выдачу, когда страниц мало - собираете ручками в файл по запросам:
Получается 2 списка страниц - общий и те, что в основной выдаче.
В ексель оба - получаем 2 столбца. Условное форматирование -> правила выделения ячеек -> повторяющиеся значения. Что окрашено - пропускаем, что не окрашено - смотрим глазами, что там за страницы. Если теги, пагинация и т.п. - так тому и быть. Если там страницы товаров, брендов, каталогов, статей - смотрите их глазами, что не так, может мало текста, может неуник, может есть дубль и т.д.
Если страниц много и ручками делать долго - найдите удобный вам парсер, который за секунды стянет все страницы и сохранит в файл и дальше точно так же - выделяем повторяющиеся значения и проверяем.
Посмотреть что за страницы, исправить, заставить приносить траф - так же, как и с 100000 страниц или 50 страниц :)
Привяжите к региону Россия, добавьте в гугл карты. В остальном - нужно сайт смотреть, гадать смысла никакого.
Но справедливости ради нужно заметить, что и у гугла не все в порядке в выдаче, бывают дни, - то в РУ выдаче ТОП10 все сайты уа и других стран, то наоборот, соответственно и трафик идет не оттуда, несмотря на привязку сайта к региону )
Но если у вас это стабильная ситуация, нужно искать причину.
Называйте хоть соплями, хоть мифами, но если часть страниц не участвует в поиске - их можно найти, исправить и заставить приносить трафик.
Ну вот - сам пользуюсь, а других отправляю в ексель, ручками работать )
Софтинок много разных, каждый выбирает, что ему подходит.
Да ладно?! Какими ручками?! Если сайт-визитка - еще ладно, если портал или магазин, ручками - это себя не любить и время не ценить. Спарсить страницы, в ексель, подсветить дубли - 2 минуты, тысячи страниц сразу. + отфильтровать постраничную, теги и проч. - остаются нужные страницы, попавшие в сопли, их заслать менеджерам на переделку ну или самому править - тут уж как получится. Зачем делать несколько дней руками то, что можно автоматизировать.
Зачем давать дурные советы, да еще и таким снисходительным тоном?
Все верно. Выгружаем все страницы site:site.ru и site:site.ru/&, отнимаем /& от остальных - получаем страницы в соплях.
Если там постраничная навигация, теги-метки и проч. - это нормально. Если туда попали важные страницы - смотрим что с ними не так и переделываем.