Ripro

Ripro
Рейтинг
144
Регистрация
04.11.2006
Костный мозг:

................
принято считать, что он показывает основной индекс.
так же принято считать, что запрос без /& показывает все страницы, известные гуглу
...................
Никакой официальной информации по этому поводу нет.
..................
по идее, если оставить активную ссылку на этот дубль, то этот урл (с blabla в конце) должен попасть в дополнительный индекс гугла), еще там могут болтаться страницы, которые были запрещены в роботсе, еще там будут болтаться страницы со старого сайта, если вы купили дроп-домен, короче говоря, чтобы страница не попала в основной индекс, а попала в дополнительный, она должна быть либо вообще пустой, либо дублем.
.......................
При этом существование дополнительного индекса никто не отрицает! Он есть.

Если вы не поняли или просто не читали, - речь в теме и шла об основном и дополнительном индексе. Люди по привычке называют соплями и ничего смертельно страшного в этом нет.

Вместо того, чтобы дать ТС ответ на вопрос "как узнать какие именно страницы" - орёте "гугл перестал показывать сопли еще в 2007 году" и хамите. Вы ответили на вопрос ТС этим?

Всего хорошего.

Костный мозг, мне безразличны и ваше мнение, и ваше хамство.

Костный мозг:
вы опять за свое? хватит вводить людей в заблуждение!

!!!

Вы можете считать заблуждением все, что вам угодно. Я делюсь личным опытом, который позволяет мне не один год успешно держать коммерческие сайты в ТОП несмотря на смену алгоритмов, фильтры и конкуренцию.

Не все страницы участвуют в результатах поиска - это факт. Исправить это можно и привлечь доп. трафик - тоже факт. А называете вы это соплями или иначе, отрабатываете такие страницы или нет, заставляете их работать или игнорируете - ваше сугубо личное дело.

Abrams52:
Я вот так и не понял как определить такие страниц. Расскажите пожалуйста как вы это делаете?

Проверить если огромная разница между:

site:name.com

site:name.com/&

Если разница небольшая - не стОит тратить время, т.к. на сайте есть страницы, которые и не обязаны участвовать в поиске - это страницы пагинации, тегов-меток и т.п.

Можно проверить сайт на дубли - если есть, убрать (удалить, закрыть от индексации, указать канонические ссылки).

Если решили все же проверить выдачу, когда страниц мало - собираете ручками в файл по запросам:

site:name.com

site:name.com/&

Получается 2 списка страниц - общий и те, что в основной выдаче.

В ексель оба - получаем 2 столбца. Условное форматирование -> правила выделения ячеек -> повторяющиеся значения. Что окрашено - пропускаем, что не окрашено - смотрим глазами, что там за страницы. Если теги, пагинация и т.п. - так тому и быть. Если там страницы товаров, брендов, каталогов, статей - смотрите их глазами, что не так, может мало текста, может неуник, может есть дубль и т.д.

Если страниц много и ручками делать долго - найдите удобный вам парсер, который за секунды стянет все страницы и сохранит в файл и дальше точно так же - выделяем повторяющиеся значения и проверяем.

tyber:
а если часть страниц это 22000 как быть?

Посмотреть что за страницы, исправить, заставить приносить траф - так же, как и с 100000 страниц или 50 страниц :)

Привяжите к региону Россия, добавьте в гугл карты. В остальном - нужно сайт смотреть, гадать смысла никакого.

Но справедливости ради нужно заметить, что и у гугла не все в порядке в выдаче, бывают дни, - то в РУ выдаче ТОП10 все сайты уа и других стран, то наоборот, соответственно и трафик идет не оттуда, несмотря на привязку сайта к региону )

Но если у вас это стабильная ситуация, нужно искать причину.

Называйте хоть соплями, хоть мифами, но если часть страниц не участвует в поиске - их можно найти, исправить и заставить приносить трафик.

SE-0:
Это не было снисходительным, тут было больше юмора :)
Что ж Вы софтинку то не подсказали?) - вопрос снова с юмором!
Допустим сам пользуюсь пауком...

Ну вот - сам пользуюсь, а других отправляю в ексель, ручками работать )

Софтинок много разных, каждый выбирает, что ему подходит.

SE-0:
Abrams52, ручками, уважаемый!

Да ладно?! Какими ручками?! Если сайт-визитка - еще ладно, если портал или магазин, ручками - это себя не любить и время не ценить. Спарсить страницы, в ексель, подсветить дубли - 2 минуты, тысячи страниц сразу. + отфильтровать постраничную, теги и проч. - остаются нужные страницы, попавшие в сопли, их заслать менеджерам на переделку ну или самому править - тут уж как получится. Зачем делать несколько дней руками то, что можно автоматизировать.

Зачем давать дурные советы, да еще и таким снисходительным тоном?

Abrams52:
не работает...
site:site.ru - выдает весь индекс...
site:site.ru/& - без соплей

Все верно. Выгружаем все страницы site:site.ru и site:site.ru/&, отнимаем /& от остальных - получаем страницы в соплях.

Если там постраничная навигация, теги-метки и проч. - это нормально. Если туда попали важные страницы - смотрим что с ними не так и переделываем.

Всего: 1040