Второстепенный индекс Google

12
IC
На сайте с 26.05.2013
Offline
15
1678

Ввел в поисковой строке два слеующих оператора и вот что они показали :

1) site:сайт.ru/ - Результатов: примерно 1 150

2) site:сайт.ru/& - Результатов: примерно 229

- Видна большая разница в количестве страницах. Зашел во второстепенный индекс... а там висит много страниц :

1) Закрытых в robots.txt

2) Направленных redirect'ом 301

3) Страницы (ошибка 404)

4) Старые страницы-дубли.

- Как я понимаю... самостоятельно удаляются из второстепенного индекса только страницы с ошибкой 404. Правильно?

- Как лучше поступить с другими? Удалять вручную из индекса?

- При переходе на новые урлы...раньше делал массовые редиректы 301... так в этом второстепенном индексе висят результаты старых страниц (со старыми тайтлами и дексрипшнами), но направленные на правильные, урлы. Как в этом случае грамотнее поступить? ?

Психиатр
На сайте с 16.11.2010
Offline
360
#1

Первый результат это страницы в индексе а второй - странице в поиске. Дубли убирайте, 404 убирайте. Самостоятельно ничего не удаляется, все надо делать руками.

B
На сайте с 08.02.2012
Offline
217
#2

Не трогайте ничего, только время потеряете и расстроитесь когда не получится удалить страницы.

E
На сайте с 21.09.2009
Offline
283
#3
Ingvar Chijek:
1) Закрытых в robots.txt

уже мозоли на пальцах... роботс только сканированием управляет, а не идексированияем как у яши. Если закрыли, то не уделится из индекса.

IC
На сайте с 26.05.2013
Offline
15
#4

А у Яндекса есть дополнительный (второстепенный) индекс? Кто знает? :)

[Удален]
#5
Ingvar Chijek:
А у Яндекса есть дополнительный (второстепенный) индекс? Кто знает? :)

Нет. У Яндекса всё проще: страница либо есть в выдаче, либо ее нет. У гугла всё что в индексе потенциально может быть и в выдаче, просто малополезные страницы он отображает в дополнительной выдаче (supplemental). Трафик на страницы в supplemental выдаче ничтожно мал, потому это аналогично тому, если бы в гугле вовсе не было таких страниц.

master_jeday
На сайте с 15.05.2010
Offline
231
#6

В соплях обычно дубли, копипаст и малоинформативные страницы и обычно там все то, чего в поиске и не должно быть. Так что, если с сайтом нет никаких проблем, то и волноваться по поводу разницы страниц в основном индексе и соплях незачем (это нормально).

Нет. У Яндекса всё проще: страница либо есть в выдаче, либо ее нет.

Ну что-то наподобие все-таки есть. На 1 странице результатов поиска Найдено: 500. Листаешь до последней страницы - найдено (к примеру) 350. Можно предположить, что 150 страниц в "соплях", т.к. поиск по релевантности документов.

Дорвеи на заказ с гарантией трафика ( /ru/forum/993918 ) >>> Осторожно, в телеге/скайпе есть клоны! Проверяйте, что общаетесь именно со мной через личку!
IC
На сайте с 26.05.2013
Offline
15
#7

А в Яндексе операторы : 1) site:сайт.ru/ и 2) site:сайт.ru/& - показывают одно и то же количество ответов (страниц в поиске).

А как посмотреть количество страниц в индексе Яндекса? Здесь оператор не работает, как в Google. Или 1) страницы в поиске и 2) страницы в индексе в Яндексе одно и то же понятие?

102
На сайте с 10.11.2008
Offline
53
102
#8
В соплях обычно дубли, копипаст и малоинформативные страницы

Заблуждение.

master_jeday
На сайте с 15.05.2010
Offline
231
#9
Ingvar Chijek:
А как посмотреть количество страниц в индексе Яндекса?

Проиндексированные страницы - это все страницы, которые обошел робот. Страницы в поиске - те из них, которые участвуют в поиске. Посмотреть в Яндекс.Вебмастере можно. Но это не сопли.

На счет соплей как в гугле, в яндексе такого нет. Но, по моим наблюдениям, если при поиске по сайту есть разница в найденном на 1-й странице результатов и последней - эти страницы, которые дают разницу, так же не дают трафик. Пример: раз, два.

IC
На сайте с 26.05.2013
Offline
15
#10

Прошло время... снова проверил страницы... и вот что получил:

1) site:сайт.ru/ - Результатов: примерно 1 190 (больше на 40 страниц стало)

2) site:сайт.ru/& - Результатов: примерно 227 (меньше на 2 страницы)

Хотя вручную удалял дубли через вебмастер....

Вот не пойму одного, Гугл говорит, что он автоматически удаляет страницы с ответом 404. Таких страниц среди этих 1 190 ...наверное 50%. Но на деле, ничего не удаляет, а второстепенный индекс забит этим всем... что тормозит ранжирование. 1. Как быть с этим? Просто забить или до конца ковыряться с этими дублями существующими и страницами 404?

2. Почему гугл формирует новые дубли....из страниц которые закрыты для индексации в роботс.тхт?

Вот, например, в роботс закрыта корзина (cart), но стоит в поиске вписать (site:site.ru/cart). Сразу формируется большой список страниц в таком стиле :

Кликаешь по одной из этих ссылок, выдает реальную страницу, с таким же урлом.... но вот с такой штуковиной (взаимодествие с корзиной) :

Заходишь на сайте отдельно на эту страницу (под точно таким же урлом), она выглядит также, но уже без всяких окон связанных корзиной.

3. Урлы страниц абсолютно одинаковые, но в поиске висят как отдельные страницы : одна оригинальная, а другая под влиянием корзины. Можно ли считать это дублями?

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий