Из индекса выпали почти все страницы загруженные Яндексом

1 23
S
На сайте с 26.01.2007
Offline
40
#21

Похоже проблема с ЧПУ встречается довольно часто...

Подобные вещи с выпадением из индекса большого числа страниц из-за ошибок похожа на внедрение ЧПУ...

Что делать?

1. Убедиться что все ЧПУ работают верно. (бывает часто такое: mysite.ru/page1/index.html - потом переходим по ссылке и получается mysite.ru/page1/page2/index.html вместо mysite.ru/page2/index.html)

В этом случае запрещаем к индексации все ссылки типа mysite.ru/page1/, mysite.ru/page2/ и т.д.

Дожидаемся исчезновения ошибок. Исправляем ошибки и снимаем запрет...

2. При введении ЧПУ контент начинает дублироваться... В это случае нужно закрывать от индексации уже динамические ссылки...

У меня были клиенты, которым горе мастера заделали неверные ЧПУ, и в итоге сайт выпал...

2-3 месяца продолжалась реанимация "правильных" ЧПУ в яндексе...

ИМХО, это из личного опыта...

Это было давно: Генерирую {анкоры|названия|описания} для Вашего сайта (/ru/forum/186702)
il4
На сайте с 23.05.2006
Offline
105
il4
#22

я назвал этот глюк 1/11 (11 января)

у меня из 175К в поиске 45К, а в панели ваще 8К, писал раз платону, он ответил что это ошибка, они с нею боряться, вчера написал еще раз, ответа пока не последовало...

аналогичный проект, выложенный в сеть после 1/11 замечательно проиндексили, в индексе все 200К страниц

R
На сайте с 20.02.2006
Offline
117
#23

у меня есть 2 проекта - первый состоит из 100% уникального контента, в поисковмом индексе 100% страниц. второй проект - контент заимствованный, со ссылками на источники. в поисковом индексе порядка 10% страниц. выводы очевидны. в качестве совета - рекомендую закрывать от индексации повторяющие элементы, если их объем превышает объем полезного контента на странице

chayka78
На сайте с 30.08.2006
Offline
22
#24
rokos:
у меня есть 2 проекта - первый состоит из 100% уникального контента, в поисковмом индексе 100% страниц. второй проект - контент заимствованный, со ссылками на источники. в поисковом индексе порядка 10% страниц. выводы очевидны. в качестве совета - рекомендую закрывать от индексации повторяющие элементы, если их объем превышает объем полезного контента на странице

если завести еще 4+1 проекта, по такой схеме:

3-й проект - 10% оригинального 90% заимствованный

4-й проект - 90% оригинального 10% заимствованный

5-й проект - 100% заимствованный

6-й проект - 100% оригинального зона *.com

7-й проект - контрольный на 10% из чистого HTML и на 90% на PHP

при условии, ессно хорошего хостинга, То статистика будет примерно такая:

2 проекта будут на 100% проиндексенные, вне зависимости от контента

2 проекта будут терять и находить страницы от одного четного недоапа к другому

6-й проект будет регулярно терять индекс, и восстанавливаться по письму к платону

7-й проект - контрольный - будет всегда в индексе на эти 10% но робот будет регулярно грузить с него по 7000 страниц при обходе, а раз в два месяца PHP будут на один ап появляться в индексе :)

так что вот это -

il4:
я назвал этот глюк 1/11 (11 января)
у меня из 175К в поиске 45К, а в панели ваще 8К, писал раз платону, он ответил что это ошибка, они с нею боряться, вчера написал еще раз, ответа пока не последовало...
аналогичный проект, выложенный в сеть после 1/11 замечательно проиндексили, в индексе все 200К страниц
ближе к истине, чем суеверия о фильтрах на неуникальный контент :)
il4
На сайте с 23.05.2006
Offline
105
il4
#25

получил ответ от Платона:

Здравствуйте, Павел!

Мы знаем об этой ошибке, спасибо. Мы устраним её как только это станет возможным.

--
С уважением, Платон Щукин
Служба поддержки Яндекс.Ру

надеюсь миф о мегафильтре развеян?

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий