Почему некоторые страницы по два раза в индексе

12
novi4ek777
На сайте с 09.10.2007
Offline
59
1290

Здравствуйте, столкнулся с ситуацией что Яша показывает в индексе под две одинаковых страницы, кто-нибудь знает с чего это? Сайт более 2х лет, с таким ни разу не сталкивался, появилось это 3 апа назад, еще подумал - глюк, в прошлый ап такого не стало, подумал - ну точно глюк, а в этот опять в индексе появилось по две страницы и еще до кучи из индекса вылетело около половины сайта. Глюк ли это или что-то изменилось в алгоритме яндекса и он теперь как-то по другому индексирует и из-за этого омжно даже под фильтры попасть?

Сразу скажу что в индексе не страницы с www и без, тупо страницы идут:

сайт.com/stroitelstvo

сайт.com/stroitelstvo

сайт.com/index.php?newsid=6

сайт.com/soveti

сайт.com/soveti

и т.д.

Ах, да, что еще странно, проиндексировались страницы закрытые в роботс, это уж я совсем не понимаю, раньше их не было в индексе. ( я о страницах вроде: /?do=register /?do=lostpassword и т.д.).

Урл сайта могу показать по запросу в личку (в теме не писать).

PA
На сайте с 23.09.2009
Offline
87
#1

у меня главная 2 раза проиндексировалась,тоже интересно - в чем прикол?

Уже не катаюсь на Skoda Octavia 2012 года 1.4 mpi
A
На сайте с 13.01.2010
Offline
20
#2

У меня при одном апе было более 100 страниц главной, при следующем исчело

Резедкин Блог*) (http://rezedka.ru/)
DyaDya
На сайте с 11.04.2007
Offline
147
#3

На то он и АП, чтобы творить чудеса. АПа закончится, и чудо-страницы исчезнут... ну должны исчезнуть.

Выбирайте качественный хостинг (http://vashmaster.ru/informaciya/o_poleznyh_programmah/news83.php) и продвигайте сайты в СЕОПУЛЬТ (http://seopult.ru/ref.php?ref=72b5ed9561fe66a1). А на «SAPE» я в обиде :) Не упрекайте за очепятки, пишу вслепую (http://ergosolo.ru/) и также делаю сайты (http://www.vashmaster.ru/) ;)
S
На сайте с 26.01.2007
Offline
40
#4

А host в robots.txt указан?

Видимо, что нет... Скорее и роботса тоже...

Это было давно: Генерирую {анкоры|названия|описания} для Вашего сайта (/ru/forum/186702)
Nominder
На сайте с 09.01.2008
Offline
125
#5

У вас дле стоит, там, чтоб учитывался файл роботс.тхт нужно удалить метатэг, говорящий поисковой системе о том, что индексировать нужно все. Яндекс при виде его даже не смотрит в роботс. Удалить его надо в файле енджайн.пхп в папке енджайн, по-моему. Должно спасти. Я вот сейчас так своим сайтам сделал, ото тож проиндексировалось все, что не должно было.

Alexey Levin
На сайте с 17.07.2007
Offline
188
#6

Тут 2 варината - либо быстробот, либо не склеилось зеркало с www или без www.

Теоретически может быть и 4 раза страница быть в индексе: по 2 раза с www и без, и по 2 быстроботная страничка и простая.

Один поисковый запрос занимает больше вычислений, чем отправка человека на Луну.
A0
На сайте с 22.03.2009
Offline
229
#7
Alexey Levin:
Тут 2 варината - либо быстробот, либо не склеилось зеркало с www или без www.
Теоретически может быть и 4 раза страница быть в индексе: по 2 раза с www и без, и по 2 быстроботная страничка и простая.

Было и такое.

Как правило просто подождать и ситуация нормализуется, наблюдается часто у новых сайтов, когда только Яша пытается клеить домен. Поэтому всегда при создании нужно хотя бы хост в роботсе прописать.

Продвижение и поддержка сайтов. Актуальное конкурентное портфолио. ICQ - 407354474.
novi4ek777
На сайте с 09.10.2007
Offline
59
#8
У меня при одном апе было более 100 страниц главной, при следующем исчело
На то он и АП, чтобы творить чудеса. АПа закончится, и чудо-страницы исчезнут... ну должны исчезнуть.

В том-то и дело что ситуация повторяется уже второй раз, я думаю чудеса два раза не бывают просто так=)

А host в robots.txt указан?

Видимо, что нет... Скорее и роботса тоже...

Роботс есть и хост указан, но слова Nominder очень интересны.

У вас дле стоит, там, чтоб учитывался файл роботс.тхт нужно удалить метатэг, говорящий поисковой системе о том, что индексировать нужно все. Яндекс при виде его даже не смотрит в роботс. Удалить его надо в файле енджайн.пхп в папке енджайн, по-моему. Должно спасти. Я вот сейчас так своим сайтам сделал, ото тож проиндексировалось все, что не должно было.

Три года работаю с ДЛЕ а об этом не знал, спасибо большое, сегодня покопаю.

И правда нашел: <meta name="robots" content="all" />. Спасибо еще раз.

А что значит это: <meta name="revisit-after" content="1 days" /> ?

Тут 2 варината - либо быстробот, либо не склеилось зеркало с www или без www.
Теоретически может быть и 4 раза страница быть в индексе: по 2 раза с www и без, и по 2 быстроботная страничка и простая.

Нет Алексей, я сразу упомянул что нет дело в www и без т.к. в индексе просто по две одинаковых страницы.

Быстробот говорите, хм, страницы старые, по идее не для быстробота они..

Вот что странно - ситуация второй раз повторяется, раньше такого не было, посмотрел другие сайты, роботс.txt у меня везде одинаковый, так на других сайтах подобной ситуации нет, неужели глюк второй раз.

turovnet
На сайте с 21.04.2010
Offline
23
#9

Не переживаете, Яндекс дубли скоро убьет.

Размещаем пресс-релизы отелей бесплатно, подробнее
novi4ek777
На сайте с 09.10.2007
Offline
59
#10
turovnet:
Не переживаете, Яндекс дубли скоро убьет.

Меня не столько дубли пугают, сколько ситуация после них, я же говорю что страниц в индексе стало в два раза меньше у старого сайта, кол-во страниц не менялось на протяжении года, а тут - бац..

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий