Почему дико скачет число страниц в поиске?

[Удален]
#51

Мои наблюдения то плюс то минус хотя сетка была полностью в индексе страниц на сайте по 1000 и более уникальность контента 50-60%

site.ru - 51 - 36

site.ru - 56 - 58

site.ru - 1260 - 45 - 41

site.ru - 3606 148 - 156 - 151

site.ru - 276 - 68 - 64 - 66

site.ru - 3156 - 174 - 110 - 109

site.ru - 2534 - 67 - 82 - 83

site.ru - 49 - 49 - 49

site.ru - 49 - 49 - 50 - 49

site.ru - 944 - 847 - 87 - 79 - 80

site.ru - 72 - 70

site.ru - 2069 + 2101 - 156 - 129 - 206

site.ru - 2494 - 2492 - 171 - 167 - 169

site.ru - 2 - 128 - 51

site.ru - 89 - 73 - 40

site.ru - 83 - 78 - 46

site.ru - 55 - 70 - 34

site.ru - 112 - 81 - 57

site.ru - 62 - 71 - 45

site.ru - 240 - 47 - 52 - 50

site.ru - 52 - 39 - 37

A
На сайте с 20.08.2010
Offline
775
#52

Пришел ответ от Платона:

Мы проверили, Ваш сайт присутствует в поиске и находится пользователями. Но часть страниц, действительно, отсутствует в результатах поиска, при этом никаких санкций на них не наложено.
Наши алгоритмы устроены так, чтобы на запросы пользователей давать наиболее полный ответ, и в связи с этим в результаты поиска попадают наиболее релевантные и уникальные страницы сайтов:
http://help.yandex.ru/webmaster/?id=1114408 .

При этом наш робот помнит о других страницах сайтов; если на них присутствуют ссылки, он периодически переобходит их, и со временем они также могут быть включены в результаты поиска.
Мы всегда работаем над совершенствованием алгоритмов, принимающих решение по включению тех или иных страниц в результаты поиска, и примеры страниц Вашего сайта переданы в поисковый отдел нашей компании для анализа и последующей корректировки алгоритмов. Внесение изменений в алгоритмы - достаточно сложный процесс, который требует времени, так как затрагивает много различных сайтов.

В принципе, ничего нового за исключением того, что робот проходит по старым ссылкам. Намекают на покупку ссылок?

iworkshop
На сайте с 22.12.2008
Offline
195
#53

awasome, они намекают, а я в целях эксперимента в начале недели купил в сапе по паре ссылок на выпавшие страницы)

Посмотрим что это даст.

XMLRiver - прямая выдача Google и Яндекс через API
A
На сайте с 20.08.2010
Offline
775
#54

iworkshop, в том-то и дело, что ссылки практически с начала создания сайта куплены. Подожду еще ап

Д
На сайте с 05.12.2011
Offline
56
#55

Тоже такая проблема с сайтами. Вот например по одному. Сайту несколько месяцев, спустя пару апов попало в индекс 200+ страниц. Потом начали вылетать. С каждым апом все меньше и меньше. Еще заметил, что старые страницы, которые были в индексе заменяются новыми.

Было что в один ап влезло 30 страниц, потом снова вылетели, и так уже пару месяцев подряд. Сейчас на сайте более 500 страниц качественного копирайта по 3000-5000 символов б.п., а в индексе всего 80 страниц.

Может какая то песочница яндекса для новых сайтов?

Кстати трафик с яндекса только растет.

G
На сайте с 21.01.2008
Offline
224
#56

Товарищи по несчастью, а как у вас дела обстоят с дублированным контентом? На нескольких своих сайтах заметил следующее. В индекс попадают не статьи по 1000-2000 символов, а пагинация главной страницы с анонсами из этой статьи (всего 150-200 символов).

Архивы, теги и календари уже давным-давно не делаю. Как только зарядили АГС. А вот пагинация стоит на всех сайтах и, что самое интересное, на более старых сайтах (от 6 месяцев) никак не мешает индексации основных статей.

Кстати, в сегодняшний ап заметил очередное уменьшение страниц. Незначительно. Всего 10-30 страниц с каждого сайта вне зависимости от добавления уникального контента.

Gothic добавил 12.12.2011 в 12:43

Кстати, покупка ссылок на выпавшие страницы помогает? А то я только недавно озаботился этим. В индекс попало только 6 страниц-доноров, но на акцепторов это (пока?) никак не отразилось.

Д
На сайте с 05.12.2011
Offline
56
#57

Кто может помочь с дублями по ДЛЕ? Как оказалось генерируются дубли в огромном количестве, а как их закрыть не знаю. В роботсе вроде закрыто все, а вот человек с форума показал что на каждую страницу очень много дублей.

Вот на примере этого сайта sovets.net (не сочтите за рекламу)

Вводим с любой статьи предложение (например статья которая выводится на главной - Как выбрать вечернее коктейльное платье) в строку гугла "Впереди встреча Нового года и много вечеринок, связанных с этим праздником" и видим 4 результата. На моем сайте этих результатов намного больше.

Так вот как сделать чтоб этих дублей не было. Роботсом это не закроешь. Нужно закрыть как я понял краткое описание.

P.S. никто не может подсказать?

S
На сайте с 17.04.2011
Offline
250
#58
Дениско:
Кто может помочь с дублями по ДЛЕ? Как оказалось генерируются дубли в огромном количестве, а как их закрыть не знаю. В роботсе вроде закрыто все, а вот человек с форума показал что на каждую страницу очень много дублей.

Вот на примере этого сайта sovets.net (не сочтите за рекламу)
Вводим с любой статьи предложение (например статья которая выводится на главной - Как выбрать вечернее коктейльное платье) в строку гугла "Впереди встреча Нового года и много вечеринок, связанных с этим праздником" и видим 4 результата. На моем сайте этих результатов намного больше.

Так вот как сделать чтоб этих дублей не было. Роботсом это не закроешь. Нужно закрыть как я понял краткое описание.

P.S. никто не может подсказать?

Для Гугла это нормально. В Яше немного по другому. У самого сайты на ДЛЕ. Тоже понимаю, что анонс это своеобразный дубль, но делаю ананосы, так как сайт для людей в первую очередь, а во вторую - для поисковиков... ☝

iworkshop
На сайте с 22.12.2008
Offline
195
#59

awasome, последние новости с фронта, так сказать.

Из 20тим проблемных страниц в индексе уже 10.

т.е. что то из сделанного сработало.

Что было сделано.

На всех страницах разбавлен контент и увеличен его объем(контент и так был уникальный качественный рерайт, но добавили ещё).

И на все страницы в сапе куплено по 2-5 безанкорных ссылок(безанкорных, чтобы не зря покупать). По тематике ссылок особо не фильтровал, думаю сработало просто наличие ссылок на выпавшие страницы.

A
На сайте с 20.08.2010
Offline
775
#60
iworkshop:
awasome, последние новости с фронта, так сказать.
Из 20тим проблемных страниц в индексе уже 10.
т.е. что то из сделанного сработало.

Что было сделано.
На всех страницах разбавлен контент и увеличен его объем(контент и так был уникальный качественный рерайт, но добавили ещё).

И на все страницы в сапе куплено по 2-5 безанкорных ссылок(безанкорных, чтобы не зря покупать). По тематике ссылок особо не фильтровал, думаю сработало просто наличие ссылок на выпавшие страницы.

Контент пока не разбавлял, а ссылки были куплены давно. Те страницы, на которые куплены ссылки, действительно в индексе (почти все). Видимо, придется разбавлять контент. Проблема в том, что такая трудность по нескольким сайтам одновременно... Похоже на фильтр, но Платоны уверяют в обратном

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий