Как быть и индексацией?

12
GG
На сайте с 08.08.2009
Offline
11
1113

Здравствуйте.

Подскажите пожалуйста как быть если индексация в целом сайта упала со стороны гугл в 10 раз, с чуть более 1200 страниц - до 120 страниц.

Для примера; Яндекс индексирует нормально - более 8250 страниц, Рамблем порядком - 4000 страниц.

Может кто сможет подсказать возможное - падение.

------------------

Со своей стороны наблюдая, заметил падение после ряда обменов статьями и ссылками (все данные сайты нормально индексируються поисковиками - проверял в ручную), а также добавляя статьи в бесплатных каталогах. Думаю это не могло так неготивно отразиться. При этом - замечю, трафик с гугл не совсем большой был, а после падения как бы и вырос....

Результаты просмотра индексации в панели инструментов для веб мастеров в гугл - цифра загруженных (3500 страниц), в индексе (1200 страниц). Проверяю сторонней программой в гугл и на самом поисковике не более 100 слишнем страниц.

-------------------

Просто данная ситуация беспокоит - как бы Яндекс за Гуглом не пощел по петам?!

Спасибо всем за отклик.

М....Да
Y
На сайте с 12.05.2010
Offline
7
#1

не видя сайта все рекомендации равносильны гаданию на кофейной гуще

ImPER@ToR
На сайте с 15.03.2009
Offline
159
#2
GoodGoog:
Проверяю сторонней программой в гугл и на самом поисковике не более 100 слишнем страниц.

Supplemental Indexом попахивает.

Есть бюджет? Закупитесь недорогими ссылочками на вылетевшие страницы.

GG
На сайте с 08.08.2009
Offline
11
#3

Я, Вас правильно понял - в этом нет ни чего страшного, для вывода данных страниц в общую базу поиска достаточно просто - внешних ссылок.

sokolenko
На сайте с 06.06.2010
Offline
67
#4

Ну в идеале нужно устранить причину занесения страниц в дополнительный индекс, а то это как лечить зубы обезбаливающим. Если сайт в соплях - значит на страницах некачетвенный контент, или же сам сайт не удовлетворяет требованиям. Ну и, конечно, после исправлений подкрепить все ссылками.

ImPER@ToR
На сайте с 15.03.2009
Offline
159
#5
sokolenko:
Если сайт в соплях - значит на страницах некачетвенный контент, или же сам сайт не удовлетворяет требованиям. Ну и, конечно, после исправлений подкрепить все ссылками.

Даже добавить нечего. Ну кроме того, что обезболивающее иногда нужно принять, что бы потом было не больно лечить.

Вообщем, смотрите на контент вашего сайта, работайте над ним и закопайтесь ссылками. (последовательность можно менять).

GG
На сайте с 08.08.2009
Offline
11
#6

Спасибо всем за участие.

Всплыл главный "кариес" - это контент. Тут то все и не однозначно.

Сайт не просто одно тематичный, а точнее сервис по разделам... каталог сайтов, каталог статей, доска объявлений, пресс-релизы. И соответственно говорить о 100% уникальности не приходиться. Сразу оговорюсь все публикации моддерируються.

Выходит, перед публикацией - перепроверять на уникальность - но это просто "маразом". Так как не мало ресурсов, порой очень хорошо посещаемых у которых контент на % минимум на 50 не уникальный.

Для эксперимента опубликовал одну из своих старых статей (которые ранее были размножены и оригинальные добавлены на различные ресурсы) - pisali, rusarticles - кому интересно могу продолжить список (домены не пишу и так ясно). Результат все "ок".

Так значит не все однозначно - порой читаешь (особенно на англоязычном форуме веб мастеров гугл), цитата одного из веб мастеров "гугл видит больше не уникальные статьи, мои индивидуальные статьи он вообще не видит и не показывает (имеется ввиду в список выдачи поисковика)"....

sokolenko
На сайте с 06.06.2010
Offline
67
#7

Понятно - ресурс большой и много материала. Но продвигаете Вы его не по материалам пресс-релизов, и, соответственно, трафика от них ждете немного. Поэтому, работать над их "уникальностью" нужно по возможности. А Вот статьи, например, нужно контролировать более тщательно.

Крупных ресурсов с копипастом много - Вы правы, но там у них траст, который перекрывает дублированный контент. У меня бывало несколько раз, что публикуется пресс-релиз на трастовой площадке, а на моем сайте гугл выкидывает эту страницу из индекса.

Поэтому нужно максимально продуктивно работать с контентом, над его "уникальностью".

GG
На сайте с 08.08.2009
Offline
11
#8

Т.е. Вы имеете ввиду если бы мой сайт находился скажем в Дмоз, то таких проблем скажем не было бы со стороны Гугл?

А, также Вас понял так что по возможности - редактировать добавленные материаллы (перепроверяя на уникальность), со статьей и пресс релизами ясно. Статью на крайняк можно отправить автору для редактирования до уникальности. Достаточно ли будет в пределах 70-90%, или обязательно на 100%?

Спасибо.

ImPER@ToR
На сайте с 15.03.2009
Offline
159
#9
GoodGoog:
Достаточно ли будет в пределах 70-90%, или обязательно на 100%?
Спасибо.

Скорее 80-90% достаточно.

GG
На сайте с 08.08.2009
Offline
11
#10

А, существующие материалы - необходимо удалить?

Или попробовать вставить rel=canonical... ни кто не пробовал как отреагирует Гугл.

Спасибо.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий