Nowel

Nowel
Рейтинг
39
Регистрация
17.11.2008

ТС - диверсант с пионерлагеря. Раньше о таких в мурзилке писали. :)

Jarka:
так оно и есть. вот мы и исчем пути выхода из этого положения. вариант: удалиться из индекса и разрешать гуглу индексировать сайт постепенно, прописывая роботсе (закрывать все, кроме того, где есть уникальный контент). вопрос только в том, не нарведим ли? а 90 дней без индекса - это навредим.

Не забивайте голову тем, чем уже забили. Всё это пустое. Может быть вреда от этого и не будет, но пользы не будет точно. Пусть всё идёт как идёт. Постепенно наращивайте беки, и ждите. Работа с контентом внутренних страниц пойдёт на пользу. А засунуть все страницы вашего молодого сайта в индекс, и удержать их там, задача не выполнимая. Девочка не может родить, если ей всего 5 лет, как бы она не старалась забеременеть.

Подозреваю, что большинство страниц вашего сайта, неделями ни кем не просматривается. Не берусь утверждать, но большая вероятность того, что скоро заявленное количество страниц в индексе будет планомерно снижаться. Здесь дело не в какой-то ошибке, а в специфики алгоритма гугла. Сайт новый, вес маленький, ему не положено иметь столько страниц. Зачем тогда гугл вообще индексирует это количество страниц на новом сайте? Всё просто... для теста. Еслиб он заметил, что все страницы ежедневно мусолят десятки разных пользователей, то он оставил бы их в индексе, и принялся индексировать новые. Но такое вряд ли возможно в вашем случае.

Кстати, обратите внимания, в настоящее время в индексе гугла меньше 1K страниц, а число 300K не говорит о количестве страниц находящихся в индексе. Скорей это показатель количества страниц на вашем сайте, о которых известно гуглу. И опять же, это в идеале. На самом деле, число 300K ставится почти от фонаря. Сколько раз у меня было так, что выводишь молодой сайт на 10K-30K страниц, а гугл показывает, что их там 50K-70K. Подозреваю, что он любит приврать для важности, дескать какой у меня богатый индекс. :)

>если поменять все ссылки и написать новый сайтмап, будет ли гугл индексировать и эти в саплементал

да

>поможет ли это выйти из саплементала

нет

Drewnya:
Почитайте про клоакинг. Не нужно было по ip фильтровать. т.к. ПС также отдается разный контент.

Всегда думал, что за клоакинг (обман поисковика) сразу бан. Хотя может быть дали поблажку, что клоакинг настроен не под поисковик, а под страны.

А что, гуглбот ходит из под китайских ip? Ни когда не видел в логах такого.

dimok:
а при фильтрации стран надо сделать так, что гуглбот не фильтровался, даже если он вдруг зайдет из этих стран

Допускаю, что может маскировать заходы под обычного юзера, но в этом случае его ни как не идентифицируешь.

dimok:
скорее всего все же из-за "много полупустых страниц с не очень интересным и почти не уникальным контентом"

Исключить ни чего не могу, но как бы эти страницы висели почти год, ни кому не мешали, а под фильтр ушёл через несколько недель после того, как деление по ip поставил.

Так стоит ли надеятся, что когда нибудь этот сайт выйдет из под фильтра?

За быстрый прирост ссылочной массы, не весёлый фильтр. Можно загреметь на год и более. Прошлый раз сайт находился под ним 14 месяцев. В феврале ещё один сайт зафильтровали за это же. Медленно подкупаю трастовые ссылки, а воз и поныне там. Но! Если сайту более 3 лет, и он имеет траст, то, по идее, он не должен попадать под эти фильтры. Моим сайтом по году было, с небольшим.

Есть ещё разница между google.com с русского ip, и google.com с американского ip. Бывает так, что с России всё в топе, а с Америки всё в попе.

Если тематика коммерческая, а подавляющее большинство беков с русских ресурсов, то не исключена возможность, что американцы этот сайт вообще не увидят в выдаче. Фильтр минус usa, так вроде его окрестили.

Склеивал чтоб было без www. Меню выдаётся и при запросе с www и без, и при некоторых поисковых запросах, когда сайт стоит на первом месте. Но практической пользы от меню не вижу.

Какие фильты?

Какие сроки?

Какая оплата?

Всего: 249