Walery

Walery
Рейтинг
114
Регистрация
17.04.2006

Сайт вылетел 8 января, в первых числах февраля проводились изменения на сайте, 21 февраля сайт появился

Вот еще статейка о фильтрах google, но на русском.

В общем, еще до публикации этой статьи, столкнувшись с проблемой описанной мной в старте этого топика,

(процитирую себя) :)

Помогите разобраться в подобной ситуации: один из моих сайтов (ресурс англоязычный) резко упал в выдаче гугла - до этого по некоторым запросам занимал места в десятке, теперь те же запросы оказались на 90-110 месте . Проверка показала что из индекса гугля он не был удален, во время пересчета количество ссылок даже было немного увеличено. Как я догадываюсь это какой-то фильтр.
1. Что могло привлечь наложение фильтра?
2. Как выйти из действия этого фильтра?

Заранее благодарен за ответы

Были произведены дествия:

1. Было убраны страницы с дублем-контента (хотя на сайте около 250 страниц, а дублированных около 20 в supplemental results попали все, кроме морды)

2. 3-х и 4-ч сторонним обменом были добавлены линки на внутренние страницы сайта.

Результат:

Сайт появился в выдаче и по некоторым запросам поднялся в ней.

для получения ответа выясните изменялось ли количество ссылок на сайт, количество проиндексированных страниц, когда сайт зарегестрирован, как часто обновляется контент, уникален ли он, почитайте уже поднимавшиеся на этом форуме темы и вопрос отпадет сам по себе :D

Скорее всего ты попадаешь на разные дата-центры Гугла, в одних контент уже обновлен, в других -еще нет.

Не переживай за пару недель все придет в норму

контент продолжает жить в индексе Гугла

остается надолго?

to sensey:

Вы написали что сайту 2 недели.
Есть такое понятие как песочница... Т.е. вы работайте, а посещения придут и с гугла тоже, только нужно немного терпения.

В русском гугле нет песка!!!

to alexdo:

Скорее бы..

А может не надо?? Конкуренция,для нас лучше чем один монополист

to Oniks:

К вопросу зачем это нужно и почему туда все ломятся, если не лень - начинай читать этой ветке форума , там постов много, но по-моему они прочтения стоят

Как я вас правильно понял вас интересуют все страницу вашего сайта, находящие на расстоянии одного клика от искомой?

Для этой цели можно использовать например программку Xenu. Она вообще-то предназначена для поиска битых ссылок, но и нормальные тоже показывает

З. Ы. Вы немного не в той теме вопрос задаете, в этой ветке идет обсуждение Google

Не совсем понял: вам нужны блоги или англоязычные сайты, на которые можно сабмитить статьи?

Если второе, то могу мосоветовать два списочка

http://www.go4expert.com/forums/showthread.php?t=521 и http://www.articler.com/9746/big-list-of-article-directories.html.

Думаю, хватит с головой

примерно раз в 3-4 месяца Гугл пересчитывает количество ссылок на все сайты, соответственно обновляет pr сайтов. Это называется апдейт. Во время апдейта как раз pr по сайтам и "прыгает". Когда апдейт закончится все у вас будет ок (или нет, это как вы над сайтом работали) :-)

1. Уберите все стили в css

2. decription -это описание и там должно находиться связное описание, а не набор ключевых слов

3."<!--body off--> - 6 раз" что это за прикол?

батюшку Гугла?

улыбнуло

Всего: 149