У вас немного проще, план такой:
- ссылки не трогайте, пусть стоят, где доказательство что это вы понаставили
- убрать с сайта все малейшие поводы для фильтра
- писать письмо в сапорт гугла и заодно написать вопрос здесь
Как у вас с английским? требуется помощь в продвижении англоязычных проектов.
Ну, собственно, и я занимаюсь "пострадавшим" сайтом уже 2 года и вопиющих причин для фильтра нет. Сейчас меня в большей мере интересует это автомат или ручная модерация. Нужно заметить что после последнего обновления соответствуещего раздела в DMOZ, а это было 20 октября, сайт был удален из каталога. Данный факт наталкивает на мысль, что все-таки кто-то стуканул и теперь меня вручную фильтруют. Я бы подал заявку, но не хочется лишний раз привлекать к себе внимание.
Тогда мне интересен такой момент, почему, если гугл ведет такую активную борьбу с аптеками без фармаси чекера, накладывает фильтр -30 или -50? Ведь проще забанить или закинуть куда подальше за 300-ю позицию, с 5-7й страниц тоже проскакивают заказы и быть на 5й странице по запросу, например "cialis", считается тоже не плохим результатом...
Текст не уникальный, количество - более чем нужно, читабельность - пару первых абзацев от новости. Пожалуй не уникальность это весомый фактор, но и постоянно писать достойные статьи тоже не получится, т.к. придется найти специалиста и журналиста именно в этой отрасли, а низкокачественные, малоинтересные статьи на сайте размещаться не будут. Могу лишь попробовать сменить источник новостей. В любом случае спасибо за подсказку, буду думать.
kostyak добавил 24.10.2008 в 01:24
banka Я в принципе согласен, что это может быть "финиш", но мне нужно знать, что я все испробовал и больше вариантов нет, иначе будут мучаться с мыслью: "а вдруг получилось бы"... :)
Amarula Интересное наблюдение. У моего проекта уже давно был добавлен раздел новостей, новости тянулись с других источников и публиковались на сайте, но почти год назад хозяева источника запретили размещать более 30% от полного текста каждой новости. В итоге новости постоянно обновляются, новые страницы также постоянно добавляются, но самого текста на каждой странице стало на 70% меньше. Если бы дело было в контенте, тогда сайт должен был упасть еще раньше.
Мне кажется что некоторые не согласятся. При таком раскладе, как вы говорите, можно сделать вывод, что в конкурентной тематике есть возможность избавляться от конкурентов с помощью "стука" и какой бы сайт не был релевантный и кто бы на него не ссылался, можно его зафильтровать, если он покупает ссылки или какой-то умник понаставил говноссылок чтобы подзаработать как аффилейт.
Нужно учесть что проект, о котором идет речь, активно продвигается уже 2 года, зарегистрирован в старейших и авторитетных каталогах в том числе и в DMOZ, поэтому уж лучше побороться и попробовать востановить, чем просто плюнуть и заняться следующим. В прошлом году сайт уже попадал под фильтр, похоже было на "ты последний", т.к. по всем запросам сайт был почти всегда на последней странице. Кстати, возможно, где-то отмечается, что сайт уже был под подозрением и во 2й раз могут быть более долгосрочные санкции.
Может в этом был просчет, так вы подтвердили свою причастность к покупке ссылками. Я хочу попробовать снимать ссылки плавно и в тоже время добавлять новые, но уже только с англоязычных сайтов.
Спасибо всем, я услышал нужный мне ответ, вы мне очень помогли! ☝
Прислушаюсь к рекомендациям SavaHost. Лично я думаю у гугла нет времени возиться с каждым сайтоми и каждой просьбой, поэтому процентов 90 сайтов попадают и выходят из под фильтров автоматом.
А вот это уже печалит, не пробовали избавиться от всех явных намеков на то, что вы покупаете ссылки, самих ссылок, которые могли бы привлечь внимание? Много ли ссылок было с однотипным анкором?