Мой сайт, предположительно, был под Пандой. Отправлял неделю назад запрос на повторную проверку сайта в Гугл. Сегодня пришел ответ, что в ручную фильтры не накладывались и бла бла бла.. Тем не менее, большинство позиций вернулось в ТОП 10-20. Сайт ранжируется не так хорошо, как до наложения фильтра, но ещё вчера не мог найти его в сотне, а то и в двух. Надеюсь, что снова не вылетит.
Так что, запрос на повторную проверку сайта рекомендую отправить. + отправлял запрос через эту форму https:// docs.google.com/spreadsheet/viewform?formkey=dEVxdmdRWFJRTjRoLWZVTHZkaTBQbkE6MQ&ndplr=1
Насколько я понимаю, если сайт попал под Пингвина - Гугл продолжает бегать по сайту, индексировать новые страницы. Под пандой этот процесс серьезно затормаживается, что осложняет вывод из под фильтра т.к. внесенные изменения черт знает когда будут проиндексированы.
3) позиции в *опе
Боюсь, что не все так просто. Множество сайтов, где контент не растаскивали, а симптомы те же. Упали сайты с совершенно различными исходными показателями: с покупными ссылками и без, с возрастом и новые сайты, с уник. контентом и копипастом. Не вижу четких закономерностей.
Не знаю совпадение или нет, но у моего сайта 9 мая на графике виден резкий скачок в количестве показов в Гугл, а 10 мая утром сайт уходит на последние страницы выдачи.
Сайт новый, но очень быстро поднялся по конкурентным запросам. Возможно, причины падения новых сайтов и сайтов с возрастом различны при одинаковых симптомах.
И то и другое понятия относительные
Сайт jobis.com.ua, как я понял, ссылки продает?
Учитывая последние нововведения не удивительно. Даже сайты без явных косяков попадают под фильтр.
Вы то, теме же приемами пользуетесь - не отвечаете на вопросы. А насыщенность Ваших текстов терминами, упоминанием киноактеров, явно указывает на отсутствие реальных обоснований. Тот кто знает, говорит по существу. Кому сказать нечего, кидает пафосные фразы.
"за неименеем сучков в контенте и структуре (переоптимизация) штрафной алгоритм гугла начинает больше цепляться за любую шероховатость во внешних факторах (ссылочное, ПФ)."
По такой логике - задача Гугл затолкать под фильтр все проиндексированные сайты (ибо косяки можно найти у практически любого сайта), а в ТОПе будут те, к которым применено меньшее количество санкций. То есть, сверх цель компании Гугл - доказать, что все сайты не соответствуют их стандартам качества.
В какой момент алгоритм Гугла - должен включить режим "Сайт качественный, нужно найти за что его покарать". Просто не понимаю, как это должно работать.
И какой КПД у таких манипуляций? С учетом того, что выдача и без того качеством не отличается.
Насколько помню, Яндекс учитывает и этот фактор (дизайн). Потому, не стоит списывать его со счетов.
Простите, но этим субботним вечером я пренебрегу Вашим одолжением, великий мастер. Но я помолюсь перед сном возле изображения Ньютона.
От всего Вашего текста далекого от темы обсуждение, предыдущее ваше же утверждение не становится менее не логичным.
Предоставляю Вам шанс реабилитироваться и привести хотя бы один логичный довод в пользу Вашего утверждения.
Какой-то этот Мерседес слишком идеальный, я возьму Ладу Калину... Оба высказывания звучат неразумно.