И не восстановят. Метрика показала, что посетители, уходящие с вашего сайта по ссылкам директа, не находят того, что им надо - удивительно конечно, они не думают, что рекламируют огромное количество мусорных площадок, на которые люди та в худшие времена не пойдут, а тут, увидев только, сразу закроют и вернуться на ваш сайт.
Жалко, что все это сухие цифры и банят именно по ним, ошибки в алгоритмах по цифрам и не увидишь.
Раз продвигаете, значит покупаете ссылки, что бы компенсировать затраты на них, можно и в сапу. Ставите по 1 внешней ссылке на страницу, цену в 3 раза выше средней и жестко модерируете поступающие заявки.
У меня один сайт СДЛ контентный в гугле попал под фильтр, я ссылок купил много на разные страницы, причина ясна как день. Через 4 недели вернулся, траф + 30% от того, что был, все ок. Через неделю опят вылет, хотя ничего не делал, потом возврат через 3 дня, вчера опять вылет. Гугл живет своими законами, а нам остается их постепенно изучать.
Таким образом можно отследить естественные бэки, то есть вида: источник sait.ru или видел на sait.ru хорошую информацию и.т.п
Зависит от отношения ПС к сайту, а это оптимизатор наверняка понимает уже после начала продвижения. Свои заказчикам обычно называю сумму и сразу с оговоркой, что возможна корректировка бюджета на 10-20% (зависит от суммы бюджета), хотя корректировки нужны редко, но все таки это ваша дополнительная гарантия.
Вроде получилось :) Всегда приятно смотреть в чистый код.
Да, wc3. Но и любой чистый код, имеет преимущество перед мусорным, тем же весом в кб :)
Новый контент на сайте, а не обновление уже имеющегося.
По крайней мере, если на странице был робот, то он должен увидеть изменения и обновить кэш, где и будет виден анкор ссылки. Хотя бы так.
Валидность кода относительно стандартов может играть роль.
Критерий ясен. У всех, у кого висел эдсенс параллельно, получили по шапке.