Пасиб :)
Я привел, как пример, очень старый сайт на который 90%+ "правильные" сквозняки с хороших сайтов.
А так, он для меня пока так, есть и ладно, т.е. все равно что с ним... пока, по крайней мере :)
Светить не буду, сорри... Тут варианта 2 - панда или пингвин.
Не панда точно, сайт никогда не затачивался под ключевики. Дублей тоже нет. Страниц меньше 100, контент уник...
Не обновлялся давно, правда, лет 5-6 наверное...
Неа, тупо писсимизирован...
По поводу "пялит ссылки" по дизавау... думаю тут отчасти правда... алгоритм работает сам по себе еще...
У меня живой пример - проект, на который, кроме ссылок в футере, нет никаких. Причем все site wide, тобишь - сквозные. Таких ссылок на него 100К+ с кажого сайта... Сайты все не ГС, а обычные магазины и т.п.
Ссылки все правильные вроде, не покупные - подчеркивают авторство Developed by "...."
Проект под глубоким пингвином.
А "продвигаторы" не из seolviv? 😮
Интересный вопрос... для меня оч актуальный... в одном из проектов, в каталоге, используем вот такую запись:
<h3>имя продукта</h3>
<div class="pic">
<img src="изображение продукта" width="198" height="118" />
<a href="ссылка на продукт" class="zoom"><span></span></a>
<a href="ссылка на загрузку" class="down"><span></span></a>
</div>
В стилях для спана прописаны педальки, причем, педальки появляются когда наводишь мышку...
Как гугль отнесется? Какие мнения?
ТС, пример варнинга говорит на чистом англицком о том, что у вас есть страницы которые нарушают руководство гугля по качеству. Речи про ссылочное вообще не идет.
Может сам сайт причесть, для начала? 🙅
Ващета, там написано немного иное. И что будете делать, если страниц, которые нужно выкинуть из гугла 10К+? захламлять роботс?---------- Добавлено 07.10.2013 в 11:08 ----------
Ручные проверить просто в вмт - Поисковый трафик -> меры, принятые вручную.
Если с апреля, то возможно пингвин... как тут пишут - не видя пациента, советы никто не даст
По всем признакам - в эти выходные сб/вс...
Тут на форуме все или экстрасенсы и/или врачи, диагноз ставят с лету...
Закрыть в роботах - поставить запрет гуглу на индексацию страницы УЖЕ им проиндексированной, а не на выбросить ее из индекса.
Или предлагаете, чтоб у него в "голове" она продолжала "висеть" в виде дубля, пока он через 4-8 месяцев про нее не забудет? Ну, можно и так. Только я так понимаю ТС хочет все сделать гораздо быстрее...