Скинул в личку.
Угу, пингвин вообще неразборчивый, зачем такой сырой алгоритм выпустили не понять...
Ну и что, у меня сайту около 5 лет и всё это время проблем вообще небыло, а сейчас под пингвином.
После попадания работы было проделано тоже много, новый дизайн, улучшение юзабилити, программирование полезных сервисов, дальнейшее наполнение качественным контентом.
Тоже делаю СДЛ для людей, люди оставляют ссылки на авторитетных форумах и сайтах и трафик идет, и более 1200 лайков уже при условии, что кнопки были поставлены только 25 марта текущего года.
А из за неестественных ссылок сайт под фильтром и гуглу в общем то плевать на всё остальное:)
У меня и у конкурента даже скачков нет😂
Если извратиться можно и на отдельные, например по признакам урлов, если таковые имеются, программер сделает.
Как ни о чем? Вы хотите при запрещенном сканировании выкинуть страницы из индекса, так не получится, нужно разрешить боту сканировать страницы, а насчет не сканировать и не индексировать, пробуйте <meta name="robots" content="noindex,nofollow">
А как он может видеть если он не может просканировать страницу на которой добавлен метатег?:)
А я о чем написал, странно что вам не помогает. Если страница в индексе, но описание не доступно, значит он не может её сканировать, но и запрета к индексации он не видит...
А вы не знали, что гугл садист?:)) Я удалял урлы через WMT - ноль эффекта, хотя периодически мусор выкидывается из индекса, а потом снова возвращается.
гугл роботс для сканирования использует, для того что бы полностью удалить страницы из индекса нужно открыть страницы в роботс, а в хедере прописать <meta name="robots" content="noindex">
А передаваемый вес вы не учитываете? Думаю, что отрицательный вес гробит нч... Это очень хорошо прослеживается на контентных проектах. Насчет панды, сайт просел 25 апреля - 100% пингвин, симптомы, как описал Top for the good