m0tti, спасибо, оно.
Аккуратно, Запрашиваемый URL-адрес не может быть предоставленURL-адрес:http://google-androids.ru/Заблокирован Веб-АнтивирусомПричина: фишинговая ссылка
К своему стыду вообще не понял вот эту часть статьи:
Буду признателен за внятный перевод, с разъяснением графика.
Sower, А правило 90 дней в этом случае не работает? Ведь удалят то с корня.
Sower, сильно заморачиваться с запретами на идексацию текста в js смысла нет, они ведь в любом случае роботом с включенным js проверяют сайт на всё, что может увидеть пользователь. У меня самого есть пример текста, который чисто теоретически робот не в состоянии "поймать" на странице, т.к. он выводится через сложный js (когда-то я уделял этому много внимания) - так вот в сниппетах на картинке-превью он прекрасно читается (при том, что в текстовом кэше его нет), и более того, хорошо так определён роботом, т.к. подробно выводится в красной рамочке. Так что в целом они обо всём в курсе.
В принципе это уже js, т.е. сделать дополнительный шаг во время переделки, и засунуть текст в виде свойства самого скрипта уже не так сложно, да и редактировать его будет куда удобней. Иметь кусок однотипного шаблона по сайту не смертельно (у многих гигантские дисклеймеры в футерах открыты для индексации, например) но в целом если есть возможность его спрятать - лучше так сделать.
В твоём случае именно неуникальные описания и фотографии гораздо более опасный фактор, вот на них действительно стоит обратить внимание.
nail, не пропустил, просто в это же время у меня просели запросы которые крутились там (не фарма).
Видимо в процессе Гугл просто по отпечаткам прошёлся, я к сити отношения не имею, сужу только по внешним проявлениям.
P.S. Если немного оффтоп - сейчас вообще пользоваться blog / статейными сетками - закапывать деньги в песок. Никогда не любил утверждений подобного рода, но со смертью BMR / AMR и т.п. стало очевидно, что с апа на ап все зачистят, т.к. идут по следам.
Они были одними из первых, кто лег в борьбе Гугла с блог-сетками, месяца 4 назад. С тех пор не проверял.
Sower, да, последнее время бывает, похоже на какоую-то рассинхронизацию работы js-скриптов, которые формируют страницу.
Sower, у была аналогичная ситуация, и я решил её с помощью imagemagick - обратил все картинки относительно вертикальной оси + прилепил watermark (по отдельности любое из этих действий с точки зрения Гугла не делало картинку уникальной). Не уверен, что это сработало в плюс, но как минимум он перестал распознавать копии картинок.