Была раньше такая опция в вебмастере, потом они от нее отказались. Хотя фиксация даты первой публикации под определенным авторством - это существенный признак доказательства авторства.
А сейчас позиция яндекса противоречива. С одной стороны они предлагают соблюдать правила, но с другой стороны, похоже, сами их соблюдать не в состоянии. Я например, зачастую сходу (за пару секунд оценки) понимаю, что передо мною дор или клон, например вижу заглушки форм сервиса вместо самого сервиса и т.д. А если опытный человек на уровне интуиции (без логических размышлений) за секунды правильно классифицирует клон/источник, то это, очевидно, может и алгоритм. Но в итоге я вижу клоны в выдаче яндекса и наказание источников. Это, имхо, разрушает бизнес-среду. А главное правило - не навреди. Нельзя действовать, как слон в посудной лавке. Аккуратней надо.
Кстати мой сайт словил МПК через неделю как я начал удалять страницы из Яндекс турбо.
совпадение? не думаю! )))
У меня еще АМП-страницы под вопросом. Их очень много, они запрещены к индексации в роботс.тхт, также каноникал там установлен. Но... яндекс их зачем то упорно обходит. Да, он видит запрет в роботс.тхт, видит каноникал, в поиск не включает, но... зачем он их постоянно обходит и анализирует? Не понятно, как яндекс относится к огромным запрещенным к индексации разделам. Давно обратил внимание, что поисковики зачем то рвутся больше всего именно в запрещенные разделы. Запретный плод сладок? Но у меня бывает, что бОльшая часть контента находится под запретом (она может быть очень важна для пользователей, но поисковики по формальным причинам могут посчитать ее маловажной - поэтому запрещаю).
Там наверняка с миру по нитке собрано - вот и уникальность, вот и семантическое разнообразие... Всё, как любят новомодные нейронные сети.
ГС-ы с парсингом, кстати, чувствуют себя нормально. Не в топ10, но в топ20 их вижу. В то время как их первоисточники болтаются за пределами топ50+.
Так что классические привычные метрики "уникальности" я бы уже не применял при анализе ситуации.
Сейчас поверхностно проанализировал топ по одному справочному запросу, мне хорошо известному.
Не претендую на истину, но пока вижу следующее:
1) В топе осталось только три крупных старейших сайта, прямо отвечающий на справочный вопрос. И они находятся в ТОП4.
2) Остальные 7 позиций занимают сайты, рассматривающие вопрос не прямо, а в разных производных семантических плоскостях. Грубо говоря, там разного рода аналитика, рассматривающая вопрос с разных сторон. Обращает на себя семантическое разнообразие. Это и раньше (спектр) было, но сейчас бросилось в глаза.
3) Качество многих позиций вызывает вопросы, на второй странице видел доро-образные полностью автоматически сгенерённые сайты с набором корпипаста с разных сайтов.
Предварительный вывод (на нем пока не настаиваю): возможно, на первое место сейчас яндекс ставит семантическое разнообразие или... экспериментирует с этим. К примеру (условно): запросу соответствует несколько разных точек зрения, тогда берем пару-тройку крупных сайтов, прямо отвечающих на вопрос, и по одному сайту на каждую точку зрения. Остальные... в сад... Причем, не по конкретным запросам, а целиком и привентивно, типа: ваш сайт (пусть трижды белый и пушистый) не имеет (совокупно) уникальной семантики, или уникального сервиса, или не является крупняком - получайте МПК... Т.е. если все темы вашего сайта уже многократно изложены на сотнях других сайтов - то... скрипач не нужен...
Пока, видимо, получается не очень (судя по выдаче), но ещё не вечер... Если предположения хотя бы отчасти верны, то а) перетасовка сайтов и фильтров будет еще долго, б) придется серьезно менять подходы к созданию сайтов.
Вряд ли.
Вряд ли толокер (да и вообще простой смертный) может напрямую влиять на проверяемые сайты.
А можно немного подробней, какого рода контент был на сайте?
Есть два момента. Во-первых, грамотная структура имеет свои пределы и не играет такой уж сильной роли. Во-вторых, идеально вылизанная структура зачастую приводит к обратному результату (вернее, некоторая небрежность зачастую дает бонус). Опять таки из опыта. В общем, по большому счету, роль технической оптимизации сильно преувеличена. Достаточно избегать грубых ошибок.
Я сейчас склоняюсь к такому направлению: копипаст плюс уникальные сервисы (которые трудоемко повторить). Это и безопасней и интересней.
Это не чушь, это личный опыт. "Копирайтный" текст заметен за километр, чувствуется с первых же строк. Зачастую грамотно подготовленный и структурированный копипаст намного эффективней и надежней. Дорообразный автоматический копипаст в выдаче также присутствует, но ориентироваться на это несерьезно.