Все закономерно, приводят все к одному стандарту:
Сейчас вебмастер выглядит, как золотой век встретился с каменным.
в августе 2023 года получил на один сайт мпк, решил подпапку сайта вывести в отдельный сайт. Сначала яндекс склеил их, потом расклеил, но в итоге в выдаче все равно показывает ссылки с сайта МПК, хотя новый хорошо индексируется. Написал в поддержку и мне понравилось, как они ответили:) - "мы не видим запросов, по которым страницы сайта подменяются" - присылаю скрины + данные из яндекса про индекс и количество страниц в поиске двух сайтов, и они вместо того, чтобы что-то ответить на это - тупо закрывают тикет. Я снова открываю. Опять оператор передает кому-то коллегам информацию, те смотрят и не отвечая, опять закрывают тикет :) Вот это я понимаю уровень поддержки...
подтвердил файлом снова, появился сайт, но через какое-то время опять удалился. Спрашиваю в ТП, что там у вас с роботом. Пишут отписку, что робот сканирует, если не получает ответ, то сразу выкидывает. Проверил ответ, 53мс. Значит либо глюк, либо сознательно делают такие лаги. Предполагаю, что за МПК. Удален сайт с МПК, но который при этом часто в быстрых ответах появляется:) и ИКС 600:)
В итоге решил, если еще раз удалит, не буду больше добавлять. От яндекса сейчас толку мало. Там мега передел поиска идет, вся коммерция в топе по информационникам.
Конечно нормально. Классические двойные стандарты). МПК за неоригинальный контент, но мы не знаем кто первоисточник и это не наше дело. Развивайте сайт, чтобы он был полезный для людей, но выдача будет в каше из соц. сетей и дзена не по теме.
пока висит. я забил на яндекс, теперь только гугл. Пока создаю контент реально для людей, а не для тупых правил яндекса, где канонические ссылки игнорируются, долбятся 404 и сыпят ошибки в консоли, хотя там ноиндекс стоит, игнорируют каноникл для дублей заголовков и описаний, определяют скорость сайта только на основании своего браузера. Выдача превратилась в кашу и если для них это ок, пусть сами сидят в своем поиске.
https://cleantalk.org/blacklists/as24940
очередная переписка:
со своей стороны провел оптимизацию. Добавил clean-param, noindex для дублей страниц. Уменьшил количество рекламы. Анализирую другие сайты, где нет метки, так там все завешано рекламой и портянки. Если логика нового алгоритма сделать максимально длинные статьи, скажите об этом, будем думать как объединять все в одну
Ответ:
Спасибо за ожидание. Мы не разглашаем подробности работы наших алгоритмов. Могу порекомендовать вам лишь одно верное решение — устранить причины, описанные в нашей статье Признаки некачественного сайта. Когда у алгоритмов не останется нареканий, ограничения снимутся автоматически. Если вы внесли изменения, нужно подождать, когда наши алгоритмы снова проверят ваш сайт. Точные сроки назвать не могу — наш поисковый робот обходит сайты в автоматическом режиме, направить его на конкретный ресурс и ускорить процесс мы не можем