Вы зайдите с другой стороны с рекламы на РСЯ. Если там не включишь кучу фильтров, бюджет сольется в минутуВ фильтр в первую очередь улетает дзен и прочее от яндексаЗатем улетают крупные сети сомнительного происхожденияОстается минимум. Из этого минимума, посетителей с ваших сайтов не более 5-10%Т.е переходы идут в основном с крупных сайтов
Как вариант для рассмотрения думаю не подходит))
Если у вас другое мнение, здесь нам и надо разойтись.
У меня другое🤣 при всех фильтрах Яндекса всегда находили выход - т.е вы сами Кузнец своего счастьяна Яндекс надеяться, это не вариант
Чего-то меня терзают сомнения насчет того, что Яндекс в принципе может
Может быть, что метку МПК сайту дают, при превышении какого то лимита - количества страниц в МПК?
Файл роботс у меня нормальный. Однако Яндекс стал есть все. В том числе и URL которые делаются в процессе публикации статей.
О чем и писал, что файл роботс у вас нормальный, но индесация всякого бреда существует. Не расстраивайтесь, он обязательно прочтет, и применит файл роботс через день.... ну или месяцВопрос о том, что происходит с основной страницей в это время, сами задайте себе...PS Закрой папку админ для доступа всем, кроме себя.
Чтобы сайты не попадали в такие базы для прокачки ботов, нужно лишь одно - парсер не должен найти на сайте метрику. Могут долбиться туда, где есть GA.
Ну или как вариант, как только попал базу прокачки, чтобы вычеркнули из нее как можно быстрее))
А поводу дублей, вижу уже не одно сообщение от вас, откуда такая уверенность во взаимосвязи дублей с получением метки?
Просто примите к сведению, и проверьте на практике, т.е вопрос не только в дублях, а в комплексе мер. Так как кроме дублей, еще упоминал о настройке last modified в заголовках сервера ( кто то еще писал выше )Полностью комплекс описывать не буду, можно использовать не по назначению
Опять таки из опыта. В общем, по большому счету, роль технической оптимизации сильно преувеличена.
Я сейчас склоняюсь к такому направлению: копипаст плюс уникальные сервисы (которые трудоемко повторить). Это и безопасней и интересней.
Каждый идет своей дорогойВ моем пути ( из опыта 20 лет) - абсолютно не слежу и беразлично, кто и куда и сколько скопипастил с моего сайта.
Это не чушь, это личный опыт. "Копирайтный" текст заметен за километр, чувствуется с первых же строк. Зачастую грамотно подготовленный и структурированный копипаст намного эффективней и надежней. Дорообразный автоматический копипаст в выдаче также присутствует, но ориентироваться на это несерьезно.
Грамотно подготовьте и структуируйте основной сайт, чтобы дорвеи с вашим копированным контентом не путались у вас под ногами, вместе с дзеномPS Согласен, что этих мероприятий выше мало, учитесь.
- Генерированный (ворованный) контент
- И наказывать среднестатистический СДЛ особо не за что, даже если подходить очень предвзято.
- Нет. Сами пишете в выдаче одни дорвеи, то бишь ворованный контент- Как так не за что? Дубли на сайте раз, бототраф два. Если точнее бототрафом можно любой сайт отправить в пешее путешествие ( Наказания в Яндесе за бототраф нет). Используется другое правило ( не фильтр) Яндекса
Под не оригинальным контентом яндекс может трактовать не только копипаст и не только поверхностный рерайт, но уже и глубокий рерайт и даже тексты по мотивам других текстов. Т.е. можно предположить, что то, что здесь называют "авторскими текстами"
Чушь не надо писать))Вам хоть сто раз нипиши, что у вас неправильный подход к неоригинальному контенту. Чтобы понять, что Яндекс имеет ввиду под "авторскими " текстами, его правила как раз нужно выкинуть, и еще раз взглянуть на выдачу:
Вывод? "Авторским" может быть полная копия. Вам дальше разжевывать или сами?
Вот все же написал, и написал погуглить - там полно информации и все разжевано, почему 1-3 месяца, или 1-2 неделиИ разберитесь уж до конца, что такое серверные заголовки