Нарушения и угрозы безопасности на сайте , Малополезный контент, спам, избыток рекламы

DragonDesign
На сайте с 17.09.2009
Offline
115
#3721
Deus Machina #:

Я этот сайт проверял 1 минуту (не весь). Чтоб понять что там пзц с дублями хватило. Яндекс виноват 🤔.

Скриншот из вебмастера, всего 34 заголовка дублируется, что составляет 0% от всего проекта. И те уже поправлены. Дублирующиеся заголовки у пагинации все равно не в индексе, т.к. там canonical на первую всегда, а остальные как неканонические исключены. Поэтому кроме этих 34 страниц которые были, дублей в поиске Яндекса нет. SiteAnalyser конечно их найдет, т.к. они не были закрыты явно в robots.txt (ну для проформы закрыл и там сейчас)


Мои проекты хостятся здесь - надежный хостинг (https://www.ihc.ru/?ref=322356)
GC
На сайте с 03.11.2006
Offline
130
#3722
Иван Комаров #:

подтверждаю!

куча у меня ГС сайтов. ну есть в них необходимость.

ни одного фильтра на них нету.

а сайты, крутейшие, сложные, миллионы страниц в индексе гугла и яндекса, которые реально посещаются людьми, вновь и вновь, под МПК, сео-тексты, запросный спам. 

я утверждаю и говорил неоднократно, алгоритмы эти санкционные разрабатываются умственно отсталыми. не спорю, кто Алису программировал, крутые ребята из Яндекса, а вот те, кто сайты анализирует на предмет каких то несоответствий ведениям яндекса о качественном сайте, натуральные слабоумные. 

Это так и есть.

Написала на днях второе письмо (на первое ответили стандартно). 

Пришел ответ, что оказывается теперь сайт еще "грешен" и в (цитата):

"Наши алгоритмы проверили ваш сайт — сейчас он не соответствует нашим критериям качества. У сайтов с оригинальным и интересным для пользователей контентом выше шанс попасть на первые страницы выдачи. А ресурсы, которые пытаются обойти поисковые алгоритмы или ввести пользователей в заблуждение, — попадают под ограничения."

Хотя речь была не о первых позициях в поиске, а о восстановлении в поисковой выдаче, потому ее вообще срезали, посещалка осталась процентов 8-10 от момента, когда повесили метку в сентябре. Это на сайте, где авторские тексты... и которые годами имели хорошую посещаемость и востребованность.

Теперь оказывается сайт пытается обойти поиск и вводит пользователей в заблуждение. Где именно и каким образом? (цитата из письма) - " Оцените свой сайт со стороны пользователя и проведите анализ конкурентов. Это поможет выявить нарушения, исправить их и улучшить позиции в поиске."

Это они так выискивают нарушения... 

Слов нет. Это монополия со стороны яндекса. Ломать - не строить

RK
На сайте с 10.12.2006
Offline
176
#3723
grani-colors #:
Оцените свой сайт со стороны пользователя и проведите анализ конкурентов

они пишут полнейший бред в  ответ на запросы в службу поддержки...

а еще они лгут, лгут и лгут...

яндекс.поиск очень НЕЧЕСТНЫЕ ребята...

Все виды хостинга - https://clck.ru/37EqSV - и не только ...
Георгий Кесов
На сайте с 08.01.2014
Offline
79
#3724

У меня весь контент собственный, уникальный. Фильтра МПК не прилетало, к счастью. Зато у знакомого сайт со стихами, и ему прилетело. Хотя Яндекс подобный контент указывал в справке как исключение. Ведь не будет же автор статей рерайтить стихи Пушкина, чтобы не словить фильтр.

Но в итоге знакомый подал заявку на перепроверку и ему сняли фильтр. Так что норм.

Лучший сервис для защиты сайта от ботов: https://litfan.ru/link/antibot/. Зарегистрируйтесь по ссылке и при оплате введите промокод litfan, чтобы получить скидку 15%. Промокод привязан к моему аккаунту!
Deus Machina
На сайте с 23.03.2021
Offline
33
#3725
DragonDesign #:

Скриншот из вебмастера, всего 34 заголовка дублируется, что составляет 0% от всего проекта. И те уже поправлены. Дублирующиеся заголовки у пагинации все равно не в индексе, т.к. там canonical на первую всегда, а остальные как неканонические исключены. Поэтому кроме этих 34 страниц которые были, дублей в поиске Яндекса нет. SiteAnalyser конечно их найдет, т.к. они не были закрыты явно в robots.txt (ну для проформы закрыл и там сейчас)


Подавайте заявку на пересмотр смело раз уверены что canonical спасёт и других дублей нет.
Deus Machina
На сайте с 23.03.2021
Offline
33
#3726
Иван Комаров #:
миллионы страниц

Миллионы страниц качественно создать невозможно. Жизни не хватит.

Vladimir
На сайте с 07.06.2004
Offline
531
#3727
DragonDesign #:
Поэтому кроме этих 34 страниц которые были, дублей в поиске Яндекса нет. SiteAnalyser конечно их найдет, т.к. они не были закрыты явно в robots.txt (ну для проформы закрыл и там сейчас)
34? а должно быть ноль)) Лень исправить?
Вы читать умеете? или лень почитать?
robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей
Плюс спамеры по URL, создают вам еще такое же количество дублей ( сервер отдает 200)
Аэройога ( https://vk.com/aeroyogadom ) Йога в гамаках ( https://vk.com/aero_yoga ) Аэройога обучение ( https://aeroyoga.ru ) и просто фото ( https://weandworld.com )
Vladimir
На сайте с 07.06.2004
Offline
531
#3728
Deus Machina #:

Миллионы страниц качественно создать невозможно. Жизни не хватит.

можно 10 миллионов создать качественно, и все в индексе будут))
V
На сайте с 23.04.2020
Offline
34
#3729
Vladimir #:
34? а должно быть ноль)) Лень исправить?

ладно когда 34, а когда 4к ?

Причем какая-то часть уже давно отдает 404, но Яше как-то лень обновлять свои данные

Ок, мне не лень, я по 500 штук их удаляю через форму. То есть я (а не автоматизированная система в Яндексе) должен сидеть и вручную делать их работу. Сколько это дней  - 8 дней, чтобы удалить 4к статей

А еще куча тем форумов с одинаковыми названиями. Ну представляете, какая это интересная задача 200 или 500 тем сидеть и переименовывать, чтобы что? чтобы Яше было удобней? а что, он само по содержанию не может определить



Или вот, на скрине. Что это за 172к редиректа? ну допустим когда-то было 172к статей у которых каноникал был иным. Но сейчас этих страниц нет. Но 

А вот "неканоническая" это вот действительное кол-во страниц - порядка 22к. У них урл в cms типа node/id, а каноникал - ЧПУ. и 20к статей и выдают 20к нон каноникал. И это нормально. А вот 172 к редиректов это кажется Яша накопил данных за всю историю сайт со времен Неолита




с чего вот взялась такая гипотеза, что МПК вешают из-за дублей страниц? шепнул Платон Щукин что ли? Если бы это была причина, так бы Яндексоиды и писали бы - поправьте дубли страниц, а не играли в угадай-мелодию

PC
На сайте с 02.11.2023
Offline
3
#3730
Vladimir #:
robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей

У сайта структура - рубрики, страницы и теги. Причем это базовая структура многих сайтов и до недавнего времени это все было абсолютно нормально.

Теперь вдруг по мнению яндекса это все стало плохо плохо и жуткими дублями.

Пришлось позакрывать через роботс,  каноникал и метатеги большую часть структуры сайта (а то же облако тегов было накоплено за несколько лет очень большим и многие посетители этим пользовались). 

"это рекомендации, а не правило." - для яндекса это рекомендации? Ну если и это всего лишь рекомендации - то это означает - что вообще никакой сайт нельзя сделать правильным (по мнению яндекса),  ну разве что кроме примитивного лендинга.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий