Сбербанк это банк. Вот пусть и занимается банковскими делами, а не пишет инфостатьи. Хотя оно может делать что угодно. Это Яндекс должен по инфо запросу предоставлять статьи с инфо сайтов
Сбербанк и делает, что угодно, пишет инфо статьи, тем самым продвигая свой сайт и бизнес🤣А, Яндекс и предоставляет по инфо запросу. статью из инфо раздела сайта
PS Вчера обалдел, получил нового конкурента по йоге, тинькоф банк👍 Инфостатьи это еще полбеды, еще и курсыыыы!!🤣
Да, правильно.
Ну да берут пример с Яндекса, открывают свои дзеныДля писателей ( не копирайтеров) радость - статья 10к
Had, сможешь заплатить за статью 10к? Тогда не будет трындец))
Не могу показать, нет у меня такого, давно защита стоит.
Да вам про это, уже не первый год пишу конкретно на что обратить внимание, вы все только спорите. Можете дальше спорить, вместо того чтобы технически решать. PS Спасибо тебе за недавний коммент, помог добить технический вопрос
Вся надежда на rel canonical.
rel canonical. увеличение дублей
делали и ставили. и ставим. не помогает - все равно в бан попали.
Большой потерей будет, если перестанут существовать тысячи сайтов с ценной, уникальной информацией.Десятки лет миллионы людей создавали зачастую гениальный контент.
Кроме гениального контента, вы должны хорошо разбираться технически, если ведете сайт самостоятельно.Ну либо нанимать.К примеру метки /?utm - в настоящее время это дубли сайта, который плодит ваш директ. Вопрос, что происходит с основной страницей в это время? Ну и куча еще вопросов возникает, если подумать.Ответ, что метки закрыты в роботс не принимаются по техническим причинам Яндекса
На логотипы есть патент? НетТогда волне возможно вы копируете))
Еще раз, повлиять на выдачу можно только вам, даже если ваш сайт скопировали полностью. В том случае если вы постоянно и регулярно занимаетесь сайтом.
Речь идёт о клоакинге, если я правильно понял?
Нет, и не стоит гадать в топе
Могу сделать вывод, что корпорации хорошо фильтруют ботов, по множеству факторов.А учитывают ли процент ботов при снижении оценки качества сайта, это большой вопрос. Я бы не учитывал, его слишком легко накрутить.
- На 100% не фильтруется это однозначно- Боты не учитываются при оценке качества. Учитывается ПФ этого процента, не для оценки качества ни в лучшую, ни в худшую сторону. Дальше самостоятельноPS Еще легче чем вы думаетеПроверил один ваш пример. Дубли страниц могут формировать кто угодно, начиная с самого Яндексаписал выше про robots
Можно представить себе оценщика-ассессора.
Вспомни технологию оценки и закрой возможность оценки, при нахождении ассессора на сайте - пусть лучше изучает сайт)
Почти уверен, что детекция т.н. малополезных страниц происходит примерно так:
Проверьте еще бототраф на эти страницы. Если таковой есть, то думаю поймете зачем и как он работает.И на основании какого фильтра.
Спасибо, а может быть будет лучшим вариантом редирект 301 со страниц /user/3788&par=top_user на страницы /user/3788 ?
Подскажите, пожалуйста, правило для .htaccess
- Лучше всего анализировать в php и вырезать из URL &par=top_user, с дальнейшим редиректом 301- Но, при этом найти где формируется данная ссылка, и удалить там &par=top_user - Но, лучше вообще запретить доступ к папке /user/ для инлексации. Вам зачем юзеры в выдаче?Т.е доступ только авторизованным пользователям
Если htaccess, так попробуйте( если ничего не накосячил)
Сайты? 😀