Vladimir

Vladimir
Рейтинг
630
Регистрация
07.06.2004
Интересы
Photo
NoMoreContent #:

Вся надежда на rel canonical.

rel canonical. увеличение дублей

avangard #:

делали и ставили. и ставим. не помогает - все равно в бан попали.

Увеличиваем количество страниц для обхода. вместо только нужных
NoMoreContent #:

Большой потерей будет, если перестанут существовать тысячи сайтов с ценной, уникальной информацией.
Десятки лет миллионы людей создавали зачастую гениальный контент.

Кроме гениального контента, вы должны хорошо разбираться технически, если ведете сайт самостоятельно.
Ну либо нанимать.

К примеру метки /?utm - в настоящее время это дубли сайта, который плодит ваш директ. Вопрос, что происходит с основной страницей в это время? Ну и куча еще вопросов возникает, если подумать.
Ответ, что метки закрыты в роботс не принимаются по техническим причинам Яндекса

Fiestaline #:
которые копируют у нас контент даже банально не убирая логотипы с наших фото и не страдают. Ответ был банальным, спасибо, мы будем учить наш алгоритм, но повлиять на выдачу никак не можем. Думаю, ну как же не можете, еще и как можете, отрубив сайт вот так в один день.

На логотипы есть патент? Нет
Тогда волне возможно вы копируете))

Еще раз, повлиять на выдачу можно только вам, даже если ваш сайт скопировали полностью. В том случае если вы постоянно и регулярно занимаетесь сайтом.

NoMoreContent #:

Речь идёт о клоакинге, если я правильно понял?

Нет, и не стоит гадать в топе

NoMoreContent #:

Могу сделать вывод, что корпорации хорошо фильтруют ботов, по множеству факторов.
А учитывают ли процент ботов при снижении оценки качества сайта, это большой вопрос. Я бы не учитывал, его слишком легко накрутить.

- На 100% не фильтруется это однозначно
- Боты не учитываются при оценке качества. Учитывается ПФ этого процента, не для оценки качества ни в лучшую, ни в худшую сторону. Дальше самостоятельно
PS Еще легче чем вы думаете

Проверил один ваш пример. Дубли страниц могут формировать кто угодно, начиная с самого Яндекса
писал выше про robots

NoMoreContent #:

Можно представить себе оценщика-ассессора.

Вспомни технологию оценки и закрой возможность оценки, при нахождении  ассессора на сайте - пусть лучше изучает сайт)

NoMoreContent #:

Почти уверен, что детекция т.н. малополезных страниц происходит примерно так:

Проверьте еще бототраф на эти страницы. Если таковой есть, то думаю поймете зачем и  как он работает.
И на основании какого фильтра.

webledi #:

Спасибо, а может быть будет лучшим вариантом редирект 301 со страниц  /user/3788&par=top_user на страницы  /user/3788 ?

Подскажите, пожалуйста, правило для .htaccess

- Лучше всего анализировать в php и вырезать из URL &par=top_user, с дальнейшим редиректом 301
- Но, при этом найти где формируется данная ссылка, и удалить там &par=top_user
- Но, лучше вообще запретить доступ к папке /user/ для инлексации. Вам зачем юзеры в выдаче?
Т.е доступ только авторизованным пользователям

Если htaccess, так попробуйте( если ничего не накосячил)

RewriteEngine On
RewriteRule (.*)(&par=top_user ) $1 [R=301,L]
Gonchar-web #:

Сайты? 😀

Естественно сайты, но в бурже😀 раз вам Яндекс не нравится))
samimages #:
Фильтр прилетел на новостник, всплеск трафа был за несколько дней до того как

Бототраф? Они тоже умеют отправлять страницы в МПК. Не все умеют, но умеют и в основном топовые


Steve Rambo #:

Подключаю коллег из отдела аналитики, проверим работу алгоритмов — нормально ли они функционируют, не было ли сбоев. Когда появятся новости, вернусь к вам.


Они там так накосячили, что сами не могут разобраться?

Кто именно накосячил? И что вы хотите от них услышать?
Вам отвечает один отдел, подключают другой, а алгоритмы внедряют третьи
Ну доберетесь вы до третьих, толку? Выше читайте комментарии...через месяц, неделю, день автомат опять отправит в пешее путешествие.


Всего: 9199