Мадам, а в чем бы Вы измерили ценность Вашего сайта? В перспективе на завтра, ибо сегодня ценности меняются кажись быстрее чем тайтлы главной страницы
В чем ценность Вашего сайта сегодня и завтра и послезавтра и через год?
Мадам, простите великодушно, но предполагаю что Вы мыслите за продвижение сайта на уровне программируемого калькулятора МК-54.
Так вот "они" за эти многие годы стали умнее.
Не сочтите за заносчивость, из лучших побуждений - возможно не стоит измерять ценность Вашего сайта в количестве новых ссылок в месяц?
За последние полтора года ТОП (в моей коммерческой нише) обновился на 80% участников.
Через год от сегодняшнего ТОПа останется 20% участников.
На что смотреть? На крах нынешней системы продвижения?
Почему сайты крупных компаний, где домен прямое вхождение, не пострадали? Пример Мерседес, Бош , Гугл, и пр.
Сомнительно все это, не подтверждается по факту. Имею домен=ключ, в ТОПе был и есть.
Иными словами - если на сайт конкурента начать подливать траф с нецелевыми запросами - через две недели он уйдет из ТОПа?
Очень дешево и быстро получается, сомнительно... Хотя от Гугля всего можно ждать в последнее время...
Оплачиваю банковской картой через интернет, напрямую. НДС не снимают.
Мы отвлекаемся от предмета, и полагаю путаем мухикаклеты.
По Вашим словам - теперь в топе должен быть сайт у которого меньше дублей? То есть сайт у которого меньше дублей (лучше внутренняя оптимизация, меньше грамматических ошибок, правильно расставлены запятые... и еще какую хрень кто-то придумает) будет более полезен посетителю, чем действительно интересный сайт тетки с дублями страниц и очипатками?
Другими словами: если раньше рулили "бюджеты на ссылки", то теперь будут рулить "бюджеты на дубли страниц, редакторов, копипастеров, дизайнеров, флеш" и т.д.?
Посетителю все равно на бюджеты, он хочет, и будет, получать полезную себе инфу.
Очевидно, что "так жить дальше нельзя", и Гугль, как системообразущая поисковая система, должен был что-то сделать.
Но "соревнования бюджетов на очипатки..." изначально обречены на провал. Пример тому - Википедия, по сути с мизерным отношением бюджет/запрос, и большим отношением "полезная информация/бюджет".
Таким образом, Гугль по сути не обращает внимание на ерунду вроде "уникальный контент, дубли страниц, грамматические ошибки, исходящие ссылки...".
Какие-то конвульсии...
Интернет - поляна для пиратства и школьников. Как Вы хотите победить армию школьников?
Что бы Вы, персонально, не делали, всегда найдется десяток озорников. Пока Гугль не изменит глобально правила.
Забудьте, Вы на правильном пути, просто улучшайте сайт.
Возможно одно из действий фильтра:
страницы, отмеченные фильтром, получают отрицательный коэффициент веса ("скрытый отрицательный вес"). В сумме, положительный вес от внешних ссылок складывается с отрицательным коэфициентом, и страница ранжируется по итоговой отрицательной сумме. В итоге зафильтрованная страница уходит глубоко на дно.
Далее эта итоговая отрицательная сумма передается по остальным страницам сайта через естестевенные ссылки по алгоритму расчета обычного PR, и соседние страницы по сумме PR проседают, сайт в целом проседает. Ресурсы у Гугль для такого алгоритма уже давно существуют, ничего сильно нового.
Лекарство в этом случае: зафильтрованную страницу "заблокировать" из ссылочной структуры сайта, и поставить на ней ссылки на конкурентов. 😂
Теория малоправдоподобна, но хоть что-то ...
"Если вы еще не в тюрьме - это не ваша заслуга! Это наша недоработка" (с) вожди СССР, Мэт Кац.