Да перестанут, со временем 2-3 апа по Яндексу. Например, после введения Минусинска многие вебмастера стали чистить страницы на сайтах, где продавали/ставили ссылки на плохие сайты и через 2-3 возвращали свои позиции, траст и трафик
как правило категории url/bla-bla-bla/ динамичны, то есть контент периодически изменяется, добавляется. Здесь будут учитываться факторы ранжирования
страница url/bla-bla-bla.html как правило статична и контент не меняется, а значит здесь будет помогать такой фактор ранжирования как
Чем дольше контент на странице не изменялся, тем лучше, как возраст домена
Если цель клиента получать максимальное количество заявок при минимальных затратах, то зачем ему любоваться на позиции? Потешить собственное достоинство, то что он первый?
P.S.: А может кто нибудь когда нибудь делал эксперименты, замеряющие количество трафика от НЧ/заявки и трафик от ВЧ/заявки? Что эффективнее?
Любая (schema.org, микроформаты, OpenGraph, RDFa.) или какая то определенная?
Больше похоже на изменение алгоритмов подсчета внешних ссылок
Причем только по очень старым проектам. Данному проекту 4 года
А конторы тогда что делают? Тупо деньги выкачивают? Где логика?
Думаю 1-2 стронга на статью в 6000 знаков будет нормой, по крайней мере хуже не станет. А вот если 30 стронгов на 1000 знаков будет уже перебор и будут санкции
Netpeak Spider к сожалению больше не развивается как проект
Кто что думает о программе www.page-weight.ru
У меня сайты не большие - 1000-1500 страниц в индексе (250-300 статей)