Очень часто релевантными страницами могут посчитаться те, на которых есть хотя бы ссылка на продвигаемую страницу с нужным анкором (например из меню). Они могут постоянно меняться. Соответственно пытаться оптимизировать такие страницы, если они никак не относятся к продвигаемому запросу - нет смысла.
Либо вы просто сделали только хуже :)
40 статей релевантных тому запросу, который продвигаете на главной? Или что попало?
Ставьте с релевантных и в разных словоформах...
А вот это зачем сделали?
Я вам говорю, что 301 редирект не может стать причиной бана, и уж тем более не нужно ставить никакие исключения на robots.txt. А вы при переезде все время что-то менять туда-сюда, т.к. не могли дождаться склейки. Отсюда и такой печальный результат.
Как проверяли?
Вот и я про то же, смотрите на текст в первую очередь.
8e3yn4ik, разве что-то не индексируется? robots.txt корректный, правда нужно прописать еще и директиву Host.
И советую удалить папку /installation/, на большинстве движков это нужно делать, т.к. в некоторых случаях можно снова инициализировать процесс установки.
А каким способом у вас открываются полные версии картинок?
Для 10 реальных запросов это уже примерно 50 таких вариантов. Как-то не очень целесообразно вводить 50 запросов и серфить, серфить...
Так и какой резон отдавать сайты на растерзание?
У всех больше? :)
Не факт что сочтет. Экспериментов не проводил, но есть такая мысль что понятие "копипаст" не относится к различным нормативным документам, постановлениям, в т.ч. и текстам песен, т.к. они просто не могут быть уникальными.
Хотя бы напишите, что за фактор проверяете? ;)