Благодарю. Больше интересовало отношение Яндекса, в котором каждая "ерунда" может быть возведена в законную степень.
А если хочется сделать упор именно на один сайт, разве не лучше будет ссылаться только на него?
Хотелось бы уточнить данное высказывание. Значит выгоднее размещать по одной ссылке в каждой статье?
А как в случае с частым повтором одного слова в большинстве заголовков? К примеру, сайт на географическую тематику, посвященный Объединенным Арабским Эмиратам, где в большей половине title будет "ОАЭ" + дополн. ключевые слова
Благодарен всем за ответы, ситуация почти прояснилась.
Благодарю, оказалось, что Яндекс умудрился узнать о сайте раньше, возможно, от регистратора доменов, иногда почему-то всплывают "левые" бэки со списком доменов, зарегистрированных в определенный день
Эти ссылки как бы на все остальные страницы сайта)) А страницы категорий - всего лишь для разбивания их по разделам.
Тогда как можно выйти из ситуации? Ту самую страницу, прописанную в robots.txt, в индекс пускать категорически нельзя (чтобы было понятнее - это категория с дублированным текстом)
Разве?
Притом дата обнаружения какая-то странная - аж 14.11.2010, когда домена и в помине не было
Благодарю за оперативный ответ.
Все ограничения упираются лишь в количество плагинов - хочется видеть самый необходимый минимум. Планируется много статей и достаточно частое обновление (5-6 статей в день)