ну скажем, если некоторые страницы имеют частоту слов больше 10%
В robots.txt для яндекса надо прописать директиву host (можно конечно не делать, но желательно).
У меня была ситуация такая: в индексе был домен с www, а ссылки стояли на домен без www. Понятно что он и те и те учитывает, но в панели вебмастера стало показываться только после смены главного домена зеркала.
Я поэтому только как предположение говорил о дубле.
На счет уникальности контента - есть не уникальный контент, но он был и раньше и сайт прекрасно индексировался и не был под фильтром (около полугода). Добавлял статьи, рерайтил их и проверял в копискейпе. Если в кавычках вбивать предложения в яндекс, то ничего не находит.
Понимаю что вопрос уже не в эту тему, но если дело в уникальности новых статей, то как добиваться желаемого результата в рерайте?
Это экспериментальные данные?
Просто помимо главной страницы те же куски есть еще на одной странице, т.е. получается каждый экземпляр описания присутствует 3 раза на сайте, уже реально похоже на "спам". :)
Учитываю, как одно из мнений. Однако, все же, вижу выход только в устранении данного нюанса.
Да не, с контентом все в порядке должно быть, начал проверять так нашел сайт где точно скопированы мои три статьи точь-в-точь друг за другом, причем сайт какой-то фирмы.
Написал чтобы ссылку поставили. :)
Думаю всетаки дело в дублях. На выходных хочу переделать двиган сайта, тем более идеи интересные даже появились (ну так... для себя).
Вот уже 3 неделя подходит к концу. Если честно трафик маленький на сайтах, но зато тематичный - с поисковиков и по тематичным запросам. В случае если все же работники бегуна признают трафик некачественным, можно еще как-то повлиять на их мнение? письмом например
Заказал 29 февраля, до сих пор проверяется.
Сколько максимально может длиться проверка?
Похоже на глюк, читайте соседние темы.
У меня тоже сайт пропал из индекса, страниц в индексе - 0!
Еще вчера с яндекса ходил народ. Действительно как так без АПа получается?