Вилли, дело не в страницах, а в трасте, в бэклинках, в том же иншурансе есть сайты с менее 200 страницами в индексе, но собирающие дикий траф. Ваши предположения - лишь ваши догадки.
Гугл просто тупо не понял о чём сайт и выплюнул, с подозрениями на дор.
Хотя бы тайтлы пропишите на сайте, т.к. они в глазах Гугла важнее контента на этих страницах.
Есть сайты без уника, без текста, без дескрипшина, с кучей ссылок (разумеется внутренних), оч.хорошо сидящие в выдаче долгие годы (больше 1M$ по семрашу в мес).
Willie, почти всё, что ты перечислил ) В чем может быть дело, м? ))
Ни один из ваших "сео-параметров" никак не виляет на выдачу.
Взгляните на них через опенсайтэксплорер и поймете, что по весу как мэш так и бизинсайдер, вернее страницы на них примерно равны. Странно, что по такому запросу ютьюб не 1ый... )
Вилли, количество страниц, даже поделеное на 10, не есть количество статей на сайте и это тоже не показатель ранжирования.
Смысл Гуглу обратно загонять трэш в чищенную выдачу? Если под автофильтр попал, то даже полная реконструкция сайта не поможет. Можно сразу забивать и топать на новый домен. А насчёт инструмента, походу в Гугле еще сами не разобрались как использовать это доп.средство мониторинга и анализа бэдлинков.
Уже столько времени прошло с начала этих фильтров, что даже ребенок поймет, что к чему, но некоторые всё равно надежды таят, что трафик на их ГС вернется.
Делайте нормальные сайты. Всё кругом разжевано, как строить сайты и за что могут наказать. Тут нет такого понятия как количество и скорость.
Только медленное и качественное продвижение - перспективы и залог успешного развития вашего сайта.
Очень интересный вопрос.
Поделюсь своим опытом:
auto.catalog.we лучше ранжируется, чем catalog.we/auto/ факт 100%
Заморачиваться очень даже стоит, если ваша семантическая ниша типа этой, а имя домена является ядром - главным ключевиком, вокруг которого вращается масса ключевых слов:
auto.insurancequotes.com/
health.insurancequotes.com/texas/
home.insurancequotes.com/texas/houston/
cheap.car.insurancequotes.com/michigan/detroit/ etc.
т.е. с помощью поддоменов мы делаем URLs с точными вхождениями, которые
всё еще работают и снижают затраты на продвижение.
Всё это дает заметные преимущества, но после последнего апдейта EMD заметил,
что повылетали слабые сайты с точным вхождением в URL более 4х слов.
Не проще посмотреть в WMT?
Обычный текст роли не играет. Роль играет тренд, о котором говоряд СМИ, авторитетные сообщества, соц.сети. http://google.com/trends/
В сеомозе тоже любят с мифами играть...
Кстати, по поводу мониторинга позиций в US гугле по разным штатам, я юзаю cox.com, пример:
http://ww2.cox.com/search/residential/connecticut/core/8955956176640128192/external.cox
В зависимости от посещения донора пауком Гугла. Бывает и в тот же день, бывает вплоть до месяца.