Неделя - это, по-Вашему, долго для Гугла? Изменения кэша можно ждать порядка двух недель на довольно-таки посещаемых страницах, а на слабо-посещаемых - и до месяца. В пределе - три месяца.
После изменения кэша должно пройти еще два...три АПа выдачи по Вашим словечкам, прежде чем страница окончательно "устаканится" в поисковой выдаче. Если у Вас ключевик, по которому смотрите, был раньше и остался сейчас в TITLE, то каких-либо принципиальных перестановок в СЕРП не должно произойти.
Страница на самом деле не самая лучшая, Вы правы, но и самая худшая. К слову, ставить несколько H1 по стандарту HTML не запрещено; но при этом заголовочный вес будет делиться между этими заголовками.
На сайт показало чуть больше 200 ссылок, по виду - покупные, несколько со страниц с ненулевым PR. Но вот когда я стал смотреть позиции по запросу "воздушние компрессоры" в google.ru, я не обнаружил этого сайта на первых трех страницах. В google.com.ua - тоже (правда, я смотрю из Москвы). А по какому запросу Вы его видели в ТОПе?
Проверить, как работает внутренняя оптимизация, достаточно просто. Мне сдается, что попасть на первую страницу в Гугле по запросу "воздушные компрессоры" можно только за счет нее. Применение же внешних ссылок никак не противоречит внутренней оптимизации.
Спрашивал про трафик чисто из любопытства: интересно стало, сколько посетителей может собрать подобный сайт в этой теме.
Мне кажется, что самый главные резерв, который есть и не используется - это внутренняя оптимизация. Посудите сами: тема конкурентная, внешних ссылок у Вас крайне мало, и они вовсе не супер-качества. То есть, за счет ссылочного ранжирования "продавить" Ваши запросы в ТОП не получится точно - или выйдет слишком дорого, если начнете закупаться ссылками.
А вот за счет приведения страниц в образцово-показательный вид, близкий к идеалу - можно. Сейчас в поиске Гугла у Вас участвуют лишь 13 страниц, они могут давать какой-нибудь трафик. Остальные - увы, бесполезны. И это никакая не конкуренция или еще что! Это чисто внутренняя проблема, которая появилась на этапе дизайна (верстки) сайта. Это очень распространенное явление: разрабатывается сайт совершенно без учета, как его потом продвигать.
Первое, что бы я сделал - это очень плотно поработал бы с HTML-кодом страниц. Добился бы, чтобы страницы сайта содержали лишь то, что полезно для раскрутки, а все остальное назвал бы мусором и безжалостно уничтожил. Цель - добиться, чтобы большая часть страниц попали бы в основной индекс Гугла и стали собирать трафику по тем запросам, пусть даже НЧ, под которые они заточены. Иными словами, сделал бы то, что МОЖНО продвигать.
Вторым делом, после приведения всего сайта в божеский вид, я бы выбрал одни какой-нибудь запрос, средней силы, и попытался бы поставить его на первую страницы выдачи. Для этого, возможно, пришлось бы создать несколько страниц под него, слинковать их таким образом, чтобы они помогали друг другу подниматься.
Скорее всего, пришлось бы обратиться и к внешним ссылкам, но это уже третье дело, по результатам того, куда попала страница чисто за счет внутренней оптимизации.
Я хочу сказать, что существует всего лишь два метода воздействия на позиции сайта: внутренние (SEO) и внешние (ссылки, пиар). Если тематика достаточно конкурентна, как в Вашем случае, то пренебрегать любыми, даже мелкими факторами ранжирования, не стоит. Если для этого требуется переделать дизайн, перенести сайт на другую платформу или что-то еще, что обычно пугает веб-мастеров до трясучки - не задумываясь, я бы это сделал. Критерий внутренней оптимизации прост: надо открыть код и, глядя на каждую его строчку, ответить на вопрос: можно ли ее улучшить еще?
Да, мы про этот сайт говорили. Я тогда не был уверен, что это фильтр, потом посмотрет поподробнее, и Вы оказалались правы: фильтр чистой воды!
Это было не менее двух недель назад; к тому же ТС до наступления этой неприятности еще какое-то время ждал. Я к тому, что вариант "подождите недельку" не прокатит: джать придется отмены санкций, а это может быть очень долго.
В нынешнем состоянии в сайте нет ничего такого, за что бы Гугол мог так сурово покарать. Может, в прошлом было какое-то действие, которое внешне безобидно. или случайная ошибка, которую Гугол трактовал как грубое нарушение и наложил санкции.
=================
В качестве примера приведу ситуацию, когда на одном молодом сайте был поставлен "сквозняк" в подвале на другой молодой сайт. Ссылка простояла дня три, потом была снята. Этого хватило, чтобы на месяц с небольшим трафик с Гугла обнулился. Потом в течении буквально двух дней все восстановилось. Года три назад попадал в ситуацию и похуже: домен в DMOZ и с PR=4 (как понимаете, никак не нулёвый) был выброшен из индекса насовсем, за пол-года не восстановился и был заброшен. Единственная причина, на которую грешу - на сайте генерировалось великое множество URL-адресов (проблема сессион ID). Когда в Гугол попало 65 тысяч таких "страниц", наступила кара.
Разумеется, учитывает! Учитывает двояко.
1. Страница, на которой стоит внутреняя ссылка, запросто может найтись по анкору. Особенно, если это главная страница сайта.
2. Слова из анкора имеют больший вес на странице-доноре. Особенно, если на нее ссылается главная страница.
А вот сказать количественно, на сколько этот самый "вес" больше, вряд ли, кто сможет. Чем тематичнее - тем вес больше, это общая закономерность.
Потому, что "подвал" - это самое последнее место, которое видит посетитель. Это понимают все, в том числе и алгоритмисты поисковых машин. Если веб-мастер хочет, чтобы на что-то обратили внимание - разве он станет помещать это в такие места, которые просматриваются в последнюю очередь?
Ссылки в подвале - это всегда плохо; внешняя ссылка в футере - очень плохо. Несколько внешних ссылок в подвале - СМЕРТЕЛЬНО опасно.
Ни при каких условиях на новый сайт не будет трафик 100 уников в сутки на второй день! Даже если принять в учет рекламный трафик - все равно не получится. Враньё это!
Если не секрет - какой трафик сейчас у Вас на сайт? Имею в виду поисковый.
Если решили делать его автоматически (как, в принципе, все мы и делаем), то учтите три момента:
1. В самом начале (примеро 150 символов) вставьте начало контента. Соответственно, ВСЕГДА пишите в начале текста "фразы-завлекалочки", чтобы люди охотнее переходили. Разумеется, с использованием МОРФЛОГИИ (словоформ) от основного ключевика. Точное вхождение будет в п.2.
2. Сразу за этим - текст заголовка. Это затем, чтобы все важнейшие ключевые слова попали и в DESCRIPTION. Именно поэтому в п.1 лучше использовать словоформы.
3. Дальше можно применить вольную автогеренацию теста. Все равно это никто из пользователей не увидит, а уникальность обеспечит.
Сорбственно, все.
Нет. Его надо сделать уникальным для каждой страницы.
Это достаточно трудный случай. Как говорится, "по определению". Подумайте сами: люди размещают на Ваш сайт статьи для того, чтобы продвинуть свою собственную страницу, а не ту, которую они создают при этом на Вашем сайте.
Почти наверняка львиная доля размещенных статей - или копипаст, или машинный синонимайз, очень слабенький. То есть, получается, что на каждую Вашу статью в Интернете имеется несколько, которые заведомо сильнее.
Из каталогов статей нормально показываются в Гугле лишь самые-самые именитые. Остальные безусловно проигрывают тематическим сайтам. Потому и говорю, что случай тяжелый.