Должен сказать, что если влезли в конкурентную тему - то все еще только начинается... Вы "париться" будете без передыху: начнем с того, что на подходе к ТОПу (если такое случится) у Вас поворуют ВЕСЬ контент и растащут на сотни саттелитов. Если не отследите этот момент - падение будет ужасным. Говорю так потому, что, накурившись чего-то особенно прущего, влез в тему американского автострахования. Ну, сами понимаете, что это такое: там любой НЧ - это сотни тысяч запросов, а ВЧ - десятки миллионов. Как только дополз до второй страницы Гугла по сильным поисковым фразам - меня буквально порвали, как Тузик газетку. И это несмотря на то, что стоит куча самописных скриптов, которые создают фрагменты уникального контента. Ссылки же, которые я получаю естественным путем (порядка 10...20 в сутки) - ничего не стоят, а нормальная покупная ссылочка идет от $50 в месяц.
Так что вынужден огорчить: "париться" придется, да еще как! (Если тема и правда конкурентная)
В том же - в контенте. Почему я так думаю? Сейчас попробую объяснить... захожу на страницу "Обществоведение" и выбираю наугад фразу (попалась "В учебном пособии освещены экономические и неэкономические разделы программы дисциплины"), ввожу ее в поиск Гугла. По этой фразе находится куча ТОЧНЫХ совпадений с других сайтов. То есть, этот материал УЖЕ представлен в Гугле, причем теми же словами, что и у Вас. Спрашивается: ну зачем Гуглу показывать кучу совершенно одинаковых страниц в выдаче, когда их и без того много уже? Вот он и показывает самые авторитетные (по его мнению) из них, а остальные отправляет в "сопли".
Если же таких точных совпадений находится не много, то Гугл может показать и страницы из "соплей", то есть, те, которые считает не ценными. Но отношение к сайту в целом у него уже сложится: если на сайте много страниц, которые не представляют никакой ценности, поскольку информация с них уже есть в Интернете, если оригинальных страниц с уникальным содержанием мало - то такой сайт плохой, и не надо с ним считаться при формировании выдачи.
Я хочу сказать, что если бы Ваши страницы содержали контент, которого еще нет в Гугле - то шансы показаться, тем более по такому длинющему и явно не-конкурентному запросу были бы очень высоки. Если, конечно, страница оформлена надлежащим образом, с учетов его Руководства для Веб-мастеров.
Захожу в разделы сайта - что "Книги", что "Софт" - и вижу одно и то же: две строки текста и обилие мест, куда можно кликнуть, чтобы принести Вам денежку.
Поставьте себя на место поисковых систем: за эти две строки они должны ценить Ваши страницы?
Вы верно догадались. Если какой-то там Willie в три счета определил заимствованный контент - то неужели это не сможет сделать многомилллиардная корпорация Google, имея такие сервера в изобилии, что мне и не снилось?! Гугл выкупает не-уникальность на раз-два-три; другое дело, что в отличии от Яндекса, весь пар пускает не в свисток, а в дело.
Если все так, как Вы говорите - то НЕМЕДЛЕННО сайт на пересмотр!
Помогаем. Только знать бы, по каким именно ключевикам, и какие страницы должны попасть в ТОП-10. Ну сами подумайте: что можно посоветовать, не имея ни малейшего представления о предмете вопроса?
Напишите URL страницы, и поисковую фразу, по которой Вы хотите видеть ее вверху - тогда состоится конкретный, предметный разговор.
Значит, страница релевантнее "морды" по этому запросу. Совершенно нормальное явление: "морда" же наверняка заточена под все популярные запросы сразу по Вашей теме, а страница - под один конкретный вопрос. Это, кстати, самый лучший вариант выдачи: посетитель сразу попадает на целевую страницу.
Гугл, как правило, включает в выдачу две страницы сайта. Иногда они показываются одна стразу под другой, только с отступом.
Да элементарно! Нужно набрать поисковый запрос, под который заточена страница, и посмотреть результаты. Если же страница так глубоко, что ее трудно найти в выдаче, можно проверить так: "запрос site:мой_сайт/*". Гугл покажет странцы сайта, релевантные запросу, в порядке убывания релевантности.Так сразу будет видно, какие из страниц в основном индексе Гугла лучше других соответствуют запросу.
Давно не удалял; там Гугл сам подсказывает, что делать. Кажется (проверьте!), страница или раздел удаляются в три приема:
- убивается страница, чтоб возвращала код 404;
- страница закрывается в robots.txt;
- отправляется запрос на удаление.
В течении пары часов этот запрос обработают.
Обычно страницы сайтов формируются динамически, и подчас бывает непросто сделать, чтобы при удалении страницы выдавался код 404 - современные CMS, как правило, имеют код обработки 404-х страниц, который частенько отдает 200. Только из-за этого.
Вы же наверняка читали! Называется "Руководство для web-мастеров", или как-то так, на сайте Гугла лежит.
Совсем недавно была похожая тема, только там про Финляндию. Вот здесь посмотрите, часть ответов есть.