Хоть и давал себе слово не реагировать, но в данном случае не мог не поржать от души! "За забаненный домен"... здорово сказано! Не, ну правда.
Не "на сайте" ни в коем случае! НА СТРАНИЦЕ. Отказ идет не от сайта в целом, а только от его конкретной страницы. Гугол по этому параметру решает, насколько хороша эта, отдельно взятая страница, для посетителя. Из совокупности хороших для пользователей Интернета страниц слагается авторитетный сайт. Из тех, на которую юзер зашел, плюнул, развернулся и ушел, куда подальше, лишь бы этого убожества больше не видеть, состоят плохие сайты.
А вот те страницы, на которых пользователь задержался надолго, и после этого НЕ ПОШЕЛ задавать сходный поисковый запрос в Гугл, или НЕ совершил переход на сайт с релевантной тематикой (убирайте ссылки с nofollow!), ценятся очень высоко, невзирая на якобы "отказ". И клики по Адсенсу с них наиболее дорогие. Это называется "поведенческий таргетинг". Оно и понятно, почему так.
Если Вы не уверены, что посетитель задержится на Ваших страницах надолго - лучше уберите статистику Гугла: это палка о двух концах!
Да, я уже определился.
Я-то думал, что-то серьезное... а оказалось, "как всегда".
Сейчас подумал вот про что: а зачем, собственно, прятать что-то, тем более меню, от поисковых систем? Это оправдано в двух случаях:
1. Если страницы строго приватные (например, личная переписка пользователей). Но в таком случае помогает паролирование и разделение доступа, не так ли?
2. Линкопомойки и прочая непотребность. Но это совсем другой клинический случай.
Гугол рекомендует, для чего следует использовать ссылки с атрибутом NOFOLLOW, случай ТС сюда не входит - а, значит, так поступать не следует.
По поводу перекрытия отдельных страниц или директорий в ROBOTS.TXT (прямо относится к п.2, кстати): Вы в курсе, что Гугол, как и другие поисковые роботы, на основании Robot Exclusion Standard (стандарта по исключению поисковых роботов) имеет полное право их ПОКАЗАТЬ всем? Об этом так и написано в руководстве Гугла для новичков, в разделе про запреты роботов в файле robots.txt, если такой используется на сайте. Кстати, хотите посмотреть Матта Каттса, главного пропагандиста Google в борьбе с поисковым спамом? По последней ссылке он есть, как раз рассказывает на своем буржуинском языке по теме топика.
Так что думайте, прежде, чем создавать страницы, которые потом надо исхитриться запретить для роботов, а в случае неудачи удалять из Гугла!
Процент отказов решает ТОЛЬКО в совокупности с временем пребывания на странице, помните об этом! Если время большое, и при этом отказы велики - это верный показатель, что страница удовлетворила пользователя, и она будет котироваться высоко. В обратном случае (меньше 30 секунд) - уже плохо.
Тогда все уже успеют забыть, на каких местах видели статьи из Википедии. А это важно! Это сразу бы дало наводку на ответ: Гугол стал меньше учитывать траст, или что-то еще.
... если вообще что-то случилось, конечно (в чем я пока сомневаюсь) ...
P.S. А, хренушки! По ВЧ запросу проверил один свой сайт - второе место после Вики. Но у Википедии на эту тему лишь один раздел, а для моего сайла это слово одно из главных! Значит, версия не подтверждается. PR конкурирующих страниц равны, по контенту и коду моя лучше во всех отношениях, по ссылкам также перевес на моей стороне - значит, Википедия все-таки берет трастом.
Причем даже так: раньше (три дня назад и ранее, начиная с осени 2009-го) по этому ВЧ мой сайт был первым. А теперь вот так... изменилось в самое последнее время, не далее, как дня три назад. А сайтик-то трастовый в данной тематике, ТОП-3 по всем тематическим ключевикам.
Зато его коллега-блог на отдельном домене подтянулся на первую страницу, по этому же запросу (видимо, другие "крупняки" повылетали)! Это достойная компенсация за утрату ТОП-1 в пользу Вики.
У меня нет заказчиков и никогда не будет: я еще не выжил из ума, чтобы инвестировать свои силы в чужие проекты. Что и Вам советую, кстати: свои сайты работают даже тогда, когда Вы спите. И чужие тоже... но не на Ваш карман.
Создание и продвижение сайтов - это сейчас два НЕРАЗДЕЛИМЫХ понятия. Да, можно продвинуть корявый сайт, но такой ценой, что проще создать десять новых. С другой стороны, специфично-заточенный проект сам влетает в ТОПы без малейших усилий по раскрутке, ибо на фоне убогих да больных он смотрится Бэтменом.
Давайте делать если не СуперГероев, то хотя бы аккуратненькие, чистенькие сайты? И оно воздастся (Гуглом).
Сейчас я тоже такого не вижу. Но ведь было же! Наверное, это какой-то временный глюк, связанный с тем, что Вы говорите. Сейчас посмотрел несколько раз, попереходил со страниц на страницы - нет, все нормально.
Ну раз уж тревога оказалось ложной (но переброс БЫЛ, я Вас уверяю!), придется посмотреть сайт. Теперь я это делаю гораздо проще: я не расписываю во всех подробностях каждый нюанс, а для начала показываю на самые заметные недостатки. При этом опираюсь исключительно на руководство Гугла для web-мастеров.
1. Самое главное, что мешает Вашему сайту - это дублирование мета-описаний DESCRIPTION. Это противоречит тому, как Гугл видит составление мета-описаний в теге DESCRIPTION на страницах. Нарушена УНИКАЛЬНОСТЬ, за это страницы исключаются из основного индекса Гугла и не участвуют в поиске на общих основаниях.
2. Структура URL оставляет желать лучшего. Это НЕ критическая ошибка, подобная описанной в п.1, но ухудшает позиции сайта в Гугле. Потому, что в "Руководстве для новичков" Гугл рекомендует другой подход к URL-адресам страниц сайта - а именно, то, что называется "ЧПУ".
3. Оформление графики. Об этом надо говорить особо, отмечу пока лишь явное несоответствие тех картинок, что у Вас на главной странице, рекомендациям Гугла по оптимизации картинок и рисунков на сайте.
Полагаю, этого хватит на ближайшее время, чтобы поработать над сайтом. Недочеты перечислены в порядке важности, критический - п.1.
P.S. Есть интерес получить ссылку с Вашей главной странице на первый сайт в подписи. Взамен предлагаю ссылку со страницы, PR которой на единицу выше Вашего; условия более, чем честные!
Здесь: https://adwords.google.com/select/KeywordToolExternal
Руками. Автоматические запросы в Гугол прямо запрещены.
Сейчас единственный верный способ - долистать выдачу по сайту до конца. Если страниц больше 1000 - такого способа нет вообще.
Подозреваю, что это сделано умышленно, чтобы отвадить охоту применять SEO-инструменты, делающие автоматические запросы в Гугол (это запрещено самим Гуглом).