-Mouse-,
Я бы не заморачивался с этим разделением на коммерческие и нет сайты для google. Это разделение присутствует скорее в головах вебмастеров, которые придумывают потом всякие небылицы, и названия фильтров.
Интернет-витрина с каталогом товаров, но без возможности покупки и цен - это коммерческий проект или нет?
Когда конкуренты пожалуются, гуглу придется вообще перестать учитывать "хлебные крошки" и разработать специальный алгоритм, чтобы следить за текстами на сайте, чтобы никто не написал случайно "мы компания номер 1".
Трафа с серча нет, есть человек 5 в день с гугла по запросам + около 30 человек которые заходят напрямую через закладки с 2008 года.
Так а зачем тогда спрашиваете, если заранее уверены, что лучше не станет? :D
Вот у меня стало лучше - наверное исключение? :)
Если сайт уникальный, то санкции за переоптимизацию.
Санкции за быстрый прирост ссылок - это миф. Важно какие это ссылки и какой сайт. В фарме вылазят в топ сайты с тысячами ссылок в неделю на новый домен и никто не кричит, что это несраведливо.
Скорее всего, на сайте перебор ключевых слов, или не достаточно тематического контента для ссылок с такими ключами.
Есть еще варинт, что нельзя страницу оптимизировать для большого числа не связанных между собой ключевых слов. В идеале одна страница - одно ключевое слово и производные от него.
Спасибо за внимание к моему ноу-хау :). Как сделать уже написано. Единственное замечание, выбирайте графические символы, которые работают в большинстве популярных браузеров.
Для начала, все же стоит попробовать сделать это через Webmasters и посмотреть в логи сервера. Если вопрос только в боте-индексаторе, то он прийдет быстро. А если в сайте - то это другой вопрос.
Не зря же Google разрешает делать эту операцию ограниченное число раз в месяц для одного сайта.
https://www.google.com/support/webmasters/bin/answer.py?answer=1352276&hl=ru
1. Значит, нужно закрыть только для робота google в robots.txt
http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=93710&from=61050&rd=1
User-agent: Googlebot
Disallow: /
2. Добавить сайт в Google Webmasters, и запросить удаление сайта.
https://www.google.com/support/webmasters/bin/answer.py?answer=59819&hl=ru
Если другие страницы нормально себя чувствуют по запросам, то, возможно, это перебор с ключевыми словами на самой странице, или дубликат текста, или мало текста. Обновите немного контент, уберите половину ключевиков - через неделю должно вернуться. Если, конечно, на эту страницу не ведут 1000 внешних ссылок с одинаковым ключевиком :).
Надо добавить на всех страницах сайта
<meta name="robots" content="noindex,nofollow" />
Как раз через Webmaster Tools и можно:
Меню Diagnostics -> Fetch as Googlebot -> [нужный URL] Submit to index -> опция URL and all linked pages.
Бот будет в течении суток точно.
Попробовать стоит, не навредит точно.
И вообще этот +1 в выдаче вызывает большие сомнения :). Если человеку действительно понравился сайт, и он перейдет по нему из выдачи, то он уже не вернется, чтобы поставить +1.