pchol123, шутка про шамана хорошая:) Но, читал, что авторитетные буржуйские сеошники экспериментами выявили, что длинные урл хуже, чем короткие для google.
Ну, а ключ в домене это сильный фактор, как уже сказал burunduk, в выдаче примеров много. Я например, зарегистрировал несколько доменов на будущее, для возможных региональных клиентов.
Например, taxi-Имя-города.ru и другие. По запросу "такси Имя-города" топ1 без внешних, обгоняя сайты реальных местных такси. И таких примеров много.
Заказывал наполнение сайта-визитки - 9000 знаков. Тексты получил в обговариваемый срок 7-9 дней. Качеством доволен.
Заказывал постинг на форуме. Всё было выполнено быстро и очень качественно. Спасибо.
Не отсюда ноги растут? http://ymaps.ya.ru/replies.xml?item_no=1551
Похоже дата этой фишки 15 февраля http://clubs.ya.ru/company/replies.xml?item_no=23014
Кстати, данный топ10 может угодить интересам каждого, кто задает этот запрос. Так что тут даже Яндекс молодец, проблем с релевантностью нет.
Я с этим столкнулся в мае, кто-то на форуме уже писал, что он это видел ещё в феврале.
В моем случае это был заброшенный сайт с длинной простыней текста с высокой плотностью ключа, изменения по сайту не проводились, но данный эффект на сегодняшний момент исчез.
У меня тоже близко к этому, правда и минусы, и плюсы небольшие.
Ещё можно посмотреть на сайты клиентов ТОП-seo компаний. Где им представляется возможность поставить ссылку на себя, я думаю в любом виде. Bdbd например, в основном, ставит ссылки с ключом с главной и может ещё несколько ссылок уже с другими ключами с других страниц, видимо тоже продвигаемых и накаченных ссылочным.
А маленький рекламный баннер кнопку можно? Я бы это выбрал, всё-таки СМИ, может даже и трафик будет, плюс скорее всего Виц и со ссылки с баннера перетечет к вам.
Заказывал ТС логотип. Результатом очень доволен. Рекомендую.
Andreyolex, как вариант, я однажды отправлял знакомому текст для его robots.txt напечатав его в аське. Знакомый скопировал его и вставил в свой robots.txt. При этом внешне всё было правильно, но оказалось, что знаки перевода строки были какие-то нестандартные и Яндекс такой robots.txt не воспринимал правильно.