так в Гугле несколько роботов и чтоб запретить директорию
надо писать не просто
User-Agent: *
Disallow: /dir/
а отдельно для гугла
User-Agent: Googlebot
тогда не будет индексировать
Наоборот, если это главная страница и она часто будет обновляться, то и роботы поисковых систем будут чаще заходить на сайт
специально ПС по запросу опускать сайт не будет, но ведь конкуренты не спят и свои сайты тоже продвигают - могут ваш опередить :)
Если работаете в одном городе, то проще сайт привязать по региону к Севастополю, и НЕ надо будет в конце каждого урла указывать ....-v-sevastopole/
да, seopult поможет - заодно сможете там оценить внутреннюю оптимизацию страниц (теги Н1, b, em, плотность вхождения ключевых и т.д.)
Еще смотрите сервисы типа cyis.ru - там можно глянуть и возраст домена, и сколько внешних ссылок со страницы, и анализ контента ........
лучше покупать ссылки на НЕ проиндексированных страницах, чтобы текст и ссылка одновременно в индекс ПС попадали
А Вы когда регистрировались по профилям?
Надо ж дождаться апдейта PR и хотя бы 2 АПа Тиц - тогда и смотреть на результат
если это будет сайт-партнер, то лучше miralinks+"тематическое слово".ru
сразу по имени домена будет понятно, что Вы не воруете ТМ, не нарушаете авторское право, а сотрудничаете в определенном направлении
А еще указывайте количество кликов до статьи (1-2-3 клика), чем меньше, тем больше шансов, что кто-то найдет статью и прочитает
Этот АП БЕЗ "выкладывания текстового апдейта" - так что движения по сайтам явно будут не у всех