azartan

azartan
Рейтинг
67
Регистрация
25.11.2010

так в Гугле несколько роботов и чтоб запретить директорию

надо писать не просто

User-Agent: *

Disallow: /dir/

а отдельно для гугла

User-Agent: Googlebot

Disallow: /dir/

тогда не будет индексировать

Наоборот, если это главная страница и она часто будет обновляться, то и роботы поисковых систем будут чаще заходить на сайт

специально ПС по запросу опускать сайт не будет, но ведь конкуренты не спят и свои сайты тоже продвигают - могут ваш опередить :)

Если работаете в одном городе, то проще сайт привязать по региону к Севастополю, и НЕ надо будет в конце каждого урла указывать ....-v-sevastopole/

да, seopult поможет - заодно сможете там оценить внутреннюю оптимизацию страниц (теги Н1, b, em, плотность вхождения ключевых и т.д.)

Еще смотрите сервисы типа cyis.ru - там можно глянуть и возраст домена, и сколько внешних ссылок со страницы, и анализ контента ........

лучше покупать ссылки на НЕ проиндексированных страницах, чтобы текст и ссылка одновременно в индекс ПС попадали

А Вы когда регистрировались по профилям?

Надо ж дождаться апдейта PR и хотя бы 2 АПа Тиц - тогда и смотреть на результат

если это будет сайт-партнер, то лучше miralinks+"тематическое слово".ru

сразу по имени домена будет понятно, что Вы не воруете ТМ, не нарушаете авторское право, а сотрудничаете в определенном направлении

А еще указывайте количество кликов до статьи (1-2-3 клика), чем меньше, тем больше шансов, что кто-то найдет статью и прочитает

Этот АП БЕЗ "выкладывания текстового апдейта" - так что движения по сайтам явно будут не у всех

Всего: 243