Теоретически должен. Но когда это произойдет на практике, сказать сложно. Я попытался склеить через директиву хост месяц назад (в смысле, тогда внес ее в роботс.тхт). Через три недели из индекса полностью повылетали все алиасы кроме ...ком.юа без дабиков (в директиве хост был указан домен с дабиками:)). Видимо, зеркальщик решил, что каталог Я круче, чем моя директива:) По исходникам было примерно так: проиндексированных страниц на алиасах ком.юа (с дабиками и без) было примерно по 20К, на киев.юа - 50К. И вот уже две недели наблюдаю за резким падением трафика с Яндекса. Сейчас чуть-чуть подрастает, но очень медленно.
Если радеете за трафик, лучше поиграйте редиректами. Тем более, что их понимают все поисковики, а не только Я
Перед User agent: Yandex нужен дополнительный пробел, иначе роботы попытаюццо это тоже как директиву понять. Ну и я б не стал закрывать от индексации разделы, о которых роботы не могут знать - к примеру, на админ на сайте вряд ли есть сцылка... Ну и не надо, наверное, всему интернету знать о том, что есть такая папка. А использование директивы хост зависит от цели, которая преследуется. Сайты склеются, когда зеркальщик заглянет. Трафик с Яндекса практически гарантированно упадет, поскольку директива хост его роботом воспринимается как директива "/" на неосновных алиасах/зеркалах
Ну, с оптимизацией под рамблер у меня пока особо не сложилось:) Трафик минимально возможный. Хотя после того, как расставил на страницах тамошние счетчики, увеличился в 10 раз. С 7 до 70 обращений:)
bondarev.pp.ru, я, наверное, все же не буду прислушиваться к совету Платона Щукин:) Через пару месяцев буду продвигать новый домен - обзавелись просто ...юа без киева или кома. Пока склоняюсь к редиректам. По всей видимости, к 301. По крайней мере, на блоге Гугля говорят, что лучше использовать его, а не ставить на какое-то время 302. Яндекс же ж тоже понимает... Но у меня ситуация как для этого форума немного особая - трафик с поисковиков важнее, чем ключевики, потому как сайт медийный. А с директивной хост трафик с Яндекса схлопнулся в 3 раза. Сейчас немного восстанавливается, но очень медленно. Директиву хост, конечно, оставлю, но на будущее крест на ней стоит жирный:)
bondarev.pp.ru, даже не пытаюсь спорить. Тем более, что в одной из соседних веток мы с Вами уже обсуждали директиву хост:) Я, собственно, на своем сайте сейчас только тыкаюсь потихоньку и делаю выводы. По поводу склейки сделал один простой вывод: использовать нечто, понимаемое одним, пусть даже весьма уважаемым роботом, нецелесообразно. Гораздо лучше вносить изменения так, чтобы их понимали ВСЕ основные поисковики. И кстати, далеко не факт, что файл роботс.тхт, содержащий
User-agent: *
Disallow: /папка/
Host: ццц...ком
будет валидным для всех роботов. А многие люди не выносят директиву хост в отдельные указания для робота Яндекса
От так от и рассматриваю кучу всяких интересностей. Многое нравится:)
О как:
http://www.rambler.ru/doc/add_site.shtml
Там много всего. И про счетчик, и про мета-теги, и про регистрацию
Наверное, можно и про сцылки найти
Еще лучше - не балуйтесь с директивой хост. То, что запретите, надолго вылетит из индекса, а насколько быстро проиндексируется то, что позволите, - только Самому известно. Единственное преимущество директивы хост - довольно быстро все клеится. Лучше поиграйте с редиректами. А для начала посмотрите, не склеил ли Яндекс все это безобразие без подсказок
А у меня работает. С експлорера глючил, а в файрфоксе работает... Тупит, правда, но стараеццо:)
Это вопрос к приличному программеру, который разбираеццо в том, на чем написан сайт. Наверное, к бесплатным хостингам это тоже прикручиваеццо, но я - не программер, поэтому извините, посоветовать ничего не могу
Ребят, не ссорьтесь:) От:
Don't use "&id=" as a parameter in your URLs, as we don't include these pages in our index. То есть, "Не используйте &id= в качестве параметра вашего УРЛ, поскольку мы не включаем такие страницы в наш индекс". Сперто с http://www.google.com.ua/support/webmasters/bin/answer.py?answer=35770&topic=8521