один мой полностью динамический сайт в первой десятке по некоторым очень конкурентным запросам, и на первой, второй и третьей странице - в гугле. Так что динамика со всеми вытекающими отсюда урлами индексируется превосходно. Но. Если бы роботы умели заходя на страницу делать там некие действия (например, выбирать значения из выпадашек и генерировать таким образом страницу) то проиндексированных страниц были бы просто миллиарды, что наверное не есть хорошо. Но это действительно по рунету, по загранице что-то все дается с большим трудом, что печально.
робот прекрасно ходит по ссылкам, сформированным с помощью скриптов на php, но сам запросы не формирует, например если страница генерируется в зависимости от действия пользователя
если упадет сервер целиком, то и домен и поддомен упадут и вообще все, что там есть
на мой взгляд, если разделы небольшие, то лучше выносить в отдельные папки, зачем плодить мелкие поддомены?
у меня есть на поддоменах 3 уровня как и отдельные самостоятельные сайты, так и разделы основного.
ищу по словам в каталоге сайт1.основной_домен.ру - сайт находится но из каталога выкидывает в поисковик, ищу основной сайт в каталоге - находится в каталоге.
а вот когда ищу сайт2.основной_домен.ру в каталоге по словам - мой не находится, а если искать по имени - то опять же кидает в поисковик.
у меня один ресуср рускоязычный - там все гуглы вместе взятые + msn и т.д. имеют около 12% - остальное яндекс и рамблер
а на том же англоязычном ресурсе - яндекс+рамблер+майл имеют 10% на всех, 90% - всевозможные гуглы, яхо, msn
оба сайта в зоне Ru
http://www.webmascon.com/topics/adv/8a.asp
ясное дело, даже и не пытаюсь спорить ;)
стучать, стучать, стучать - помогает 😂
наверное, нужно попробовать, что это за птицы такие - анализаторы
www.tyndex.ru однако
😮