6 JS // ну почему не слить в один?
Ну со временем, если вам понадобится что-то на стороне сервера, допишите, та же отправка письма/заказа, подобие админки, но это обычно и не нужно показывать ПС.
А как при этом всём распространение nginx?
Тенденция типа не в сторону засилья серверных скриптов, а в сторону экономии серверных ресурсов.
Идеальны с т.з. клепателя сайтов, но не с т.з. правильности для ПС — о чём не думают создатели движков и сайтов (даже, если они яндексоиды и гуглоиды). Т.е. им надо что-то неприличное в урл дубля написать и показать это в таком месте, которое они обязаны читать, тогда лениво затыкают дырку.
Если не хотите индексации — сделайте это в отдельном JS файле и закройте его в robots.txt
Т.е. дор так долго не спрячете.
А лучше бы заглянуть в кэш...
Поиск JS кода начинается с
<script>var sch=,isdev=0;sch=0;sch=0;var yasr=new YagleSearch({ user:{
С этого он начал неправильно это понимать. Выше содержимое <script> не ищет.
Тема была /ru/forum/748289
А почему не домен/страница/ ?
Ну можно посмотреть на урл средних ссылок в навигационных цепочках, там спасает 301 на /
Вот нужно искателю site:ya.ru/login.xml ?
А если он при этом содержит дыры?.. возможность тех же дублей. Это лучше сайта на популярном двиге, в котором героическими усилиями многие дыры удалось заткнуть?
Ну давайте пример из родного отечества.
И охота вам гавно этих пиарщиков читать
А ещё хочется гарантий вечного и положительного влияния на ранжирование во всех поисковых системах — включая будущие.
А что, если вдруг выяснится, что надо было вкладываться в качество поиска, а не в бесполезные попытки?
ps И занимаются (в вашей стране) они не тем, что декларируют. И их явно раздражает конкретное напоминание, что именно отсталость технологии поиска является причиной всего ГСтроя и всяких нежелательных явлений. Им хотелось бы массового мнения, похожего на высказанное например вами... хотя оно не сможет избавить от давно торчащих проблем.
Доступность одного и того же контента по разным урлам — это вероятность неприятностей.
Предположим, что ПС умны... и по кривому адресу обращаются к серваку, на котором вот только что изменился контент. Умная ПС добавляет страницу в индекс, завтра конечно же выяснится, что это дубль морды/index.php ... но какая страница останется в индексе?
То, что такие/?неприятности есть на почти любой СМС — говорит о неспособности/нежелании их создателей выполнить требования, встречающиеся в хелпах ПС.
А ПС не умны, это боты — программы, софт, в котором вместо ума есть жёсткие условия. Можно предположить, что одним из препятствий для индексации является наличие какого-то % того же самого, что уже есть в индексе.
Более мягкие недостатки ещё чаще встречаются, например дублирующийся блок текста. Что в этом плохого? То, что ПС не умны... а дублей в www они могут почерпнуть бесконечно, и им приходится как-то эту проблему пытаться решать, иногда с издержками (причём ПС не может разобраться с чем она боролась — с дублями или со свойством сайта).
Поэтому, если на страницах много дублирующегося по сайту, а объём контента на странице не велик, а сайт молодой... ждите проблем с индексацией. Создатели движков этой проблемы не видят, её приходится разруливать отдельно в каждом конкретном случае (а о том, что могут предложить программеры, даже и подумать страшно).
Пользователь CMS должен быть вебмастером + оптимизатором + программером (которые и выиграли материально... от всех этих попыток “облегчения” создания сайта).
Проблемы с дублями начинаются ещё от серваков...
http://www.yandex.ru/all
http://www.yandex.ru/all/
http://www.google.com/intl/ru/instant/index.html
И нормальному вебмастеру настроить всё правильно — трудно/долго/(а зачем это всё?)
А у сеошников файлы в папках http://www.bdbd.ru/seo/newseo/index.html