ни о чём не говорит ;) что бы просочился мусор директива Disallow: /tser.html могла отсутствовать ранее (даже только пару дней по ошибке).
мусор в дополнительном индексе гугла торчит годами (ведь адрес отдаёт 200, хотя и 404 отваливаются у него очень не быстро), только вот не участвует в ранжировании. ну и никто не мешает всю эту пачку левых адресов разом удалить из индекса руками, кстати.
ну а сниппет честный гугел по ходу дела удалил сам в подтверждение текущего заперта индексации, всё легитимно...
не закрытая от индексации страница результатов поиска? ;) это не баг системы, это кривые руки админа. ситуация уровня "домена с и без www" - CMS должна и это отслеживать?...
вы не уловили засаду в поставленной задаче 😂 на самом деле скрытый посыл звучит как то так "покажите сайт, который гарантированно не выдаст одинаковый контент на нескольких выдуманных кем-то вариантов урла", если такие урлы придумать можно (в доказательство обычно приводится список урлов с кашей из левых параметров) - всё, приговор "система плодит дубли" адназначен. факт того, что такой урл станет реальный дублем, только после его попадания в индекс скромно игнорируется.
ЗЫ: кстати, прекрасно индексирумые AJAX сайты с хеш-навигацией бьют этот постулат влёгкую (в роутере паттерн хеша требует строгого соответствия) ...
ещё раз надо повторить то, что тут уже не раз озвучивали? ок: это "обсуждение" запоздало лет на 10 минимум, тема давно стала банальностью с сотнями надёжных системных и независимых реализаций с многолетней историей...
богоносец, со всем уважением, но ваша зацикленность на поиске "урлов-дублей" иногда выглядит как затянувшийся стёб над нубами.
главное, что бы система сама не плодила адреса дублей и не подсовывала их ботам, это необходимое и достаточное условие защиты от дублирования контента. предположение, что "завистники и зложелатели" начнут тратить время и ресурсы специально засовывая в индекс ПС какие-то особо хитрож*пые ссылки на "мой любимый СДЛ" суть не более чем оторванная от реальности паранойя...
угу, кто бы сомневался.
но вот если получаемый броузером код самой "пушки" весит меньше 7 Кб (Backbone)? заодно обеспечивая хеш-навигацию и поддержку MVVC? видимо тоже нафиг - из принципа свой костыль нацарапаем, пусть кривой и огромный, но свой...
а может стоит заняться самообразованием, перед тем как кидаться решать примитивные задачи? ознакомиться с существующими решениями, что бы не создавать заведомо кривой клон уже существующего решения?
если вы считаете, что функциональность CMS/фреймока целиком заключается в "инклудах" контента, то с образованием точно беда. задача которую вы перед собой поставили очевидная и абсолютно частная, мизерный кусочек требуемого функционала.
сначала попробуйте просмотреть пару популярных js-фреймворков - Dojo, YUI, Backbone и т.п. ваша "фича" давно и надёжно реализована разными методами с разной степенью изящества.
хотя можете сразу залезть в AngularJS - крышу сорвёт, но возможно поймёте, что не стоит тратить время на "игру в песочнице", а эффективнее заняться изучением накопленного другими опыта...
а ты тему создал, что бы исключительно советы дебилов получать? 😂 это смелый ход...
если появляется вертикальный скроллбар браузера, то он откусывает кусок ширины окна в котором центрируется блок с контентом, поэтому и дёргается. лечится :
html { overflow-y: scroll;}
для всех страниц (т.е. всегда показывать вертикальный скроллбар, даже когда он не нужен)...
Выдумывать велосипед стоит только для саморазвития. Сильные команды уже реализовали всё необходимое (и более того)...