Я бы даже сказал больше - говносамописная, ибо 🤣
если бы передо мной стояла такая задача - сделал бы так, как написал выше
Была когда-то аналогичная ситуация, форум отдавал главную страницу по двум адресам: '/' и '/index.php'. Планировал урлы расклеить и воткнуть портал с '/', а главную форума оставить на '/index.php', но в конечном итоге охладел и забил..
Скорее всего - да. Только если в robots.txt запрещено индексирование документа, то робот вряд ли его прочтет и, соответственно, вряд ли увидит разрешающий мета-тег :)
Мета-тег robots имеет более высокий приоритет, чем настройки индексатора или директивы управления, заданные в файле robots.txt. (c) Yandex
Да был у меня модем, только не 14400кб, а 14.4 кбит/сек - никаких проблем выкачать страничку не существовало - отключаешь в браузере картинки, несколько секунд - и готово. 🙄
в 90-е годы utf был настолько экзотикой, что его даже официальные релизы линуксов (точнее, софт, который с системой прилагался) поддерживали крайне криво, если точнее - кривизна даже сохранялась и в первые годы нашего века. Работать с ними могли только большие любители гимора, а самое главное - преимущество по сравнению с однобайтовыми кодировками одно-одинёшенько: возможность гордо впихнуть на веб-страничку третий язык (помимо русского с английским) - а оно надо? Проблем же пропускной способности каналов для текстовых страниц в 90-е никогда не существовало, я уже не говорю о том, что gzip при отдаче использовался уже вовсю. Основной трафик, что тогда, что сейчас создают двоичные файлы, но никак не текст. :)
Теперь же на утф большинство переходит по той же самой причине, по какой в свое время не хотели переползать - во избежание гимора.
Вот так, на пустом месте рождаются легенды. ASCII кодировка создалась за десятилетия до появления слабеньких каналов связи. Создавалась американцами и для американцев, и их вообще не парило наличие других языков. Даже в первой половине 90-х, когда в России уже функционировали коммерческие интернет-каналы, большое количество сетевого оборудования (почтового) резало 8-й бит при передаче данных. Чтобы использовать однобайтовый национальный алфавит и прочие бинарные файлы, придумывались всякие перекодировщики в ascii типа base64 и uuencode - которые совсем не короче utf8. Таким образом, скорость здесь вообще ни при чем. Просто такая логика исторического развития.
а китайцы-то не знают об этом 😕 даром, что у них используются 3-4 байтные символы utf8
ну, яндекс года три назад тоже подобным образом глядел на мир, скриншотец сохранился :)
1) в самом низу индекс - при отсутствии в адресе улицы и номера дома - лишний раз подчеркивает, что никакого офиса/студии нет, я бы индекс убрал
2) страничка контакты
если я ничего не путаю - в оффлайн скайп сообщение не дойдет, это не ася
3) код не валидируется
а так в целом - нормально, никакого внутреннего отторжения у меня сайт не вызывает