А в Макитасс? 🤪
По роботсу быстрее на порядки.
Потому что журнал Хакер знает, что основное назначение robots.txt – массовая фильтрация хакерами сайтов с нужной CMS.
Именно. Как был корень, так и остался. Хоть с одним слэшем, хоть с десятью. Редирект с внутренних страниц важен для устранения дублей, потому что site.com/page и site.com/page/ – разные страницы уже по той причине, что при физической адресации /page/ – это каталог, а /page – файл. И в первом случае фактически будет читаться индексный файл. Поисковику неведомо, что там на сервере реально: файлы или ЧПУ, потому и выдаёт дубли. В случае же site.com – это корневой каталог, сколько сэшей ни ставь. Некоторые, конечно, заморачиваются этим, но на мой взгляд, в данном случае это лишние телодвижения.
Vasilisa_80smm, ничего не надо делать. Редиректа с корня на корень не бывает.
А чо, так можно? 😮
При чём тут библиотеки? 😕 Поболтать захотелось?
Хороший код должен быть оформлен так, чтобы его удобно было читать. А от твоего кода выворачивает. Потому и говнокод.
Никакая это не логика. Это манера. Хреновая.
Чекбокс не для этого служит.