Деточка, что такое ты "палишь", если не врубаешься даже в очевидные вещи:
* "нормальная карта" - это просто обычная HTML-страница для юзеров, XML - авторитетный источник для спайдеров… и они могут не совпадать
* CSO внутри sitemap.xml не разрешен, и внешние/чужие урлы будут просто игнорироваться, даже если есть:
* "Странные" ссылки в статьях никак не связаны со странностями sitemap и являются совершенно отдельным вопросом "кто, как, почему?"
PS: Когда же наконец у детей закончатся каникулы и они пойдут в школу... дождаться бы
Он не торт, и для себя у себя я его не пользую. Но на
- обычном шарике
- в качестве отчуждаемого решения, доступного в поддержке даже одомашненному примату уровня гит-боя
- для простейшей задачи линейного изменения данных с документированием изменений
вполне допускаю. Я же не фанатик (в отличие от тех же гитбоев) и если это работает "из коробки" - то зачем искать еще что-то
Нет, не изобретаю, а решаю задачу "удобного обновления информации технически непродвинутым пользователем доступными ему простыми средствами". В офис на 5-10 продаванов громоздить Jenkins и "все дела": що занадто - то не здраво. А так - ломаться нечему ("простейшие не болеют"), все счастливы и совсем незадорого (в отличие от Jenkins-ноды и всего-всего по канбану и скраму) ---------- Добавлено 07.01.2020 в 16:59 ----------
Нет. Особенно если вспоминать что есть MySQL_concurrent_connections, лимиты у хостеров, форканье процессов нещадное... и сайты, которые под нагрузкой ведут сильно хуже, чем без нее - даже на сильно боевитом железе (особенно если и мускуль с настройками "из коробки") ---------- Добавлено 07.01.2020 в 17:01 ----------
И то она умудряется иногда еще и на ребро встать
Що занадто - то не здраво... Или "Co za dużo, to nie zdrowo!" от шляхетского паньства
RDMS нужна только тогда, когда нужна
Перестаньте уже, думая о Яндексе (а ЦА этого отзовика/обзорщика - яндексовая), фапать на ссылки.
"Нашлось 76 тыс. результатов" - вполне убедительная цифра
Все может делаться через админ-панель, если быть уж совсем точным: в Grav, скажем, административный интерфейс это такой же плагин, как и остальные, и его даже может не быть. В прочих Markdown-CMS примерно так же: хочешь не разрешать лишнего - научи класть правильные файлы в правильное место, и все ---------- Добавлено 07.01.2020 в 14:23 ----------
Вдогонку - расскажи это суровым математикам/химикам, у которых нет проблем (даже ручками) записать их суровые многоэтажности правильно даже просто руками в Tex|LaTex, а в этих ваших HTML-визифигах их ожидает литовский праздник "обломайтис".
Или автору статьи, у которого микс из нумерованных-ненумерованных списков на несколько параграфов каждый с 4-5 уровнями вложенности (и стиль оформления и непрерывность нумерации он хочет сохранить "как у меня в Word")… ох и намаялся уже я с этим в ВПшном Гутере, а потом и в классике
1. В некоторых системах некоторым конечным исполнителям - да, сложнее (см. "Гутенберг", "блондинка-секретарша", "гуманитарий эксперт в своей области" etc). Я за свою жизнь видел массу страниц и сайтов в итоге, загубленных реактивными пользователями визивиговых HTML-редакторов, кторые неумеренным злоупотреблением цветов, стилей, размеров и разных шрифтов превращали страницы в нечитаемый первичный продукт
2. FTP - только у тех, кто не умеет иначе (или как у меня лично для себя - не умножает сущности сверх необходимого). У сапиенсов (к коим вы, любезный, можете быть причислены с трудом, т.к. вид "cercopithecus lamer ordinarius" отделяется последними исследованиями биологов и этологов от вида homo sapiens sapiens) давно придуманы абстракции и методы, прячущие ненужные технические детали - WebDAV там, с монтированием вебдавов локально, SSHFS, etc. У меня сейчас, к примеру, в неторопливой разработке для Grav - процесс чисто десктопной работы с контентом (да, флатфайлового с Маркдауном) на базе визивигового MD-редактора (пока выбор не окончательный - то ли MarkdownPad, то ли MarkText) и Гита (Гитхаба с его вебхуками), где процесс в оконцовке вообще будет
* Открыть локальный файл
* Отредактировать
* Сохранить
а под капотом после сохранения делается коммит в локальную репу, пушится на гитхаб, оттуда пуллится репом сайта и обновляет измененные страницы сайта. При изменении страниц на стороне сервера - обратное направление распространения изменений. Внутреннее версионирование документов у некоторых CMS есть, но - у некоторых, внутреннее, местами сильно ограниченное в возможностях
Если немного поинтересоваться вопросом, то для тебя, чудо, будет surprise - большинство (если не все из активно живущих сейчас Flatfile CMS) были начаты разработкой в десятые годы, когда хостинги с MYSQL уже давно не экзотика, а фактически "стандарт услуги". И мотивация создателей и ЦА чуть более другая, чем "CMS для нищебродов" (о сугубой ошибочности такого целеполагания я писал в первом своем посте, или втором, в этом топике), то что вы, милсдарь, ее не видите - это исключительно проблемы ваши и вашего кругозора
Аналогично - не перестаю удивляться (кому/чему?) тупости агрессивных ламеров, не выучивших даже родного языка, но "имеющих мнение" и уверенных, что именно их мнение единственно верное. Как правильно отмечал Aisamiery, если не ошибаюсь - эффект Даннинга-Крюгера в полный рост
Нормальным, чтобы
1. увидеть код на Ц, когда обсуждается Питон
2. Предложить нормальное решение, а не порожденное "разрабами" с тазоплечевой аномалией. Где обоснуй против тернарника?
OMFG! там один Type conversion (ненужный)
Формально - да, хотя форсится его новый проект FlexType
Я был совсем не в курсе и вышел на Флекс другим путем
0. Вы меня чрезвычайно обяжете, если не будете в дальнейшем называть вашего прямоходящего примата "программистом", он "прогер" или "разраб" по-модному, программист из него - как из колбасы телескоп
1. Если вам не нужны какие-то виды страниц в индексе, надо всегда делать две вещи (как минимум)
- запрещать их индексирование в robots.txt
- обеспечить их непоявление (на контролируемом сайте, дикую Сеть вы естественно контролировать не можете): если нет (открытых) ссылок, то ПС не имеет никакой возможности догадаться об их наличии
Оба эти пункта - не выполнены
2. Любые проиндесированные урлы можно (запросить) удалить из индекса, в ЯВМ это точно, даже не заглядывая скажу, в GSC - "где-то есть"
3. Сайтмап надо переделывать (потому что там море не ЧПУшных урлов), генерацию каноникалов - желательно (чтобы даже случайно чудом залетевший бот не индексировал https://air-smile.ru/index.php?route=...)
4. Просканировать весь сайт на предмет пропущенных линков index.php?route - и поправить на правильные
PS: Funny, но про "Модуль Progress SEO-URL" ПС не знают ничего.
Это все равно вика, и выкручивать ее под статейник-новостник - некая форма извращения, ящетаю