- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
если ошибок нет - сайт тупо проще поддерживать
А если говорить не штампами, а конкретикой? В чём заключается поддержка и легче/проще, если в одном месте страницы нагенерится <br> а в другом <br />? Если в одном месте есть закрывающий блочного тега, а в другом нет? Если часть кода в доктайп HTML5, а вставленный (скопипащенный) блока в HTML 4.01? А transitional.dtd и xhtml1-strict.dtd? 🍿
Таки нет! Проще не вылизывать в угоду валидаторов. Это лишняя, ненужная работа. Лучше заняться более продуктивными вещами.
mendel, SeVlad, наверное ни разу не пробовали работать с dom в объёме всего сайта, когда надо генерировать анонсы/превью/фильтры... из существующей разметки
когда надо генерировать анонсы/превью/фильтры... из существующей разметки
И этот человек запрещает ковыряться говорит по простоту решений :)
Зачем делать СВОЙ сайт, так коряво, чтобы потребовалось парсить dom. Почему не сделать сразу нормально, чтобы любые данные можно было получить независимо от верстки конечной страницы?
Ида, Лех, "в объёме всего сайта" делать не нужно, даже если где-то вёрстка с разным доктайпом. Софт массовой замены в текст файлах (с поддержкой регулярок) спасёт даже упорных htmlщиков:)
Я использую, иногда полезно. Например, те же alt можно просто где-то забыть дописать. Один раз валидатор подсказал, что у меня title два раза выводится :)
mendel, SeVlad, наверное ни разу не пробовали работать с dom в объёме всего сайта, когда надо генерировать анонсы/превью/фильтры... из существующей разметки
Да пофиг. Если дерево живое, то все остальное по барабану.
Не закрытые дивы и прочие чудеса нужно исправлять, и в этом валидатор помогает.
Иногда какой-то тег остался от копипаста по ошибке, и это тоже иногда можно увидеть. Например если он в неродном месте. Но вылизывать - глупо.
Тот же bootlint если ты используешь бутстрап - и то важнее.
Нет, я сам иногда правлю незначительные замечания если этот код многократно вызывается на странице и замусоривает выдачу валидатора, но гоняться за парой ворнингов глупо.
Еще раз повторюсь. Если у нас валидный XML, лишних тегов не валяется, и выглядит оно правильно (совпадает с макетом), то и пофиг.
Зачем делать СВОЙ сайт, так коряво, чтобы потребовалось парсить dom. Почему не сделать сразу нормально, чтобы любые данные можно было получить независимо от верстки конечной страницы?
криво это нагружать сервер и бд, вместо нагрузки клиента ;)
Софт массовой замены в текст файлах (с поддержкой регулярок) спасёт даже упорных htmlщиков
опять же полностью кривое решение - не пользуюсь даже на голом html
изначально архитектура должна быть построена таким образом, что бы в этом не могло возникнуть потребности
Еще раз повторюсь. Если у нас валидный XML
ну да если валидный xml - то вылизывать там точно нечего ;)
Если у нас валидный XML, лишних тегов не валяется, и выглядит оно правильно (совпадает с макетом), то и пофиг.
А XML может быть невалидным? Круто)
---------- Добавлено 04.07.2017 в 23:56 ----------
Лучше проанализировать выдачу, а то несут всякий бред типа:
Ну да, можно анализировать мастодонтов, а можно взять нулевой сайт с идеальной разметкой и посмотреть, как он будет себя вести среди прочих нулевых говносайтов и середнячков.
Да и вообще, о чём спор, если "Некоторые знакомые «программисты»" кладут болт на разметку, о чём с ними можно говорить?
Умиляет бурление говн, когда ругают Хром, Оперу, Лису и иже с ними, мол памяти много жрут, а у самих в DOM'е куча мусора, css на мегабайты, переопределение стилей по 100 раз на элемент (привет бутстрап), а ещё Яндекс БЭМ - совсем для ошпаренных идиотов, вот вам и ваша любимая заговнокоженность, кривое поведение различных браузеров, подвисание вкладок.
Неумение верстать порождает тонны мусорных тегов в коде, а забивание на валидность - неприятное "поведение" различных браузеров. Осёл с 9-й версии, кстати, грамотно "ломает" вёрстку, Хромой в этом плане просто душечка, всю каку за криворукими уберёт.
Не просто так стандарты придумывали, не зря валидность влияет на ранжирование, пусть и не так, как миллионы трастовых ссылок и ПФ, но влияет.
Ну да, можно анализировать мастодонтов, а можно взять нулевой сайт с идеальной разметкой и посмотреть, как он будет себя вести среди прочих нулевых говносайтов и середнячков.
Точно.
Вообще в плане ранжирования ссылаться на мастодонтов - бессмысленно. Что дозволено Юпитеру, не дозволено Васе Пупкину. Трастовые мамонты часто выглядят крайне неоптимизированными, но их можно и еще хуже убивать и на ранжирование это не повлияет.
А XML может быть невалидным? Круто)
Открытые, и незакрытые теги, и т.п.
Не просто так стандарты придумывали, не зря валидность влияет на ранжирование, пусть и не так, как миллионы трастовых ссылок и ПФ, но влияет.
Т.е. если я проставлю забытые альты, поставив alt="", то сайт резко пойдет в топ?
Бугага.
По размеру цсс скорее gtmetrix.
Ну и так далее.
На валидатор надо смотреть, а не мастурбировать.
Открытые, и незакрытые теги, и т.п.
Имеется в виду, что большинство приложений вывалят ошибку, а не обработают XML, это же касается и XSLT. XML либо валидный, либо - это мусор.
Т.е. если я проставлю забытые альты, поставив alt="", то сайт резко пойдет в топ?
Бугага.
По размеру цсс скорее gtmetrix.
Ну и так далее.
На валидатор надо смотреть, а не мастурбировать.
Как вы любите привязываться к alt'у. Резко в топ ничего не пойдёт, но не стоит забивать на валидность, как на один из многих факторов ранжирования. Намного проще поправить разметку, чем сменить УРЛы на ЧПУ. Не стоит забывать и про семантику, на которую либо кладётся болт, либо о ней ничего не знают, пихают везде и всюду HTML5-теги и думают, что это круто.
К размеру CSS придираюсь не из-за скорости загрузки, тут уж каждому своё, а из-за количества ненужного мусора. Тут больше об оптимизации речь, не по теме меня занесло. В среднем по больнице, 35% правил в CSS - ненужный мусор, нагружающий интерпретатор.