- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ну собственно все уже сказанно 😂 теперь дело только за безошибочной и кроссбраузерной версткой, хоть на таблицах, хоть на дивах - как вам удобно, так и делайте. Просто не забывайте, что для сайтов, которые содержат много разделенного контента на одной странице, лучше всего использовать див, либо на крайняк див+таблицы, т.к. боту будет проще их проглатывать, нежели на чистых таблицах.
Да что ж у всех за стереотипы такие а? Вот объясните мне, почему боту легче проглатывать дивы?
существенной разници думаю нет, единственное что с помощью дивов можно "основной контент" страницы поднять вверх
Именно поэтому поисковики не сильно реагируют на высоту расположения контента IMHO
Да что ж у всех за стереотипы такие а? Вот объясните мне, почему боту легче проглатывать дивы?
какие стереотипы?)) сплошная механика... неужели так сложно представить сию операцию?)))) вот вам проще и быстрее 1 слово прочитать, либо 20 (пусть одинаковых)? Тоже самое и с ботом, пусть он и сканит в разы быстрее, т.к. речь часто о сотнях и тысячах страницах сайта, но по сути совершают такие же действия, что и человек, затрачивая на это эквивалентное время. Т.е. суть сама по себе не в дивах и не в таблицах, а в объеме информации всей страницы, которую читает бот. Чем она больше, тем выше вероятность, что какие-то другие страницы не попадут в индекс (или "вылетят", не войдут в переиндекс), в зависимости от отведенного ботом времени вашему сайту. Перезаход бота также не всегда решает вопрос с тяжелыми страницами. А вы о стереотипах 😂
...В частности положительные поменты дивной над табличной. У кого какие мыли по данному поводу...
див, таблицы - всё это всего лишь поменты по сравнению с другими вещами.
но сайты конечно лучше отвалидировать перед продвижением и в хвост и в гриву. благо это недорого обычно стоит.
но сайты конечно лучше отвалидировать перед продвижением и в хвост и в гриву. благо это недорого обычно стоит.
ЗАЧЕМ???
Откуда вы все это берете? Код на дивах ни разу не короче кода на таблицах. Только грамотное кропотливое объединение дивов с таблицами дает оптимальный результат. Иногда даже смешно смотреть как упорно верстальщики рисуют дивами закругленные уголки, когда картинка в гифе весит меньше 100 байт...
Выносить стили в отдельный файл тоже нужно далеко не всегда. А уж валидность нужна разве только самим валидаторам! Посмотрите хотя бы на сайт яндекса...
Качественная верстка - это верстка сделанная для людей (как и многое другое), людям же надо только 2 вещи: нормальное отображение страницы в браузере и максимально быстрая загрузка страницы, остальное не имеет никакого значения.
для сайтов, которые содержат много разделенного контента на одной странице, лучше всего использовать див, либо на крайняк див+таблицы, т.к. боту будет проще их проглатывать, нежели на чистых таблицах.
Бот - не браузер, которому надо сначала дождаться загрузки существенного куска таблицы, а потом вычислять - как ее рисовать, это оказывается тем труднее, чем более вложены таблицы, а ПС действует проще.
Т.е. суть сама по себе не в дивах и не в таблицах, а в объеме информации всей страницы, которую читает бот. Чем она больше, тем выше вероятность, что какие-то другие страницы не попадут в индекс (или "вылетят", не войдут в переиндекс), в зависимости от отведенного ботом времени вашему сайту.
Поделитесь источником сведений.
Т.е. вы утверждаете, что есть ограничение именно на объём HTML-я, который ест бот за один заход?
Или только на количество страниц, скачиваемых за один заход?
сайты конечно лучше отвалидировать перед продвижением и в хвост и в гриву
Только при использовании Ноуиндекса, но у него своя "валидность".
Зачем боту абсолютная валидность документа? Чтобы неправильно воспринимать то, что сделано на коленке?
В браузере правильно отображается страница - этого запросто хватает и боту.
Качественная верстка - это верстка сделанная для людей
Иногда и для ботов надо чего-то учесть, если слегка понимать их восприятие разметки... но реальные задачи в этой теме не ставятся и не обсуждаются.
Бот - не браузер, которому надо сначала дождаться загрузки существенного куска таблицы, а потом вычислять - как ее рисовать, это оказывается тем труднее, чем более вложены таблицы, а ПС действует проще.
принцип чтения страницы практически тот же.
p.s. утверждать конечно не буду, но мне это всегда так представлялось. В любом случае происходит посимвольное чтение страницы. А чем больше символов в странице, чем больше страниц, тем затяжнее процесс.
Поделитесь источником сведений.
Т.е. вы утверждаете, что есть ограничение именно на объём HTML-я, который ест бот за один заход?
Или только на количество страниц, скачиваемых за один заход?
я и так делюсь своим опытом)
определенно есть ограничение по времени, на прибывание бота на сайте. Но чем ограничивается время, предположить можно по разному.
ЗАЧЕМ???
Откуда вы все это берете? Код на дивах ни разу не короче кода на таблицах.
простейший пример, без переменных и значений:
Таблицы - <table><tr><td>{content}</td></tr></table>
Дивы - <div>{content}</div>
А если о построении страницы говорить, то картина будет более различна по объему кода.
определенно есть ограничение по времени, на прибывание бота на сайте
Бот не на сайте - это пользователь интернета думает, что он "зашёл на сайт", правильнее было бы сказать - сайт загрузился в ...
чем легче весит страница, тем бстрее бот обходит весь сайт полностью (особенно новый), проверялось неоднократно.
Можно пренебречь. Страница (body) редко бывает больше 50кБ, даже если не сжата gzipom. Ну, если это, конечно, не страница Васи Пупкина. Любой нормальный сервер отдаст такую страницу с легкостью. Ключевое слово - нормальный.
А вот задержки с выдачей могут быть из-за тяжелых скриптов, которые тормозят работу сайта. Если речь о "тем быстрее бот обходит весь сайт", то скрипты и тарифный план хостинга (скорость работы) - это более критично.
Вёрстка - табличная или на дивах - значения не имеет, т.к. поисковики у нас т.н. полнотекстовые, т.е. индексируют текст, а не вёрстку :).
простейший пример, без переменных и значений:
Таблицы - <table><tr><td>{content}</td></tr></table>
Дивы - <div>{content}</div>
А если о построении страницы говорить, то картина будет более различна по объему кода.
И что?
А если форма такая:
И на каждой странице разная?
К чему Ваш пример? Зачем создавать таблицу из одной ячейки? Заканчивайте уже преклоняться перед мифами...