- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Что-то сомнительно. Очень. Если сайт с сложной версткой там кода будет раз в 10 более, чем крепкой статьи на 3к символов. Да и вообще, когда я смотрю код почти любого сайта, там html всегда в разы больше, чем текста.
Я бы сказал, что если Тындекс что и учитывает, так это не дизайн, а верстку дизайна. Ведь, глаз-то у него нет :) Есть робот. Он смотрит код. А один и тот же макет можно сверстать разными способами. Например, можно поменять имена всех классов.
Быть может, при ручной проверке что-то такое есть, но это тоже все вилами по воде.
хорошо, скажу иначе)) представьте, что вы робот яндекса, который, при просмотре html страницы не разделяет сразу, где контент, а где код (который не нужно индексировать). Робот обходит каждый символ, читая все скобы, кавычки и т.п.. Т.е. чем больше кода, тем больше препятствий для нормальной индексации контента. Тот факт, что в топах по ВЧ и СЧ не мало сайтов с громосткой версткой, не говорит о том, что яндекс их отлично воспринимает, т.к. существует масса других факторов, влияющих на индексацию и позиции сайта. А дизайн анализировать Яндекс сможет только "в ручную" с помощью операторов, иначе получится бредятина похлеще сегодняшней выдачи в регионах 😂
Робот обходит каждый символ, читая все скобы, кавычки и т.п.. Т.е. чем больше кода, тем больше препятствий для нормальной индексации контента.
Ага, какая тяжкая работа. Регэкспом больше, регэкспом меньше. Думаете, у Яндекса алгоритм разбора html-кода ветвится густо-густо?
вообщем тут с кодом я лично не спец. я вообще в коде не разбираюсь толком :)
вопрос единственный - надо больше текста на странице или без разницы с одинаковой плонтностью ключей?
exponial добавил 08.05.2009 в 13:52
кстати гляньте код вот этого сайта ;)
exponial добавил 08.05.2009 в 13:54
а у бдбд тоже любопытно. на главной огромный блок текста с кучей тегов
Ага, какая тяжкая работа. Регэкспом больше, регэкспом меньше. Думаете, у Яндекса алгоритм разбора html-кода ветвится густо-густо?
нет, я хотел сказать, что боту отводится определенное кол-во времени на индексацию страниц сайта. Чем проще и качественнее был сверстан сайт, чем меньше лишней информации для бота, тем быстрее и без значительной нагрузки на ваш сервер пройдет индексации большего числа страниц сайта. Это легко проверить на практике. Ради эксперемента создайте 4 блога, забейте на 30-50 страниц автоген. контентом (на один-два АПа пройдет). На одной паре блогов верстка дивная, на других табличная. Без лишнего хлама в коде, т.е. буквально чистый эксперемент. Здесь нет ничего нового, тема стара как мир, другое дело, что этому правилу многие принебрегают и считают, что оптимизация html-кода - это исключительно проверка валидатором и устранение ошибок 😂.
ну обычно под внутренней оптимизацией больше понимают наличие заголовков,ключевиков,плотность,теги в тексте
SEOForce, нагрузка на сервер ботом создаётся такая же, как и обычным пользователем, посещающим те же страницы. Мы же обсуждаем не влияние быстрого хостинга на индексацию, а влияние структуры страницы. Если в документе нет ошибок, препятствующих его парсингу роботом по заданному алгоритму, то и дивная, и захламленная таблицами и скриптами страницы будут разобраны одинаково успешно. Тем паче разницы нет в ранжировании.
имхо, яша видит разницу между вордпресс блогом, джумлой и уникальным движком...
Редко бредовые посты перетекают в адекватный непятничный дискусс :)
Похоже автор имеет скрытую позитивную энергетику :)
По теме: контент и ссылочное ошибки в коде сведут к незначительным.
XAH666, движок - не мерило СДЛности.
SEOForce, нагрузка на сервер ботом создаётся такая же, как и обычным пользователем, посещающим те же страницы. Мы же обсуждаем не влияние быстрого хостинга на индексацию, а влияние структуры страницы. Если в документе нет ошибок, препятствующих его парсингу роботом по заданному алгоритму, то и дивная, и захламленная таблицами и скриптами страницы будут разобраны одинаково успешно. Тем паче разницы нет в ранжировании.
Хотел написать, но уже написали!
Для бота и не должно быть разницы.
От себя добавлю: когда страницы сайта вылетели из яндекса по непонятной причине (мы это не усмотрели сразу), в это время разрабатывали версию для КПК, zif съел именно эти страницы и показывать начал и в ТОПе. Подумал сначало, что яндекс полюбил КПК версию, как облегченную. Но потом понял, что это из-за того, что основной сайт выпал. Исправили данное положение, вернули страницы сайта в яшу и именно страницы ОСНОВНОГО сайта стали ТОПовыми, а КПКшные ушли на второй план.
Естественно кода в первом гораздо больше, чем в КПК.