- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос в том, корректно ли отдавать роботам Яндекса контент, сжатый через gzip или deflate?
Судя по логам, робот (H) запрашивает данные по протоколу HTTP/1.1 указывая возможность принятия gzip/deflate данных. Но после получения сжатых данных он зачем-то перезапрашивает тот же самый URL по тому же протоколу но уже без указания возможности приема сжатых данных.
Непонятно, нужно ли сразу отдавать ему несжатые данные, экономя трафик сервера или ему зачем то нужны обе версии (для сравнения, например)?
Вопрос в том, корректно ли отдавать роботам Яндекса контент, сжатый через gzip или deflate?
если они говорят, что умеют читать сжатый трафик - значит давать.
Непонятно, нужно ли сразу отдавать ему несжатые данные, экономя трафик сервера или ему зачем то нужны обе версии (для сравнения, например)?
Не все страницы перезапрашиваются. По своим логам смотрел.
Все броузеры понимают сжатие, а вот боты не все. Возможно сравнивает для поиска спама.
ИМХО жалко мне рессурс сервака еще и на сжатие.
Вопрос в том, корректно ли отдавать роботам Яндекса контент, сжатый через gzip или deflate?
Я стараюсь все отдавать в сжатом виде для экономия трафика и увеличения скорости загрузки страницы. Большинство поисковиков понимают сжатие, а вот как раз Яндекс нет - тянет всегде страницы в нормальном виде.
Не все страницы перезапрашиваются. По своим логам смотрел.
Если честно, я что-то не нашел в логах запросов страниц от Яндекса, которые отдавались бы в сжатом виде.
ИМХО жалко мне рессурс сервака еще и на сжатие
Эээ, какой ресурс? Мы один раз жмем страницу и кладем её в кэш, равно как и несжатый вариант. Трафик вот, конечно, будет увеличиваться при двойных запросах.
Если честно, я что-то не нашел в логах запросов страниц от Яндекса, которые отдавались бы в сжатом виде.
Я не видел пока своё логирование не прикрутил. В стандартных логах IIS я не уверен что логируется тип передаваемого контента, по-моему там нельзя этот параметр увидеть.
Эээ, какой ресурс? Мы один раз жмем страницу и кладем её в кэш, равно как и несжатый вариант. Трафик вот, конечно, будет увеличиваться при двойных запросах.
У меня нет статических старниц. Частота обновлений - 2-5 раз в час. Иногда чаще. А траф, если говоить о поисковике, то вощем разницы не играет. Всеравно анлимит.
В стандартных логах IIS я не уверен что логируется тип передаваемого контента
Ты можеш в скрипте сам отследить. Если статика, то посмотри по типу запроса. Если яша просит несжаты текст, он уберет в своем запросе , что принимает gzip
У меня нет статических старниц. Частота обновлений - 2-5 раз в час. Иногда чаще. А траф, если говоить о поисковике, то вощем разницы не играет. Всеравно анлимит.
У нас тоже не статических страниц, какая разница? Кэш все равно должен быть.
Ты можеш в скрипте сам отследить. Если статика, то посмотри по типу запроса. Если яша просит несжаты текст, он уберет в своем запросе , что принимает gzip
Ты не понял, я написал выше что именно так и сделали, потому как иначе сделать как - не знаю.
Кэш все равно должен быть.
Кому должен? Не использую вовсе. Сам IIS своими стредствами нормально не создает. Кроме этого работаю под ActiveState Perl. Кеша внешние - не удобно. Кривые они. И какой смысл кешировать страницу на 10-30 минут? Если за это время туда попало 10-50 человек. При этом гемор с кешом больше. Темболее перекешировать 3-10К страниц - не очень притяное занятие.
Кому должен? Не использую вовсе. Сам IIS своими стредствами нормально не создает. Кроме этого работаю под ActiveState Perl. Кеша внешние - не удобно. Кривые они. И какой смысл кешировать страницу на 10-30 минут? Если за это время туда попало 10-50 человек. При этом гемор с кешом больше. Темболее перекешировать 3-10К страниц - не очень притяное занятие.
Ну, никому, конечно не должен :). Но Майкрософт рекомендует кэширование для увеличения производительности в целом. У меня также Activestate Perl под IIS и естественно кэш написан свой. В любом случае, даже если 10-50 генераций страницы избежать - это может быть приличной экономией по производительности, в зависимости от нагрузки на скрипт. "Перекэшировать" 10К страниц не нужно - Вы можете писать в кэш страницы по мере их генерации, что тут сложного? Гемора никакого тоже вроде нет, простой кэш пишется за полчаса с отладкой.
Кстати, если у Вас приложение частно обновляет страницы, то вероятно обновление затрагивает не всю страницу а только определенные части. Так что наверняка есть возможность применять блочное кэширование.
В общем каждый сам решает, что ему выгоднее - кто-то софт оптимизирует, а кто-то просто мощнее железку ставит. Впрочем от основной темы топика мы ушли куда-то в сторону.