- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
вот и озадачился
не нуна было лезть за океан.
На данный момент бот яши не понимает gzip и просит в хедерах не сжатый контент, если на его запрос несжатого контента отдать ему зипованный то не удивляйтесь потом выпадению из серпа...
Вы говорите все врено. Запрос конечно должен анализироваться. Если хидер указывает на непонимание, - значит нужно так и делать
На данный момент бот яши не понимает gzip и просит в хедерах не сжатый контент, если на его запрос несжатого контента отдать ему зипованный то не удивляйтесь потом выпадению из серпа...
Сомневаюсь. На форуме стоит включенный GZIP. Страницы нормально индексяца, и сайт не выпал из серпа. По запросам находится. По крайне мере не наблюдаю ничего такого. Хотя лучше спросить на форуме самого яндекса об этом.
Сомневаюсь. На форуме стоит включенный GZIP. Страницы нормально индексяца, и сайт не выпал из серпа. По запросам находится. По крайне мере не наблюдаю ничего такого. Хотя лучше спросить на форуме самого яндекса об этом.
Не сомневайтесь :) Нормально настроенный сервер отдает контент в gzip только тогда, когда в запросе бродилки или бота присутствует хедер Accept-Encoding: gzip. Если хедера нет, контент отдается не пожатый. Поэтому если боту яндеска отдавать пожатый контент, то тут TRON все верно говорит.
IIS при включенной HTTP-компрессии поступает также.
IIS при включенной HTTP-компрессии поступает также.
mymind, Кто ходит в гости по утрам Кто тупо лезет в мануал, тот поступает мудро! Парам-пам-пам, парам-пам-пам! Пух! :)
Hypertext Transfer Protocol -- HTTP/1.1
HTTP 1.1 - Русский перевод спецификации RFC 2068.
mymind, Кто ходит в гости по утрам Кто тупо лезет в мануал, тот поступает мудро! Парам-пам-пам, парам-пам-пам! Пух! :)
Мой любимый RFC :)
Вот в том-то и прикол, что бот яндекса не просит пожатый контент, он не понимает его, он просит обычный не пожатый контент, а если сервер не обращает внимания на заголовки и все рвано отдает пожатый, то могут быть проблемы...
Вот в том-то и прикол, что бот яндекса не просит пожатый контент, он не понимает его, он просит обычный не пожатый контент, а если сервер не обращает внимания на заголовки и все рвано отдает пожатый, то могут быть проблемы...
это уже называется криво настроенный сервер:)
как я понял нужно действовать так:
1. если в заголовке запроса есть Accept-Encoding: gzip (или deflate, или все вместе через запятую), то отдаем сжатое тело http-ответа в соответствующем алгоритме сжатия
2. если в заголовке запроса нет Accept-Encoding или там неизвестный алгоритм, то выдаем несжатое тело http-ответа
А в чем вопрос, собственно, и что вы собрались настраивать?
Сообщаю великую тайну - если в стандартно установленном Апаче установить mod_gzip (для 1.3.ХХ) или mod_deflate (2.Х) и включить эти модули, то вебсервер начнет клиентам, принимающим сжатый контент (т.е. говорящим Accept-Encoding: gzip), отдавать сжатый контент. И все - ничего больше руками трогать не надо, эти модули работают абсолютно прозрачно для пользовательских скриптов.
И мне действительно интересно, что это сайт, индексация которого в течение месяца может сожрать хотя бы 100 гигабайт. Индексация этого форума обходится в среднем на уровне 7-10 гигабайт на поисковик - причем это аппетит робота Яндекс.Директа, который несколько избыточен, скажем так.
А в чем вопрос, собственно, и что вы собрались настраивать?
все уже готово,
вопрос был в том, понимают ли боты сжатый контент. Не хотел тратить время на написание скрипта для отлавливания бота и поэтому спросил здесь.
И мне действительно интересно, что это сайт, индексация которого в течение месяца может сожрать хотя бы 100 гигабайт.
встречный вопрос: а в DirectAdmin статистика трафика по пользователям корректная?
мне самому интересно, откуда такие цифры:)