- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, дамы и господа.
А кто может поделиться данными, какой хедер Accept у роботов поисковиков? Интересует прежде всего Яндекс, Рамблер и Гугл.
Сайт сделан на XHTML 1.0 (не тот, что в подписи :)), поэтому по этому хедеру отдается соответствующий Content-type, и есть еще заморочки с перекодировкой контента "на лету"...
Могу, конечно, и сам посмотреть, но это надо прихода роботов ждать :)
Неужто клоакинг затеваешь? 🚬
Неа :) Есть ISAPI фильтр, который умеет перекодировать "на лету" из windows-1251 в транслит. Т.е. при заходе на www.site.ru контент отдается в windows-1251, при заходе на trn.site.ru - в транслите. При этом фильтр проверяет отдаваемй Content-type и перекодирует только text/html.
Посему если робот скажет:
Accept: application/xhtml+xml
то сервер ему ответит:
Content-type: application/xhtml+xml
и фильтр это дело не перекодирует :( А хотелось бы.
Выяснилось по ходу дела, что Гугл передает вот что:
User-Agent: Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Accept: */*
:)
Мдя...
А ведь Оперы и Gecko всякие тож в транслите не получат... :(
В общем, надо на trn.site.ru отдавать всем как text/html и не париЦЦа...