Cherny

Рейтинг
120
Регистрация
19.09.2001

avt401111, пусть программеры и админы вместе подумают над проблемой и разберутся, на каком этапе работы системы скрипты-сервер отдается 406. Там и подлатать.

Keep-alive боты не используют, по крайней мере боты известных поисковиков.

StackRambler:

Connection: close

Yandex (H):

Connection: Keep-Alive

Googlebot - crawl-66-249-66-79.googlebot.com,

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html):

Connection: Keep-alive

Yandex (I):

Connection: Keep-Alive

В свете того, что в раздел Туризм за последний месяц активно добавлялись сайты на бесплатной основе, мы тут подумываем зарегистрировать сайты конкурентов, если сразу не возьмут, то за деньги. 🙄

Можно хранить даты изменения для каждого документа в БД или проверять даты изменения файлов с текстами, если они вставляются с помощью include, обрабатывать эти даты и запросы с If_Modified_Since в том же файле index.php.

Вполне реально.

Тем более у меня один файл index.php из которого генерится страничка! Так что это не подойдет!
По моему это все не реально!!!

По-вашему нереально, а у помоему - реально. И трафика меньше и результаты лучше.

Если 3sitе.ru физически лежит в другой папке, с отличным от двух других сайтов дизайном, то:

1. robots.txt у него будет свой, который должен физически находиться в папке www/1site, а в нем можно главное зеркало и не указывать

2. При отличном дизайне автоматической склейки быть не должно, так как документы на сайтах будут отличаться, даже если контент схожий.

Присоединяюсь к поздравлениям!

Удачи на дорогах!

Если это подарок, про который я подумал, то почаще таких подарков! ;)

Можно почитать Administrator's Guide, а именно:

The Robot will simply look for a "/robots.txt" URL on your site, where a site is defined as a HTTP server running on a particular host and port number.

Т.е. в вашем случае для роботов сайты разные и по запросам к сайту на разных портах можно выдавать разные robots.txt. А дальше уже дело техники. ;)

Если я хочу сделать переподсчет статистики в данный момент, что надо для этого ввести/нажать

Надо просто запустить webalizer, что-то вроде /usr/bin/webaziler в командной строке.

404 - Яндекс удаляет адрес страницы из списка страниц для последующей индексации

301 - Яндекс удаляет адрес страницы из списка и добавляет адрес, куда ведет редирект.

А вот с 302 точно не могу сказать.

Всего: 1011