Ув. Яндекс усмирите своих роботов плз.

1 2345 6
S
На сайте с 28.10.2005
Offline
318
#21

Где-то в факе Яндекса есть пункт "Вы перегружаете мой сервер"

di_max
На сайте с 27.12.2006
Offline
262
#22
FreeMarket:
di_max, статика не получится ... информация постоянно обновляется ...

Фря + Апачь 1.3.х? Тогда посмотреть стОит, что в MaxRequestPerChild, MinSpaceServer и MaxSpaceServer...

Линухи + Апачь 2.х? Тогда смотри про потоки... А то небось только и знает, что потоки с процессами перебрасывает между процами и ядрами...

А в общем - вздуть сисадмина, что сервер конфигурачил, во все... апдейты. 😂

// Все наши проблемы от нашего не знания...
di_max
На сайте с 27.12.2006
Offline
262
#23
semenov:
Ага, и смотрит вебмастер в логи и не налюбуется: "Яндекс, миленький, это ты? Ой какой у тебя сегодня аппетит, умница! Кушай, родной, кушай. Я и сервачек помощней куплю, чтоб тебя накормить и не упасть.."
А на другом конце провода сидит пианер с Телепортом и ехидно ухмыляется;]

Тогда - вебмастер полный лох! Раз "своего" Яшу в IP не знает....🚬

john2007
На сайте с 26.03.2007
Offline
173
#24
semenov:
Где-то в факе Яндекса есть пункт "Вы перегружаете мой сервер"

Ага, там кажется написано, запретите индексацию через robots и мы от Вас отстанем :)

Совершая ошибки, мы не только учимся их не повторять, но и учимся прощать такие же ошибки другим... (с)
S
На сайте с 28.10.2005
Offline
318
#25

Да не, вроде на мыло пишите

Реально ведь возможна бага, что разные сервера одни и теже страницы запрашивают, ничего в мире не совершенно

Вот тогда расплавленное сало из серверов и начинает капать; пишите в техподдержку Яндекса

edogs software
На сайте с 15.12.2005
Offline
775
#26

А яндекс как часто robots.txt запрашивает? Есть информация?

Просто в рамках топика, во время повышения нагрузки можно было бы иногда выдавать robots.txt с запретом, а во время снижения с разрешением.

Разработка крупных и средних проектов. Можно с криптой. Разумные цены. Хорошее качество. Адекватный подход. Продаем lenovo legion в спб, дешевле магазинов, новые, запечатанные. Есть разные. skype: edogssoft
S
На сайте с 28.10.2005
Offline
318
#27
edogs:
А яндекс как часто robots.txt запрашивает? Есть информация?
Просто в рамках топика, во время повышения нагрузки можно было бы иногда выдавать robots.txt с запретом, а во время снижения с разрешением.

Не получится, определенная инерционность присутствует в выполнении директив изменненого роботса, и вообще корявый способ

T.R.O.N
На сайте с 18.05.2004
Offline
314
#28

FreeMarket,

Почитал-почитал о вашей проблеме, так и не понял. Что значит

FreeMarket:
не могу понять почему гугловские роботы и другие не делают нагрузку

Можно оперировать цыфрами. Трафик туда/обратно. Частота заходов, что и как запрашивается.

Кибернетика, как и математика, оперирует цыфрами.

Даже простенький комп(не специальный сервак) нормально выдерживает до 10 000-12 000 конектов в секунду, с общим трафом до 3.5 Мб/сек.(в идеальных условиях). Все остальные "тормаза" и "висяки" это, как правило, криво настроенный сервак/скрипт/sql

Если, как Вы утверждаете, виновен только робот яши, посмотрите чем его запросы (и ответы ему) отличаются от гуглевких, рамовых и т.д. Ответ придет сам.

От воздержания пока никто не умер. Хотя никто и не родился! Prototype.js был написан теми, кто не знает JavaScript, для тех, кто не знает JavaScript (Richard Cornford)
Kislov
На сайте с 29.04.2006
Offline
185
#29
edogs:
Просто в рамках топика, во время повышения нагрузки можно было бы иногда выдавать robots.txt с запретом, а во время снижения с разрешением.

Тогда сайты повыпадают из поиска. Нагрузки точно не будет. :)

ТС может кинешь в личку пару урлов, сайтики посмотреть.

K
На сайте с 31.01.2001
Offline
737
#30

Попробуйте отдавать роботу 304 вместо 200, если страница давно не менялась.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
1 2345 6

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий