Боты, Запросы, Время

12
[Удален]
647

Добрый день,

Сколько запросов к сайту в 20 секунд производят боты (яндекс,гугль) при обходе сайта?

K
На сайте с 31.01.2001
Offline
737
#1

К какому именно сайту?

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
Talisman13
На сайте с 20.01.2007
Offline
211
#2
Kost:
К какому именно сайту?

К Яндексу пожалуйста подсчитай. :D

Или хотя бы формулу выложи. :)

[Удален]
#3
Kost:
К какому именно сайту?

хм.. да вот даже к примеру взять данный форум.

Просто поставили ограничения с одного айпи 5 запросов в 20 сек.

Вот интересно не будет ли плохо от этого сайту, индексация не ухудшиться?

а то вдруг когда он сделает 5 запросов в 10 сек. уйдёт ненароком)

K
На сайте с 31.01.2001
Offline
737
#4
streetbox.ru:
Просто поставили ограничения с одного айпи 5 запросов в 20 сек.

Не нужно с роботами обращаться грубо, лучше использовать понятный им язык.

Вы знакомы с директивой Crawl-delay в robots.txt ?

В соответствии с правилами раздела, вы должны сперва прочитать общедоступную первичную документацию.

Нагрузка будет зависеть в том числе от количества страниц на сайте. У этого форума, например, в Яндексе более 300000 страниц.

[Удален]
#5
Kost:
Не нужно с роботами обращаться грубо, лучше использовать понятный им язык.
Вы знакомы с директивой Crawl-delay в robots.txt ?

В соответствии с правилами раздела, вы должны сперва прочитать общедоступную первичную документацию.
Нагрузка будет зависеть в том числе от количества страниц на сайте. У этого форума, например, в Яндексе более 300000 страниц.

Собственно данные меры из за ддос атаки.

роботс памойму в данном примере не поможет.

На сайте 50.000 страниц в яндексе. (кто было сделано)

Talisman13
На сайте с 20.01.2007
Offline
211
#6

Kost, streetbox.ru все правильно сказал. Вот здесь вся информация по Crawl-delay

streetbox.ru:
Просто поставили ограничения с одного айпи 5 запросов в 20 сек.

А так лучше не поступать.

PS. Я думаю тогда надо бороться с ддос атаками, чем бороться с Яндексом.

[Удален]
#7
Talisman13:
Kost, streetbox.ru все правильно сказал. Вот здесь вся информация по Crawl-delay
А так лучше не поступать.

спасибо, вещь нужна не знал об этом.

НО то что я сделал было из за ддос атаки на сайт, и что бы как бы немного уменьшить ризико было сделанно данное ограничение.

K
На сайте с 31.01.2001
Offline
737
#8
streetbox.ru:
кто было сделано
streetbox.ru:
немного уменьшить ризико

streetbox.ru, призываю совершить усилия над собой и выражаться понятнее.

[Удален]
#9

и так сегодня сайт ддосили мне посоветовали сделать ограничение 5 запросов в 20 сек.

Меня интересует будут ли проблемы при обходе роботами (делают ли они свыше 5 запросов в 20 сек?) и не упадёт ли индексация сайта из за этого ограничения (5 запросов в 20 сек.)

PRelude
На сайте с 20.07.2007
Offline
35
#10

Для сайта в 50 000 страниц лучше разорится на сервер.

Если сервер уже есть, то добавлять памяти, чтобы ботам было комфортно,

иначе просто нет смысла в 50 000 страницах, если только поисковые боты заваливают.

А против настоящего ддоса нужен сервер там, где ддосом занимаются.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий