Гугл ддосер

12 3
Skom
На сайте с 02.12.2006
Offline
165
3030

В последние дни обратил внимание, что по вечерам как-то стала нагрузка расти на одном серваке.

Путём нехитрых изысканий обнаружил, что грузит робот гугла. В среднем, 15 запросов в секунду.

Ну, это среднее значение, исходя из 55 тыс запросов в час. А так, иногда по 25 запросов в секунду сразу с нескольких айпишников. Причём, долбит по самым нагружающим скриптам. Всё по одному сайту. На остальных сайтах - стандартные 2-3 запроса в секунду.

Интересно, это летнее обострение или конкретный сайт впал в милость(или немилость) у Гугла?

Кто-нибудь ещё наблюдает подобное?

Я просто боюсь, что если такая же петрушка начнётся на всех локализованных версиях этого сайта, серваку придётся туговато :D

Cras amet qui numquam amavit quique amavit cras amet
LEOnidUKG
На сайте с 25.11.2006
Offline
1774
#1

IP точно гугла?

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/ ✅ Настройка и оптимизация серверов https://getmanyspeed.ru/
Skom
На сайте с 02.12.2006
Offline
165
#2

Он, родимый...


66.249.78.222 - - [06/Jul/2014:22:57:11 +0400] "GET ...
66.249.70.72 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.222 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.229 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.229 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.229 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.229 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.222 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.70.72 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.229 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.222 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.229 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.222 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.222 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.229 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.229 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...
66.249.78.236 - - [06/Jul/2014:22:57:12 +0400] "GET ...

Кстати, уже 29 запросов в секунду :)

N3
На сайте с 28.04.2014
Offline
98
#3

Гугл не распрознает ограничение на кол-во запросов в секунду в роботсе?

Неискоренимо нежелание пользоваться поисковыми системами - даже находясь на форуме о поисковых системах © Cell Влазить напрямую в базу — это невозможно © Игорь Белов, mchost.ru Если SeoPult купил ссылку - значит она "рабочая" © Nat_SeoPult
Skom
На сайте с 02.12.2006
Offline
165
#4
Nam3D:
Гугл не распрознает ограничение на кол-во запросов в секунду в роботсе?

Он игнорирует Crawl-delay.

О чём, кстати, пишет в вмт.

vkusnoserver
На сайте с 30.04.2011
Offline
104
#5

Возможен такой вариант:

DDOS любого сайта с помощью Google Spreadsheet

Например, если в одну из клеток таблицы вставить формулу

=image("http://example.com/image.jpg")

Google отправит паука FeedFetcher скачать эту картинку и закэшировать для дальнейшего отображения в таблице.

Однако если добавлять случайный параметр к URL картинки, FeedFetcher будет скачивать её каждый раз заново. Скажем, для примера, на сайте жертвы есть PDF-файл размером в 10 МБ. Вставка подобного списка в таблицу приведет к тому, что паук Google скачает один и тот же файл 1000 раз!

=image("http://targetname/file.pdf?r=1")
=image("http://targetname/file.pdf?r=2")
=image("http://targetname/file.pdf?r=3")
=image("http://targetname/file.pdf?r=4")
...
=image("http://targetname/file.pdf?r=1000")


Все это может привести к исчерпанию лимита трафика у некоторых владельцев сайтов. Кто угодно, используя лишь браузер с одной открытой вкладкой, может запустить массированную HTTP GET FLOOD-атаку на любой веб-сервер.

Подробнее на Хабре.

Скидки на хостинг (/ru/forum/629944) | Конфигуратор (http://www.vkusnoserver.ru/link.php?id=31) | Администрирование (/ru/forum/871196) CEO собственной персоной - skype: vkusnoandy
Skom
На сайте с 02.12.2006
Offline
165
#6

Не, он просто тупо жуёт страницы. Без всяких паразитных параметров.

На сайте много миллионов страниц и разгуляться там есть где.

SocFishing
На сайте с 26.09.2013
Offline
118
#7

возможное решение закрыть от гугла ваши тяжелые скрипты, все равно они скорее всего не несут информационного окраса.

★Сервис идентифицирует (https://socfishing.com/?utm_source=searchengines) посетителей вашего сайта и предоставляет их профили ВКонтакте, Телефон, Почта! Цены копеечные, работаем 8 лет.
Skom
На сайте с 02.12.2006
Offline
165
#8

Ещё как несут.

anser06
На сайте с 11.03.2006
Offline
292
#9

Тогда кэширование ставить.

Skom
На сайте с 02.12.2006
Offline
165
#10
anser06:
Тогда кэширование ставить.

Всё кэшируется. Уже половину из 256 гиг в кэше. И в данный момент нет проблем. ЛА 5-6 на 32 процах кагбе ниочём. Я просто боюсь, что ещё 200 миллионов страниц в кэш точно не влезет.

Да и попадание в кэш в этом случае минимальное. Он же всё время разные страницы поедает.

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий