А яндекс ли валит хостеров и ваши сайты?

N
На сайте с 06.05.2007
Offline
419
#21

Как раз 80 тысяч ОШИБОК в минуту - это вполне достижимая величина.

Запросы в access.log, а в error.log - ошибки.

Кнопка вызова админа ()
Andreyka
На сайте с 19.02.2005
Offline
822
#22

Покажите robots.txt, и строку из access_log, которая показывает что запрашивает яндекс

Не стоит плодить сущности без необходимости
Hack_phoenix
На сайте с 04.04.2009
Offline
57
#23

Вообще как бы оговорился... 10 тысяч строк с одной и той же ошибкой. За одну секунду. В минуту это была оговорка. Даже цикл на сайте с ошибкой не даст такого эффекта. там есть другие запросы. Посмотрите. В логе не только яндекс присутствует. Ладно. Скажем, цикл вызывает ошибку 10-20 раз. Откуда берутся тысячи? Яндекс слишком сильно индексирует. Оххо... Акцесслог придется выбирать из MySQl.

Hack_phoenix добавил 16.08.2009 в 08:33

77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /2009-06-23-05-27-34/50-leadtek-gtx-295 HTTP/1.1" 200 889 "-" "Yandex/1.01.00$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /home/34/2009/10 HTTP/1.1" 200 939 "-" "Yandex/1.01.001 (compatible; Win16; I$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /home/34-2009-06-23-05-24-59/59--ati-directx-11 HTTP/1.1" 200 904 "-" "Yandex$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /login/reset.html HTTP/1.1" 200 889 "-" "Yandex/1.01.001 (compatible; Win16; $
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /component/mailto/ HTTP/1.1" 200 1809 "-" "Yandex/1.01.001 (compatible; Win16$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /joomla/2009-07-17-03-49-04/126-2009-07-18-07-20-10/2009/5.html HTTP/1.1" 200$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /home/51-2009-07-17-03-30-27/2009/8 HTTP/1.1" 200 939 "-" "Yandex/1.01.001 (c$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /component/content/article;/82 HTTP/1.1" 200 239732 "-" "Yandex/1.01.001 (com$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /joomla/139-system-mechanic-standart-v900 HTTP/1.1" 200 302780 "-" "Yandex/1.$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /index.php HTTP/1.1" 200 14259 "-" "Yandex/1.01.001 (compatible; Win16; I)"
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /home/34/2009/9.feed HTTP/1.1" 200 939 "-" "Yandex/1.01.001 (compatible; Win1$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /features/35/2009/7.feed HTTP/1.1" 200 939 "-" "Yandex/1.01.001 (compatible; $
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /home/51-2009-07-17-03-30-27/123---chrome-os--windows-7.html HTTP/1.1" 200 39$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /home/51-2009-07-17-03-30-27/142-internet-explorer-8-----q-q.html HTTP/1.1" 2$
77.88.26.25 - - [15/Aug/2009:00:16:25 -0400] "GET /home/51-2009-07-17-03-30-27/2009/7 HTTP/1.1" 200 939 "-" "Yandex/1.01.001 (c$

вот акцесс там поменьше, там на гигабайт выйдет... Ничего, если я счас заархивирую и положу вам рядом, чтобы вы убедились?

Hack_phoenix добавил 16.08.2009 в 08:35

а роботс.тхт БЕЗ crawl-delay и это вообще не принципиально. В данном случае его наличие или отсутствие вообще ни о чем не говорит.

Hack_phoenix добавил 16.08.2009 в 08:37

З.Ы. почему я гугла вот так не вижу? Почему-то он заходит через СЛУЖЕБНЫЙ домен в 64 кб/с канал, индексирует 100 с лишним страниц, да так, что зайдя через неделю в гугл я лишь удивился, что он умыдрился на крайне низкой скорости вытянуть это все и положить к себе в кеш...

...никто не узнает, как плачет ночью тот, кто идет днем по жизни смеясь... Хостинг. VPS. Мы работаем для вас. (http://hostace.ru).
Angel OSHQ.cc
На сайте с 23.07.2007
Offline
225
#24

tcpdf/ - эту директорию под пароль ставь и будет нормально, была такая же ошибка. Это баг у джумлы ... на англ. форумах такую тему поднимали и не раз.

Безлимитный хостинг ( https://oshq.cc/unlimhost.html ) в NL от 0.5$. Аренда серверов во Франции ( https://oshq.cc/serverf.html ) от (15 евро)
Andreyka
На сайте с 19.02.2005
Offline
822
#25

Так определитесь был ли в robots.txt crawl-delay или нет?

Я же не просто так говорю, что все проблемы с яндексом решаются грамотным robots.txt

DLag
На сайте с 15.08.2007
Offline
201
#26
Hack_phoenix:
а роботс.тхт БЕЗ crawl-delay и это вообще не принципиально. В данном случае его наличие или отсутствие вообще ни о чем не говорит.

Говорит о некомпетентности.

Это уже переливание из пустого в порожнее.

Hack_phoenix:

З.Ы. почему я гугла вот так не вижу? Почему-то он заходит через СЛУЖЕБНЫЙ домен в 64 кб/с канал, индексирует 100 с лишним страниц, да так, что зайдя через неделю в гугл я лишь удивился, что он умыдрился на крайне низкой скорости вытянуть это все и положить к себе в кеш...

Про политику Яндекса и их бота можете почитать у них на сайте.

Да, им похрену на все, т.к. они мегакрутая российская компания, не то что какой-то Гуглыш.😂

Руководитель датацентра UkrNames (http://ukrnames.com/)
D
На сайте с 02.05.2009
Offline
68
#27

С другой стороны - проблема с Яндексом явно есть. Я сам видел, как это чудо набежало индексировать большой по объему сайт подняв загрузку в 4 раза. Мне интересно, Яндекс о ней знает? Вы (или не вы, эта проблема на форуме озвучивалась уже раз двадцать) ему писали? Я думаю, что если большое количество людей будет их пинать то рано или поздно они тоже напишут ограничитель своего краулера, как гугл.

robots.txt - это хорошо, только не всегда он применим и не все о нем знают. Раз уж мы о вирт. хостинге говорим.

http://www.differentlocal.ru (http://www.differentlocal.ru) http://differentlocal.habrahabr.ru (http://differentlocal.habrahabr.ru)
N
На сайте с 06.05.2007
Offline
419
#28

Вот и как яндекс определит повышающуюся нагрузку на сервере?

Проблема с яндексом в том, что он генерит нетипичную нагрузку по всем старым страницам. Сразу идут лесом memcached и прочие обычные методы кеширования. Он загрузит все, куда пользователи не ходят, все, что вы даже не предполагали и забыли прописать в исключениях. Будьте к этому готовы или вы упустите шанс.

Andreyka
На сайте с 19.02.2005
Offline
822
#29

Я как-то делал на виртхостинге глобальный robots.txt через alias, который ставил delay

И все работало отлично :)

DLag
На сайте с 15.08.2007
Offline
201
#30
Andreyka:
Я как-то делал на виртхостинге глобальный robots.txt через alias, который ставил delay
И все работало отлично :)

Проблемы начнутся когда пользователи попробуют прописать свой robots.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий