LEOnidUKG

LEOnidUKG
Рейтинг
1778
Регистрация
25.11.2006
Должность
PHP
Интересы
Программирование

А можно с такими же условиями в РСЯ рекламироваться?

Чтобы клиент точно купил мой товар и попользовался и потом только в РСЯ я деньги отдам за рекламу? Нет? Понимаю-понимаю... это другое... 🤣

1771 #:
Да, урлы известны. Однопоток.

PHP: curl_multi_init - Manual

Или чатГПТ попросите накидать код мульти CURL, там всё просто будет.

Но помните, что сайты могут защищаться от разного количества потоков. Поэтому можно начать с штук 5 с паузами.

1771 :
но занимает оооочень много времени.
С чего это вдруг? Однопоток? Ну сделайте multicurl особенно если URL уже известен.
Не знаю конечно, использую эксель с разбивкой по столбца по пробелу. И там уже и сортировка и подсветка и т.д. как угодно. Вполне хватает для анализа и выявления всяких нехороших людей.

переведите в другой режим:

pm = ondemand

pm.max_children = 250

pm.process_idle_timeout = 10

pm.max_requests = 500

Количество max_children  надо высчитать от объёма памяти. Учитывая, если памяти 20 ГБ, можно с 250 начать количества.

Далее просто делать анализ чем забивают запросы, возможно много клиентов и долго выполняются скрипты.

Сергей про е-ком #:
Так в том и проблема, что 2-3 недели не отвечает и сообщение не загорается прочитанным / просмотренным. Я, собственно, не из-за заказа эту тему поднял.
А как вы с ним связались? Активность последняя в 2024 году летом. Скайпа уже не существует, на почту писали или по телефону?
ElenaVolkova #:

Спасибо. Это сразу проверили, нет какой-то существенной нагрузки. В такой ситуации получается, что можно просто забить?

Если нагрузки нет, то можно забить.
Так сниппет или титл?
ElenaVolkova #:
А чем чревато вообще для сайта/позиций?
Сейчас тоже начали атаковать боты из Сингапура

Нагрузкой на хостинг:

И там или вас блокируют или заставляют новый тариф купить или покупать VDS

Нерабочий сайт = нет клиентов и потеря позиций.

Ещё как вариант можно бахнуть canonical на главную страницу каждого раздела + выводить ссылки на эти мусорные страницы через JS, чтобы боты меньше их кушали.

Всего: 31535