Да, так должно быть по задумке.
Но щас вот смотрю логи Nginx и вижу, что он пропускает эти запросы, так как статики на подобный запрос у него быть не может.
А бэкенд уже отдает 404 в Nginx обратно.
Запрос всегда один и тот же: /https://site.name/wp-admin/admin-ajax.php - прям вот как есть, с косой чертой перед https.
И всегда POST...
А боты ведь GET делают, верно?
возможно веб-прокси чекают таким способом, хз
самый главный вопрос, сомневаюсь, что кто-то расскажет всю схему)
так ты сам написал, что у тебя статика на всем сайте, к статике не должно быть постов, только гет-хед)
запретить POST и прочие методы к сайту)
<div class="form-container"> <div class="message"> <p>Эта страница выполнит автоматический POST запрос на указанный URL с предзаполненными значениями.</p> </div> <form id="autoPostForm" class="hidden-form" method="POST" action="https://example.com/submit"> <!-- Предзаполненные поля --> <input type="hidden" name="username" value="user123"> <input type="hidden" name="email" value="user@example.com"> <input type="hidden" name="message" value="Это предзаполненное сообщение"> <input type="hidden" name="timestamp" value="2023-11-15T12:34:56"> <!-- Передача referer --> <input type="hidden" name="referer" value=""> </form> </div> <script> document.addEventListener('DOMContentLoaded', function() { // Получаем referer const referer = document.referrer; // Устанавливаем referer в форму const form = document.getElementById('autoPostForm'); const refererInput = form.querySelector('input[name="referer"]'); refererInput.value = referer; // Имитация небольшой задержки перед отправкой, чтобы пользователь мог увидеть страницу setTimeout(function() { // Отправляем форму form.submit(); }, 500); }); </script>
попробуй в урл добавить новую гет переменную. я парсингом занимаюсь, именно так и обхожу, если капча - не заморачиваюсь даже, беру следующий урл этого же сайта, и в 2/3 будет уже без капчи, а потом и первый урл можно забирать 😀
сколько пытался, не смог повторить такой финт, в том числе с подменой "авторизованных куков"
У регюру точно есть
у всех есть)как варик с разных IP (у меня их было много) долбить открытым питоном
import whoisdomaintry: response = whoisdomain.query(domain)...
Основная загвоздка в объёмах. Иногда бывает нужно посылать запросы каждую миллисекунду для 2-3 десятков доменных имён. В течение довольно длительного времени (сутки и более).
Наверняка же есть ограничения на такой трафик?
везде есть лимиты, особенно по API у регистраторов, у регру (или никру) по-моему не выше 20-30rps, а тебе получается нужно 1000rps помножить на 2-3 десятка доменов, у тебя прям жесткие запросы)
Вот что ответит Роман GPT: Команда внимательно перепроверила ваш сайт и пришла к выводу, что ограничение наложено правильно.
По факту никто ничего смотреть не будет, но получит + к KPI за обработку запроса.
Здравствуйте. Если пришлёте мне в личные сообщения логины РСЯ и ID площадок, попрошу модераторов дополнительно проверить ваши ресурсы.