Если вам так хочется облако тегов, то ссылки с облака настраиваете на страницу
../страница
ни в коем случае не так
../тег/страница - такое, должно отдавать 404.
Часто. Гугл аналогично показывает.
У пользователя язык браузера русский, локаль русская, живет в - Регион Россия, читает сайты на армянском в том числе.
Мне уж показалось, что судя по гиперактивности, не вы ли автор сего сайта...
Какая атака? Хватит, удачного одного запроса, чтобы атака оказалась удачной...
1. Весь код, который привел ТС, вообще не должен доходить до обработки
foreach($_POST as $key => $value)
{
// Фильтрация и проверка данных PHP , первое что попалось
}
Код обработчика данных
2. Первый пункт не отменят ваше предложение - Включаем серверную фильтрацию на многократные однотипные запросы
Чего, чего, ссылка с "черным пиаром", решает твою задачу
По делу, хоть скажи что нибудь.....
Возможно и надежнее, но за много лет, только на одном сайте пришлось название поля менять.
Ну, отослали данные на обработчик, у тебя, что ума не хватает принять эти данные и проверить перед обработчиком?
Страницы Б, вообще не должно быть, если это дубль
Вот этой хрени - <meta canonical= > Тоже не должно быть, хотя бы потому, что Яндекс, большее не учитывает эту запись
И добавить лишнее поле....для бото-заполнения
Так, до них не доходит, что после приема POST запроса, данные тоже должны проверятся
Пришли они или нет, придут или нет, у вас в любом случае должна быть проверка на входящие данные, и если вы этого не понимете, то какой из вас программист?
Пользоваться готовыми обработчиками, в которых даже не знаете, что проверяется, а что нет?---------- Добавлено 13.10.2019 в 13:47 ----------
А, то что она у всех, и на 90 % не работает. А, проверив только на бота....на 90%, сработает exit, без дальнейшей проверки всех входящих данных ---------- Добавлено 13.10.2019 в 13:59 ----------
Вы, умеете пользоваться прокси? Ну, бывает школота балуется с одного, но в основном Ip меняется, и уповать на блеклист не стоит.