Я примерный процент причин указал в посте выше)
Не кошмарьте народ насчет тысяч и постоянно) 90% из за установки вареза заряженного. 10% из за недоработок в аддонах/плагинах, но все быстро латается.
Бекап спасет, перезалил прошлый и наслаждайся работоспособностью (или все ядро wp из архива скаченного) и сравнение в директориях файлов, "чужие" удалить. Все.
Насчет конфига и запрета, это все от лукавого или точнее, вы сможете запретить редактировать файлы из админки и все. Это ни разу не спасет от шеллов, опять же из-за установленного вареза, тем более если уже у вас есть зловред, ему не надо ничего через админку делать, все будет напрямую...
Насчет шаблона, опять же не зная что искать и как оно может выглядеть, бессмысленно, только бекап. Плагины так же бекапом и все, варезные удаляем и больше не ставим. В 99% процентах в ядро будут прописаны зловредом всякие нужные ему штуки и сами плагины не интересны.
У ТС явно же header Location есть где-то в индексном или в шабе или функция подписана..., найти можно, можно просто перезалить ядро, отключив и по удаляв серые плагины. Шаб из бекапа или архива, если нет, то ручками на зашифрованное проверить и странные инклюды из ядра или плагина.
Плохо конечно, но вы бы посмотрели на предмет base64 скажем в индексном файле (что то типо header Location: сайт. Может быть) . А вообще стоит глянуть на варезный плагин, куда и что он может подписывать, скорее всего найдете интересные моменты. Наверняка появились новые файлы или папки. Скачайте архив wp и сравните.
.htaccess посмотрите и конфиг на предмет не ваших включений. Вообще зашифрованное base64 в файлах.
Тогда и возможно, кто-то для каких то целей накрутил такой запрос у вас и может быть есть внешние и ссылки на него, вот гугл и подцепил. Скорее всего пропадет со временем, но не быстро.
Не поможет скорее всего. Посмотрите сами, в теле страницы поиска ?s... есть <meta name='robots' content='noindex, follow' />
robots.txt не запрет конкретный для ботов, а указание. Если есть ссылки внутренние, внешние, популярны эти страницы (часто возникает урл на сайте), он не поможет и это не ошибка, предупреждение. Да и собственно там же есть на справку ссылка.
Можно добавить к страницам с гет параметрами или к конкретному параметру :
<meta name="robots" content="follow, noindex"/>
Или вообще полностью к странице поиска, наверняка у вас стоит сео плагин, в котором можно это сделать.
Но ждать результатов придется долго, к этому надо быть готовыми.
А точку в конце урла убрать слабо?
А, что значит sitemap.xml?page=12 ?
На сколько я знаю .xml это единый файл, такую пагинацию впервые вижу.
Не единый, в смысле может содержать индексную страницу с перечислением (ссылками) на остальные карты, все конечно правильно оформленное. По другому, как вы себе представляете карту сайта с сотнями тысяч ссылок, категорий, форматов и тд?
Самый менее напряжный вариант в плане ресурсов сервера, один раз как вы и хотите через sql. Чем парсить каждый пост при загрузке, регулярка и тд.