Плохо конечно, но вы бы посмотрели на предмет base64 скажем в индексном файле (что то типо header Location: сайт. Может быть) . А вообще стоит глянуть на варезный плагин, куда и что он может подписывать, скорее всего найдете интересные моменты. Наверняка появились новые файлы или папки. Скачайте архив wp и сравните.
.htaccess посмотрите и конфиг на предмет не ваших включений. Вообще зашифрованное base64 в файлах.
Тогда и возможно, кто-то для каких то целей накрутил такой запрос у вас и может быть есть внешние и ссылки на него, вот гугл и подцепил. Скорее всего пропадет со временем, но не быстро.
Не поможет скорее всего. Посмотрите сами, в теле страницы поиска ?s... есть <meta name='robots' content='noindex, follow' />
robots.txt не запрет конкретный для ботов, а указание. Если есть ссылки внутренние, внешние, популярны эти страницы (часто возникает урл на сайте), он не поможет и это не ошибка, предупреждение. Да и собственно там же есть на справку ссылка.
Можно добавить к страницам с гет параметрами или к конкретному параметру :
<meta name="robots" content="follow, noindex"/>
Или вообще полностью к странице поиска, наверняка у вас стоит сео плагин, в котором можно это сделать.
Но ждать результатов придется долго, к этому надо быть готовыми.
А точку в конце урла убрать слабо?
А, что значит sitemap.xml?page=12 ?
На сколько я знаю .xml это единый файл, такую пагинацию впервые вижу.
Не единый, в смысле может содержать индексную страницу с перечислением (ссылками) на остальные карты, все конечно правильно оформленное. По другому, как вы себе представляете карту сайта с сотнями тысяч ссылок, категорий, форматов и тд?
Самый менее напряжный вариант в плане ресурсов сервера, один раз как вы и хотите через sql. Чем парсить каждый пост при загрузке, регулярка и тд.
Мало того, день недели и расположение звезд в день получения сертификата могут серьезно повлиять на позиции сайта. )
Я написал для автора поста, конечно не может и может по old_slug... но в его случаи масса чего не сработало или сработало криво.