garry69

Рейтинг
198
Регистрация
12.07.2007
webinfo #:
Ну так и есть. Тысячи и постоянно.

Я примерный процент причин указал в посте выше)

Vladimir #:
Постоянно тысячи сайтов заражают

Не кошмарьте народ насчет тысяч и постоянно) 90% из за установки вареза заряженного. 10% из за недоработок в аддонах/плагинах, но все быстро латается.

Бекап спасет, перезалил прошлый и наслаждайся работоспособностью (или все ядро wp из архива скаченного) и сравнение в директориях файлов, "чужие" удалить. Все.

Насчет конфига и запрета, это все от лукавого или точнее, вы сможете запретить редактировать файлы из админки и все. Это ни разу не спасет от шеллов, опять же из-за установленного вареза, тем более если уже у вас есть зловред, ему не надо ничего через админку делать, все будет напрямую...

Насчет шаблона, опять же не зная что искать и как оно может выглядеть, бессмысленно, только бекап. Плагины так же бекапом и все, варезные удаляем и больше не ставим. В 99% процентах в ядро будут прописаны зловредом всякие нужные ему штуки и сами плагины не интересны.

У ТС явно же header Location есть где-то в индексном или в шабе или функция подписана..., найти можно, можно просто перезалить ядро, отключив и по удаляв серые плагины. Шаб из бекапа или архива, если нет, то ручками на зашифрованное проверить и странные инклюды из ядра или плагина.

Плохо конечно, но вы бы посмотрели на предмет base64 скажем в индексном файле (что то типо header Location: сайт. Может быть) . А вообще стоит глянуть на варезный плагин, куда и что он может подписывать, скорее всего найдете интересные моменты. Наверняка появились новые файлы или папки. Скачайте архив wp и сравните.

.htaccess посмотрите и конфиг на предмет не ваших включений. Вообще зашифрованное base64 в файлах.

Axa-Ru #:
Да, есть.

Тогда и возможно, кто-то для каких то целей накрутил такой запрос у вас и может быть есть внешние и ссылки на него, вот гугл и подцепил. Скорее всего пропадет со временем, но не быстро.

Axa-Ru #:
Может поробовать удалить "Disallow: /?s=" и отправить на исправление?

Не поможет скорее всего. Посмотрите сами, в теле страницы поиска  ?s... есть  <meta name='robotscontent='noindex, follow' />

robots.txt не запрет конкретный для ботов, а указание. Если есть ссылки внутренние, внешние, популярны эти страницы (часто возникает урл на сайте), он не поможет и это не ошибка, предупреждение. Да и собственно там же есть на справку ссылка.

Можно добавить к страницам с гет параметрами или к конкретному параметру :

<meta name="robots" content="follow, noindex"/>

Или вообще полностью к странице поиска, наверняка у вас стоит сео плагин, в котором можно это сделать.

Но ждать результатов придется долго, к этому надо быть готовыми.

Maslo #:
Как видите, даже вас подставили под насмешки и критику, прислав кривую ссылку.

А точку в конце урла убрать слабо?

Denechka #:

А, что значит sitemap.xml?page=12 ?

На сколько я знаю .xml это единый файл, такую пагинацию впервые вижу.

Не единый, в смысле может содержать индексную страницу с перечислением (ссылками) на остальные карты, все конечно правильно оформленное. По другому, как вы себе представляете карту сайта с сотнями тысяч ссылок, категорий, форматов и тд?

Alex2Fast #:
Вопрос по названию записи (только H1 интересует вывод). Хочу через sql запрос приплюсовать к каждому названию поста слово. Не повлияет ли это на url записей? Нужен результат только в H1 выводе. Или же возможно кто-то знает код/плагин, который такое делает (чтобы потом можно было отключить, например, а не поднимать бэкапы таблицы)?

Самый менее напряжный вариант в плане ресурсов сервера, один раз как вы и хотите через sql. Чем парсить каждый пост при загрузке, регулярка и тд.

Всего: 973