С главной формируются страницы по типу /?e=

123 4
M
На сайте с 15.08.2023
Offline
1
#11
bobolab #:
wordfence поставь.. пусть проверит на левые файлы....

спасибо, нашел файл xx.php там много чего в нем левого, возможно он дыру создавал

M
На сайте с 15.08.2023
Offline
1
#12
SeVlad #:

Сам CF7 так не генерирует. Возможно это какой-то плагин к нему.

Но это не должно быть проблемой, которая у тебя в/с яндексом.


ЗЫ. Есть подозрение что проблема с мышевозкой (элементор).

в ядре нашел файл xx.php похоже что он создавал дыру, удалил его посмотрю как сайт себя вести будет. И, наверное, попробую создать дубль сайта с аналогичными плагинами, посмотреть что еще может быть лишнего напихано

SeVlad
На сайте с 03.11.2008
Offline
1609
#13
mariobrand #:
удалил его посмотрю как сайт себя вести будет.
Удалить - мало. Читай по ссылке из первого моего ответа.
Делаю хорошие сайты хорошим людям. Предпочтение коммерческим направлениям. Связь со мной через http://wp.me/P3YHjQ-3.
M
На сайте с 15.08.2023
Offline
1
#14
SeVlad #:
Удалить - мало. Читай по ссылке из первого моего ответа.

спасибо, как раз изучаю

and2005
На сайте с 21.05.2005
Offline
164
#15
SeVlad #:
Дополнительно можно закрыть в роботс "?e=".

Может быть туплю, но по-моему для гугла это невозможно сделать.  Если имелась в виду  директива Disallow: /* ?e=

SeVlad
На сайте с 03.11.2008
Offline
1609
#16
and2005 #:
но по-моему для гугла это невозможно сделать.
Для всех одинаково.
and2005 #:
Если

https://searchengines.guru/ru/forum/974085

Все вопросы по robots.txt - 2 - Вопросы новичков в SEO - Практические вопросы оптимизации - Форум об интернет-маркетинге
Все вопросы по robots.txt - 2 - Вопросы новичков в SEO - Практические вопросы оптимизации - Форум об интернет-маркетинге
  • 2023.08.18
  • searchengines.guru
стали ли они запрещены в роботсе можно в Вебмастере Яндекса https VqJuN вставьте те страницы, которые хотите запретить и увидете результат. проверка роботса в вебмастере Яндекса правильно реагирует на двоеточие в конце
W1
На сайте с 22.01.2021
Offline
288
#17
SeVlad #:
Для всех одинаково

Вроде как Гугл и Яндекс по-разному работают с роботсом. Если Яндекс быстро выкидывает из индекса страницы, закрытые в роботсе, то Гугл просто перестаёт на них заходить  (поэтому, например, не видит noindex на таких страницах) , и они могут ещё долго висеть в поиске, если были проиндексированы ранее.

Мой форум - https://webinfo.guru –Там я всегда на связи
SeVlad
На сайте с 03.11.2008
Offline
1609
#18
webinfo #:
Вроде как Гугл и Яндекс по-разному работают с роботсом

Во-первых речь была о возможности закрыть в робост.

Во-вторых, как ты знаешь, роботс не указание ПСам, а всего лишь рекомендация. Любая ПС может [не]слушать его директивы как сочтёт нужным. На практике же что гугл что яша могли забивать на него. На сёрче не раз это показывалось.

W1
На сайте с 22.01.2021
Offline
288
#19
SeVlad #:
На практике же что гугл что яша могли забивать на него. На сёрче не раз это показывалось.

На практике есть упомянутое мной различие, которое даже в доках ПС вроде как отражено. И на сёрче это тоже обсуждалось.

and2005
На сайте с 21.05.2005
Offline
164
#20
SeVlad #:
Для всех одинаково

Но смотрите, здесь - www.robotstxt.org/robotstxt.html - говорится:

Note also that globbing and regular expression are not supported in either the User-agent or Disallow lines. The '*' in the User-agent field is a special value meaning "any robot".

( Яндекс поддерживает стандарт исключений для роботов (Robots Exclusion Protocol) с расширенными возможностями.)

Для кого тогда этот стандарт, если и гугл его будет обходить. И еще:

Если в robots.txt    Disallow:  /*?*  стоит в секции User-agent: *, то он Яндексом не учитывается, а если в секции  User-agent: Yandex,   то учитывается.

The Web Robots Pages
  • www.robotstxt.org
Web site owners use the /robots.txt file to give instructions about their site to web robots; this is called The Robots Exclusion Protocol . It works likes this: a robot wants to vists a Web site URL, say http://www.example.com/welcome.html. Before it does so, it firsts checks for http://www.example.com/robots.txt, and finds: The " User-agent...
123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий