- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
wordfence поставь.. пусть проверит на левые файлы....
спасибо, нашел файл xx.php там много чего в нем левого, возможно он дыру создавал
Сам CF7 так не генерирует. Возможно это какой-то плагин к нему.
Но это не должно быть проблемой, которая у тебя в/с яндексом.
ЗЫ. Есть подозрение что проблема с мышевозкой (элементор).
в ядре нашел файл xx.php похоже что он создавал дыру, удалил его посмотрю как сайт себя вести будет. И, наверное, попробую создать дубль сайта с аналогичными плагинами, посмотреть что еще может быть лишнего напихано
удалил его посмотрю как сайт себя вести будет.
Удалить - мало. Читай по ссылке из первого моего ответа.
спасибо, как раз изучаю
Дополнительно можно закрыть в роботс "?e=".
Может быть туплю, но по-моему для гугла это невозможно сделать. Если имелась в виду директива Disallow: /* ?e= *
но по-моему для гугла это невозможно сделать.
Если
https://searchengines.guru/ru/forum/974085
Для всех одинаково
Вроде как Гугл и Яндекс по-разному работают с роботсом. Если Яндекс быстро выкидывает из индекса страницы, закрытые в роботсе, то Гугл просто перестаёт на них заходить (поэтому, например, не видит noindex на таких страницах) , и они могут ещё долго висеть в поиске, если были проиндексированы ранее.
Вроде как Гугл и Яндекс по-разному работают с роботсом
Во-первых речь была о возможности закрыть в робост.
Во-вторых, как ты знаешь, роботс не указание ПСам, а всего лишь рекомендация. Любая ПС может [не]слушать его директивы как сочтёт нужным. На практике же что гугл что яша могли забивать на него. На сёрче не раз это показывалось.
На практике же что гугл что яша могли забивать на него. На сёрче не раз это показывалось.
На практике есть упомянутое мной различие, которое даже в доках ПС вроде как отражено. И на сёрче это тоже обсуждалось.
Для всех одинаково
Но смотрите, здесь - www.robotstxt.org/robotstxt.html - говорится:
Note also that globbing and regular expression are not supported in either the User-agent or Disallow lines. The '*' in the User-agent field is a special value meaning "any robot".
( Яндекс поддерживает стандарт исключений для роботов (Robots Exclusion Protocol) с расширенными возможностями.)
Для кого тогда этот стандарт, если и гугл его будет обходить. И еще:
Если в robots.txt Disallow: /*?* стоит в секции User-agent: *, то он Яндексом не учитывается, а если в секции User-agent: Yandex, то учитывается.