- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Disallow: /wp-includes
тоже можете убрать.
Disallow: /wp-content/cache
Этот я бы оставил, т.к не известно мне в каком формате хранится кэш.
Убрал эти 3 правила полностью из файла, проверяю опять на совместимость с моб. устройствами через панель Search Console, но ситуация и результат тот же. Оно же должно сразу нормально стать отображаться? Или должно пройти какой-то время? И если сразу, тогда в чем же еще может быть проблема, если ситуация не поменялась?
Убрал эти 3 правила полностью из файла, проверяю опять на совместимость с моб. устройствами через панель Search Console, но ситуация и результат тот же. Оно же должно сразу нормально стать отображаться? Или должно пройти какой-то время? И если сразу, тогда в чем же еще может быть проблема, если ситуация не поменялась?
Посмотрел на Ваш robots.txt
Оказалось, что правило
Disallow: /*?*
блокировало остальные файлы стилей, что и сказывалось на не корректном отображений страницы в гугле
Удалите его и проверьте еще раз
Посмотрел на Ваш robots.txt
Оказалось, что правило
Disallow: /*?*
блокировало остальные файлы стилей, что и сказывалось на не корректном отображений страницы в гугле
Удалите его и проверьте еще раз
Все, теперь все впорядке, отображает корректно)) Огромное спасибо🍻
Только скажите, если я убрал Disallow: /*?*, мне остальные 4 правила вернуть?
Потому что в конечно итоге я удалил получается:
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /wp-includes
Disallow: /wp-content/cache
и
Disallow: /*?*
Все, теперь все впорядке, отображает корректно)) Огромное спасибо🍻
Только скажите, если я убрал Disallow: /*?*, мне остальные 4 правила вернуть?
Потому что в конечно итоге я удалил получается:
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /wp-includes
Disallow: /wp-content/cache
и
Disallow: /*?*
Нет, можно только один добавить
Disallow: /wp-content/cache
Но потом проверить отображение сайта по гугл версии
А есть у кого сайт, где можно почитать, как правильно с ним работать?
Лично я думала что роботов невозможно обхитрить и т.д. Если всё так просто, почему у многих проблемы?? Или всё дело в грамотном и чётком написании robots.txt которое мало кто осилит? Или как?
Добрый день.
Подскажите, пожалуйста, по robots. Интересует Яндекс, в индексе которого есть страницы, предназначенные для печати. Соответственно, хочу закрыть их в robots. Помогите, плз, составить директиву.
Допустим, есть страницы:
site.ru/catalog/product1/
site.ru/services/for_clients/
site.ru/info/path/products/about/line1/
У этих же страниц есть варианты, предназначенные для печати (урл формируется добавлением ?print=Y после последнего слеша). Т.е. урлы вышеприведенных страниц:
site.ru/catalog/product1/?print=Y
site.ru/services/for_clients/?print=Y
site.ru/info/path/products/about/line1/?print=Y
Вопрос: как закрыть все эти страницы с print=Y , не закрыв по ходу еще чего лишнего?
Такая строчка Disallow: /*?print=Y будет работать или ошибаюсь?
Заранее спасибо.
Все правильно, будет работать. Перед знаком вопроса можно слеш еще добавить.
PS в вебмастере яндекса есть удобная проверка файла роботс, там же можно посмотреть закрыта страница от индексации или нет
Перед знаком вопроса можно слеш еще добавить.
А что это даст?
Про проверку в вебмастере в курсе, но мне нужно сейчас не запороть, чтобы не закрыть лишнее.
нужная статья