- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Здравствуйте!
Подскажите пожалуйста, было дело, мы поставили модуль для SEO, а он нам наплодил непонятную кучу дублей. На сайте у нас стоит Opencart 2.3.
Стандартные закрыты вот так и все нормально:
А сейчас мы имеем дубли такого вида:
Как правильно закрыть такие страницы в robots.txt? Чтобы гугл их выплюнул
сейчас мы имеем дубли такого вида:
Как правильно закрыть такие страницы в robots.txt? Чтобы гугл их выплюнул
А такое не срабатывает?
Как правильно закрыть такие страницы в robots.txt? Чтобы гугл их выплюнул
Анализ robots.txt Google
Анализ robots.txt Яндекс
помогите, как правильно настроить роботс для сайта на Opencart
пациент webasto.**pro
Сейчас разработчики тем WP предлагают свой robots.txt
и он очень лаконичен:
User-agent: *
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-json/
Disallow: /xmlrpc.php
Disallow: /readme.html
Disallow: /*?
Disallow: /?s=
Allow: /*.css
Allow: /*.js
Подскажите, что прописать для закрытия от индексации страниц, CMS Wordpress.
А то генерирует отдельный URL для каждого изображения.
Подскажите как закрыть в robots.txt ссылки типа:
domen../ru/10332-recept-prigotovlenija-ku-poshagovii-s-foto/edit
в конце - /edit
🍻
так? Disallow: /edit/ ?
Правило обработки строк стандартное для регуярок.
Disallow: /*/edit/
Но учитывайте со слэшем или без в конце закрываете (/*/edit$ или вообще если есть /edit в любом месте: /*/edit*)
Если хотите отсечь в конце строку, то добавляйте $, чтобы совпадения не искались дальше.
Из своих недавних наблюдений могу сказать, что записи в robots.txt полезны только если они вносятся ДО индексации ненужных страниц поисковиками. Если индексация уже прошла, то запись disallow делает только хуже! Гугл потом выдает предупреждение "indexed though blocked by robots.txt" и не увидит даже 301 редиректа если вы его поставите на страницу) Ну может месяца через 3-4 он и решит убрать страницу с индекса, но это так-себе timeframe.
Я после наблюдений изложенных выше убрал вообще все записи в robots.txt (кроме сайтмапа) и делаю теперь так:
1) Возвращаю HTTP Header "X-Robots-Tag: noindex". В принципе этого должно быть достаточно – в отличии от мета тегов которые гугл воспринимает как рекомендацию, HTTP Header X-Robots-Tag он воспринимает как директиву. Все же, так как поисковиков много и так как никто не знает как гугл будет обрабатывать эти хедеры в будущем делаю еще пару пунктов.
2) Ставлю meta тег no index.
3) Если речь идет о страницах типа "?sort=" со всякими сортировками фильтрами – canonical указывающую на главную страницу категории в meta теге и в HTTP Header.
Не знаю, может я и не прав, но я не вижу чем все эти disallow могут быть лучше чем правильно прописанные noindex :)
Правило обработки строк стандартное для регуярок.
Disallow: /*/edit/
Но учитывайте со слэшем или без в конце закрываете (/*/edit$ или вообще если есть /edit в любом месте: /*/edit*)
Если хотите отсечь в конце строку, то добавляйте $, чтобы совпадения не искались дальше.
спасибо. в моем случае - для варианта, где /edit в конце , пример : domen../ru/10332-recept-prigotovlenija-ku-poshagovii-s-foto/edit
будет - Disallow: /*/edit$
я верно понял вас?