- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Время от времени поочередно на разных сайтах тоже появляется это "Проиндексировано, несмотря на блокировку в файле robots.txt". Совпадение или нет, не знаю, но всегда приходит по понедельникам. С сотрудниками смеемся на эту тему, мол у Гоши будун с утра, не видит даже дизы в роботсе 😂 и глючить начинает,
Тупо тискаем "проверить" в новой версии webmasters и через пару недель приходит, что типа проверили и ошибка устранена.
Так что сильно не переживайте, люди болеют, а боты тем паче 🤣
Проиндексировано, несмотря на блокировку в файле robots.txt. Страница была проиндексирована, несмотря на блокировку файлом robots.txt (Google всегда следует предписаниям этого файла, однако если на других сайтах есть ссылки на вашу страницу, robots.txt не поможет). Этот статус установлен, так как мы не уверены, что вы хотите удалить страницу из результатов поиска. Если ваше намерение именно таково, файл robots.txt не является корректным способом избежать индексации. Чтобы страница не была проиндексирована, необходимо использовать тег noindex или запретить анонимный доступ к ней. С помощью специального инструмента можно понять, какое именно правило блокирует страницу. Из-за файла robots.txt страница может не самым оптимальным образом показываться в результатах поиска. Если вы не хотите удалять страницу из результатов поиска, измените файл robots.txt.
https://support.google.com/webmasters/answer/7440203?hl=ru
Добрый день
На сайте есть раздел новинки - как категория каталога.
Урл https://sirop.club/catalog/category/new/
В нем есть деление по группам товаров, например, новинки в птице
урл https://sirop.club/catalog/category/new/birds/
Также если зайти сначала в категорию птицы, затем там выбрать новинки, то получаем урл
https://sirop.club/catalog/category/birds/new/
Согласно Pagerank, страницы вида
https://sirop.club/catalog/category/birds/new/
имеют больший вес чем
https://sirop.club/catalog/category/new/birds/
Следовательно, последний тип нужно закрыть в robots, чтобы поисковые машины их не учитывали (листинг товаров абсолютно идентичен)
Правильно ли я понимаю, что в роботс должно быть прописано
Disallow: /category/new/
И при этом страницы правильно вида, например, https://sirop.club/catalog/category/birds/new/ не будут заблокированы для индексации? Или требуется добавить какой-то дополнительный параметр allow?
Заранее спасибо за разъяснения.
Если таким макаром, то нужно от корня прописывать.
Выбирайте тот вариант, который лучше укладывается в структуру. Ссылку на другой, естественно, убирайте с сайта. По идее таких дублей в принципе не должно быть.
Правильно ли я понимаю, что в роботс должно быть прописано
Disallow: /category/new/
Нет, надо вот так:
Disallow: /catalog/category/new/
Если хотите саму страницу https://sirop.club/catalog/category/new/ при этом оставить открытой, то ещё добавляете строчку:
Allow: /catalog/category/new/$
Доброго дня. Сайт в яндексе внезапно попал в Дорвеи. Сайту месяца нет, всего 7 страниц. Текст весь оригинальный (заказывал писать). На все 7 страниц сайта всего 4 ссылки на сторонние сайты. Причем все сайты "серьезные", то есть ссылаются на яндекс, гугл, мэйл. Дорвеем тут и не пахнет.
Сайт работает на WP. Информацию на сайте выкладываю в виде страниц (не посты).
сайт.ру/статья1
сайт.ру/статья2
сайт.ру/статья3
И так далее. Но бот яндекса усиленно стучится куда не надо. Например
/comments/feed/
/wp-includ
/wp-json/oembed/1.0/embedes/wlwmanifest.xml
И так далее. В robots.txt обширное правило. Но видно не могу обхватить ВСЕ.
Суть моего вопроса, как сделать правило так, что бы роботы ходили лишь по 7 страницам и не лез больше никуда дальше эти 7 страниц ?
Пока додумался до этого, но включать эти правила как-то побаиваюсь
Disallow: /*
Allow: /статья1
Allow: /статья2
Allow: /статья3
Allow: /статья4
Allow: /wp-content/uploads/
User-agent: Yandex
Disallow: /*
Allow: /статья1
Allow: /статья2
Allow: /статья3
Allow: /статья4
Allow: /wp-content/uploads/
User-agent: Googlebot
Disallow: /*
Allow: /статья1
Allow: /статья2
Allow: /статья3
Allow: /статья4
Allow: /wp-content/uploads/
Коллеги! Подскажите, как можно исправить следующую ошибку в файле robots.txt, которая показывается в Google Search Console?
Ниже привожу весь файл:
User-agent: *
Disallow: /*route=account/
Disallow: /*route=affiliate/
Disallow: /*route=checkout/
Disallow: /*route=product/search
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter=
Disallow: /*&filter=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Disallow: /*?tracking=
Disallow: /*&tracking=
User-agent: Yandex
Disallow: /*route=account/
Disallow: /*route=affiliate/
Disallow: /*route=checkout/
Disallow: /*route=product/search
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter=
Disallow: /*&filter=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Clean-param: tracking
Google Search Console показывает на ошибку в Clean-param: tracking
Чем это извращение поможет от метки "Дорвей"?
Гугл не знает директивы Clean-param, поэтому никак не исправить.
Чем это извращение поможет от метки "Дорвей"?
Читал что из-за большой числа "мусорных" страниц может в дорвей кинуть. А робот активно по левым ссылкам пошел.
Robots.txt такой
Но яндекс активно лезет на страницы /feed и так далее.
Честно говоря я понять не могу почему в дорвей записали сайт. На другие сайты ссылок нет. Текст писался на заказ и он уникальный и по тематике.