- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Здравствуйте.
Простой вопрос:
Распространяются ли правила robots.txt на содержимое внутри прикрепленного sitemap.xml?
Например:
Disallow: /folder1/
Sitemap: site.ru/sitemap.xml
В содержимом sitemap будет присутствовать этот /folder1/
Где приоритет выше? У правил роботс или в содержимом карты сайта?
Подскажите пожалуйста, если в роботсе под Googlebot делаешь Allow определенного контента, а дальше идет правило под User-agent: *, где есть ряд строчек с Disallow, то будет ли этот Disallow распространятся под Googlebot, за исключением того, что прописано под него в Allow.
Другими слова, нет ли тут конфликта и будет ли работать универсальный Disallow под гуглбот?
User-Agent: Googlebot
Allow: /wp-content/themes/*.css
Allow: /wp-content/plugins/*.css
Allow: /wp-content/uploads/*.css
Allow: /wp-content/themes/*.js
Allow: /wp-content/plugins/*.js
Allow: /wp-content/uploads/*.js
Allow: /wp-includes/css/
Allow: /wp-includes/js/
Allow: /wp-includes/images/
User-agent: *
Disallow: /wp-includes
Disallow: /wp-content
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-content/uploads
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: */comments
Disallow: /comments
Disallow: /*?*
Disallow: */page*
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?attachment*
Disallow: /*?replytocom*
Disallow: /trackback
Такие манипуляции провожу потому, что гугл "Googlebot не может получить доступ к файлам CSS и JS на сайте"
всем привет. помогите с проблемой
есть форум на вобле, на нем такая же как здесь структура, разделы.
тк вот, в последнее время много стало подобных страниц
forum.ru/forumdisplay.php=107&daysprune=-1&order=desc&sort=views&pp=20&page=5
вопрос: как закрыть от индексации все урлы, где встречается слово "daysprune"
luckyfish123,
Disallow: /*daysprune*
Добрый день.
Вот такое сообщение получил в гугл тулс:
Робот Googlebot не может обработать код JavaScript и/или файлы CSS из-за ограничений в файле robots.txt
посмотрите плиз:
User-Agent: *
Disallow: /*search
Disallow: /*page=
Disallow: /*route=account/
Disallow: /*route=affiliate/
Disallow: /*route=checkout/
Disallow: /*route=product/search
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Disallow: /*?tracking=
Disallow: /*&tracking=
User-agent: Yandex
Disallow: /*route=account/
Disallow: /*route=affiliate/
Disallow: /*route=checkout/
Disallow: /*route=product/search
Disallow: /index.php?route=product/product*&manufacturer_id=
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /system
Disallow: /*?sort=
Disallow: /*&sort=
Disallow: /*?order=
Disallow: /*&order=
Disallow: /*?limit=
Disallow: /*&limit=
Disallow: /*?filter_name=
Disallow: /*&filter_name=
Disallow: /*?filter_sub_category=
Disallow: /*&filter_sub_category=
Disallow: /*?filter_description=
Disallow: /*&filter_description=
Clean-param: tracking
SerdGoreliy2, похоже на опенкарт, попробуйте убрать строку
Disallow: /catalog
Да, опенкарт) попробую, спасибо)
Хотя Гугл подчеркивает ошибкой нижнею строчку:
Clean-param: tracking
Странно, она ведь вообще ни к нему относится, а к яндексу
Где приоритет выше? У правил роботс или в содержимом карты сайта?
По моим наблюдениям у robots.txt. Ну для пущей верности сотрите те строки из sitemap.xml да и будет вам счастье.
---------- Добавлено 04.11.2015 в 16:42 ----------
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /system
Я бы в этих папках поискала наличие JavaScript и CSS файлов и все.
---------- Добавлено 04.11.2015 в 16:48 ----------
Подскажите, нужно ли убрать какие либо папки из файла робот.тхт?
Убрать
Disallow: /images/
Disallow: /templates/
Пример.
У меня есть страницы "Итальянские часы", URL - site.com/italianwatch
При этом в поиске появляются страницы типа: site.com/italianwatch/25%аримиова536/ и так далее
Мне нужно как то запретить индексацию всех таких страниц и оставить одну версию - site.com/italianwatch, при этом чтобы с тех страниц, что я указал были редиректы на основные.\
Что прописывать в robot.txt?
Awertiks,
User-agent: *
Disallow: /italianwatch/* - закроет все что после italianwatch
Allow: /italianwatch/$ - разрешает только italianwatch
По поводу редиректа это в htaccess.