- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Если категория с заточенной портянкой
Под категорию нужно 10 статей «заточить», под страницу одну. Вот и вся конкуренция. Ну и да, 10 статей — 10 ключей, а это 1 категория.
А мне так никто и не подскажет? :(
Приветствую!
Прошу помощи.
У меня вот такое содержание файла:
User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /feed/
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */comment
Disallow: */comments
Disallow: /category/*/*
Disallow: /*?*
Disallow: /?s=
User-agent: Googlebot
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /feed/
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */comment
Disallow: */comments
Disallow: /category/*/*
Disallow: /*?*
Disallow: /?s=
User-agent: Yandex
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /feed/
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */comment
Disallow: */comments
Disallow: /category/*/*
Disallow: /*?*
Disallow: /?s=
В панели гугл вебмастер, в разделе сканирование,
вижу что гуглбот не может получить доступ к некоторым файлам.
Вижу что "ругается" на то, что нет доступа к css, в папках "wp-themes" и "wp-plugins"
Правильно ли я понимаю, что для того чтобы разрешить гуглботу доступ,
нужно дописать 2 эти строчки,
Allow: /wp-content/themes/
Allow: /wp-content/plugins/
в столбик с User-agent: Googlebot?
Или же надо как-то конкретнее например так:
Allow: /wp-content/themes/*.css
Allow: /wp-content/plugins/*.css
или даже так:
Allow: /wp-content/themes/*.css*
Allow: /wp-content/plugins/*.css*
Я совсем запуталась в этих звездочках...
Подскажите пожалуйста, как будет правильно?
Зачем дублировать директивы трижды,
Там и не было запрета на индексацию css файла, хотя она и не нужна.
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /feed/
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/cache
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */comment
Disallow: */comments
Disallow: /category/*/*
Disallow: /*?*
Disallow: /?s=
Host: сайт
Sitemap: http://сайт/sitemap.xml
Оставьте просто вот это, а все остальное удалите
Оставьте просто вот это, а все остальное удалите
Большое спасибо!! Попробую так и сделать.
Подскажите какие адреса не будут индексироваться при такой записе в роботсе:
Disallow: /*top*search*
Ребят, такая проблемма. Решил закрыть дубли страниц в роботсе, но столкнулся с непонятной для меня проблеммой.
Допустим закрываю я вот такую ссылку:
Disallow: /portfolio.php?work=225&s=1
Проверяю её через "посмотреть как гуглбот" он пишет что она закрыта, всё ОК.
Но! если проверить /portfolio.php?work=225&s=1&ss=3 то она тоже закрыта, и при проверке роботс ссылается на Disallow: /portfolio.php?work=225&s=1
Получается я одним запретом закрыл обе страницы дубля а не одну, как быть в такой ситуации, почему гуглбот не учитывает точное вхождение ссылки?
Вот роботс на васякий случай - bandesign.ru/robots.txt
На сколько я понял, Вы хотите закрыть все дубли, которые включают в себя определенный символ или символы? обычно дубли включают в себя символы ?,%,& и др.
Поставьте в роботсе:
Disallow: /index.php?
Disallow: /*?
Disallow: /*%
Disallow: /*&
Disallow: /index2.php
Disallow: /index.php
Disallow: /*tag
Пошел по пути запрещения ссылок с динной "бородой", то есть для примера запрещаю к регистрации /portfolio.php?work=104&s=1&ss=1 но при проверке sitemap.xml он говорит что запрещен урл /portfolio.php?work=104&s=1
То есть он их видимо считает одинаковыми ссылками.
Скорее всего директива Disallow: /*&ss= тут будет не уместна, результат будет такой же или нет?
И это может угрохать половину сайта, так как есть несколько "общих" страниц в урл которых входит *&ss=
Подскажите можно ли прописать сначала Disallow: /*&ss= а после Allow: /с перечислением нужных для регистрации урлов?
То есть:
Disallow: /*&ss=
Allow: /portfolio.php?s=1&ss=6 - эти страницы как правило без слова work в урле, и их не больше 10.
Практикуется ли такое?
На данный момент закрыты вручную урлы с "бородой". Залил роботс, залил новый сайтмап.xml, гугл консоль пишет 37 предупреждений о том что ссылки типа /portfolio.php?work=104&s=1 (то есть без бороды с &ss= ) заблокированы в роботс.тхт
Далее иду в Инструмент проверки файла роботс где ввожу portfolio.php?work=104&s=1 на который он ругался, но пишет Доступен, а если проверить portfolio.php?work=104&s=1&ss=1 (с бородой ss), то он Заблокирован.
Далее захожу в Посмотреть как гуглбот ввожу ту же ссылку и нажимаю на Сканирование, пишет Готово, после чего жму для той же ссылки Получить и отобразить, пишет Частично выполнено.
После этих манипуляций я не очень понимаю противоречий самой гугл консоли, то она пишет 37 ошибок, но при проверке они проходят, а ссылка которую запретил в роботс, соответственно запрещена. Где логика?
Доброго дня!
Подскажите плиз, строка в роботс.тхт:
Disallow: /go/
запрещает для индексации все ссылки на сайте или только исходящие на внешние сайты? имеется ввиду внутренняя перелинковка теряет смысл для ПС с этой строкой?
На сколько я понял, Вы хотите закрыть все дубли, которые включают в себя определенный символ или символы? обычно дубли включают в себя символы ?,%,& и др.
Поставьте в роботсе:
Disallow: /index.php?
Disallow: /*?
Disallow: /*%
Disallow: /*&
Disallow: /index2.php
Disallow: /index.php
Disallow: /*tag
Можно ли задать шаблонно Disallow для всех ссылкок с ss, но потом несколько конкретных поставить в Allow?