- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Надо запретить от индексации каталоги: /page/1/, /page/2/, /page/3/...
Поможет ли это сделать директива: Disallow: /page/ или надо использовать Disallow: /page без "/" на конце и в чём отличие?
Без слеша закроет все файлы, которые начинаются с 'page' и лежат в корне. Если таких нет, то можно и так написать.
Без слеша закроет все файлы, которые начинаются с 'page' и лежат в корне. Если таких нет, то можно и так написать.
Ясно, спасибо.
Требуются запретить сайт от индексации для всех роботов, кроме яндекса
Правильно ли я составил роботс? Или каждого не нужного бота запретить отдельно?
И верные ли директивы для WP?
User-agent: Yandex
Host: site.com
Disallow: /cgi-bin
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /tag/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Sitemap: http://site.com/sitemap.xml
User-agent: *
Disallow: /
nicha составили правильно, а вот на счет директив не знаю т.к. не юзаю wp...
nicha, ошибочка. "Host:www.iklmn.ru" нужно ставить после Disallow:
http://help.yandex.ru/webmaster/?id=996567#996574
Ну и в качестве доп.примера мой robots.txt:
Т.к. Я сам предупредил, что на Host "другие" поисковые системы могут подавиться, унёс его в хвост, после sitemap как и сам Я, который с такой вот конструкцией справляется (эмпирически проверенно), а его Host уж точно не помешает никому. Так же, если вы пользуетесь ЧПУ, стоит запрет на линки с параметрами ? и добавлен Allow на загруженные картинки к материалам сайта. На счёт расширенного объяснения Я-у что ему можно-неможно - не проверял. Может и User-agent: * хватит.