- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
День добрый!
В общем вопрос по роботу
Допустим фильм входит в 2 категории, пусть это будут фантастика и боевик.
Ко всему этому, еще он входит в категорию "топ 100" "кино 2012" "русские фильмы"
Соответственно 5 категорий для 1 материала это не есть гуд
Думал, что бы закрыть категории "кино 2012" , "топ 100", "русские фильмы" в robots.txt
Однако если закрыть допустим категорию "топ 100" Disallow: /top100/ , то помимо категории, так же закроется и сам материал, который находится в этой категории.
Но вот в DLE есть сейчас редиректы, которые перенаправляют со всех категорий на первую указанную.
По логике, Disallow: /top100/ закроет категорию и материалы в ней, но если здесь будет идти редирект на первую категорию, то соответственно и правило Disallow: /top100/ не каснется самого материала. так как материал будет доступен не по сайт\топ100\фильм, а переноправлен на правильный: сайт\боевик\фильм
Я прав?
Спасибо.
Я думаю тут проблема не в robots.txt, а в логике структуры сайта - зачем у одного и того же фильма должно быть множество страниц в разных категориях, которые будут являться дублями друг друга?
Не лучше ли организовать структуру следующим образом:
сайт\фильмы\терминатор
сайт\категории\топ100
сайт\категории\кино2012
и со страниц категорий размещать ссылки на страницы фильмов?
Если же вопрос именно в
, то для этого есть спец-символ $ , правило
Disallow: /top100/$
закроет только страницу сайт/top100/, страницы сайт/top100/что-угодно-со-сколько-угодно-/ будут доступны. Для проверки работы правил есть http://webmaster.yandex.ru/robots.xml сами правила есть в http://help.yandex.ru/webmaster/?id=996567