- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Имеется 2 урл:
1. /films/fantasy/123-avatar.html
2. /films/fantasy/torrent/123-avatar.html
Урл 2 нужно закрыть от индексации в robots.txt, при этом чтобы урл 1 нормально индексировался.
Я правильно пониманию, фрагмент должен быть таким?
Disallow: */torrent/*
Или это неправильно?
тут так написанно:
Maximalist, да, спасибо. Как-то не догадался в хелпе яндекса глянуть, а на офсайте по роботсу ничего не нашел.
Кстати в контексте этого топика, подскажите как сейчас - можно ли надеяться что страницы, закрытые в роботсе не будут индексироваться, или ПС сейчас могут игнорировать роботс?
можно ли надеяться что страницы, закрытые в роботсе не будут индексироваться
насколько я знаю - да :)
насколько я знаю - да
Просто я уже немножко отстал от жизни seo так сказать :), слышал такие страшные истории мол роботс уже игнорируется...
Reise, вы можете написать пример своего роботса в http://webmaster.yandex.ru/robots.xml, дальше (в следующем окне) добавить урл, который хотите проверить и узнаете, будет он индексироваться или нет.
Правило Disallow: /*/torrent/ таки не работает. Страницы типа /films/fantasy/torrent/123-avatar.html полезли в индекс гугла.
Таки вот такие как ТС и распускают всякие левые слухи про роботс. Два часа назад просил составить правило, а сейчас уже все страницы в индексе и роботс не работает
Reise, вы можете написать пример своего роботса в http://webmaster.yandex.ru/robots.xml, дальше (в следующем окне) добавить урл, который хотите проверить и узнаете, будет он индексироваться или нет.
Самое смешное, что по яндексу выдается , что запрещен:
, при этом правило то без звездочки в конце, то есть: Disallow: /*/torrent/
По гуглу повторюсь - страницы уже полезли в индекс. Добавлю я пока звездочку в конец.
---------- Добавлено 01.02.2012 в 18:21 ----------
И все таки выяснил что гугл игнорирует правила robots.txt. На сайте есть урл-ы вида
в robots.txt стоит правило:
И при этом данные страницы прекрасно индексируются.
Что делать?
И при этом данные страницы прекрасно индексируются.
Индексируются новые страницы с уже новыми правилами роботс.тхт?
гугл игнорирует правила robots.txt.
Вообще-то, это неправда. Google о robots.txt
Покажите на всякий случай ваш роботс, или дайте урл.
Disallow: /films/fantasy/torrent/*