- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В последний ап проиндексировались страницы такого типа:
http://сайт.ru/раздел/страница.html/feed (Комментарии на: .......)
хотя в robots.txt прописано
...
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
...
До этого апа ничего подобного не было.
Подскажите, пожалуйста, что не так.
Видимо я не один с этим столкнулся! Интересно, почему Яндекс начал 'класть' на robots?
В последний ап проиндексировались страницы такого типа:
http://сайт.ru/раздел/страница.html/feed (Комментарии на: .......)
хотя в robots.txt прописано
...
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
У тебя ссылка без слеша, а в правиле со слешем на конце. Так?
Не правильно написано правило, поэтому и индексирует.
Напиши так
Disallow: /*feed*
или так
Disallow: /*feed
У тебя ссылка без слеша, а в правиле со слешем на конце. Так?
В общем-то да. Вы считаете, что нужно в правиле добавить слеш?
Но до сегодня было же все нормально?!
И, кстати есть в роботе другие правила, например Disallow: /wp-admin (без слеша), но НЕ индексируются страницы, которые такого вида сайт/wp-admin/страница (со слешем)
В общем-то да. Вы считаете, что нужно в правиле добавить слеш?
Но до сегодня было же все нормально?!
И, кстати есть в роботе другие правила, например Disallow: /wp-admin (без слеша), но НЕ индексируются страницы, которые такого вида сайт/wp-admin/страница (со слешем)
Цитируя Яндекс:
По умолчанию к концу каждого правила, описанного в robots.txt, приписывается '*'
В общем-то да. Вы считаете, что нужно в правиле добавить слеш?
Он там есть. А в ссылке его нет.
Это правило не запрещает индексировать данную ссылку.
У тебя ссылка без слеша, а в правиле со слешем на конце. Так?
Действительно, полазил по другим сайтам, проанализировал роботсы - так и есть: мою страницу с фидом яндекс вебмастер кушает, там где без слеша - пишет: запрещено в роботс. тхт.
Спасибо, что ткнул носом!
Посмотрел, один из своих проектов. В индексе много страниц http://URL поста/feed/
в роботс прописано Disallow: /feed/
Раньше все норм было.
Эх глюченный Яндекс стал
Посмотрел, один из своих проектов. В индексе много страниц http://URL поста/feed/
в роботс прописано Disallow: /feed/
Раньше все норм было.
Эх глюченный Яндекс стал
Это не Яндекс глючный, а ты бестолковый.
Хоть бы почитал что про robots.
Твоя директива не запрещает эти адреса.
Во-первых, без оскорблений!
во-вторых,
чтож у меня неправильно, если до последнего апа все это прекрасно работало.
И чтож у меня не правильно если в хелпе яндекса написано
Disallow: /cgi-bin # блокирует доступ к страницам
#начинающимся с '/cgi-bin'
и чем отличается от feed ?