- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, помогите пожалуйста грамотно составить файл роботс.тхт.
Мне необходимо запретить индексацию всех страниц каталога:
/our-tour_id_1.html
/our-tour_id_2.html
И так далее.
Составил такой файл роботс:
User-agent: *
Disallow: /our-tour_id
Это правильно?
Не очень понятно каким боком тут каталог, но если у всех страниц адреса начинаются так, то правильно.
Не очень понятно каким боком тут каталог, но если у всех страниц адреса начинаются так, то правильно.
Опять же, может не правильно выразился. у всех страниц меняется только цифра в конце
Опять же, может не правильно выразился. у всех страниц меняется только цифра в конце
В вебмастере Google (Состояние -> Заблокированные URL) Вы всегда может протестировать свой robots.txt.
В поле "Содержание" вставляете свой новый robots.txt. В поле "URL-адреса" вставляете адреса страниц для проверки. Нажимаете "Проверить" и смотрите результат.
так надежней:
User-agent: *
Disallow: /our-tour_id*
В вебмастере Google (Состояние -> Заблокированные URL) Вы всегда может протестировать свой robots.txt.
В поле "Содержание" вставляете свой новый robots.txt. В поле "URL-адреса" вставляете адреса страниц для проверки. Нажимаете "Проверить" и смотрите результат.
кстати, я совсем забыл за этот сервис, всё правильно, там вы можете проверить любые комбинации
так надежней:
Да бред это про надёжность.
Да бред это про надёжность.
вполне возможно, почему нет...
Гугл и на полный запрет индексирования сайта плюёт, урл-ы в выдачи
я на вопрос с старт-поста отвечал, если чё ;)
я на вопрос с старт-поста отвечал, если чё
И что есть разница между:
Disallow: /our-tour_id
и
Disallow: /our-tour_id*
? ))) В чём надёжнее?
В чём надёжнее?
во втором презервативе ;)
Огромное спасибо вам! Проверил в вм тулс - все вроде работает.
Если вы найдете время на ответ на еще одни мучающие вопросы, буду безумно рад! :)
/ru/forum/773606