- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите, правильно ли составлен http://www.makisalon.ru/robots.txt
Задача: запретить поисковикам от индексации все, кроме страниц находящихся в sitemap.xml
Предлагаешь самим лопатить твой сайтмап и искать что не закрыл?
Нет, вопрос был правильно ли составлен robots.txt? Я хочу, чтобы робот индексировал только те страницы, которые находятся в sitemap.xml и никакие другие. Sitemap лопатить я не просил, вопрос правильно ли я прописал инструкцию для робота в robots.txt?
вопрос правильно ли я прописал инструкцию для робота в robots.txt?
там проверяйте http://webmaster.yandex.ru/robots.xml
Нет, вопрос был правильно ли составлен robots.txt? Я хочу, чтобы робот индексировал только те страницы, которые находятся в sitemap.xml и никакие другие. Sitemap лопатить я не просил, вопрос правильно ли я прописал инструкцию для робота в robots.txt?
разберитесь сначала с документацией по robots.txt
чтобы запретить все страницы, кроме тех, которые в sitemap.xml нужно сначала ознакомиться с тем, какие все-таки там страницы представлены.
чтобы запретить все страницы, кроме тех, которые в sitemap.xml нужно сначала ознакомиться с тем, какие все-таки там страницы представлены.
В sitemap представлены страницы необходимые для индексации
В sitemap представлены страницы необходимые для индексации
и? отвечу вам этим постом
Предлагаешь самим лопатить твой сайтмап и искать что не закрыл?
Синтаксически составлен правильно. А вот закроет ли он все кроме того что есть в sitemap, зависит уже от того какие ссылки есть на сайте. Вообще чтобы закрыть ВСЕ кроме сайтмэпа надо прописать allow для каждой ссылки отдельно.
и? отвечу вам этим постом
Вы видимо меня не правильно понимаете, я не прошу искать страницы, которые я не закрыл. Дело в том, что на сайте тысячи страниц, которые надо запретить от индексации. Изначально эти страницы находились в robots.txt, но он был очень большим и поисковики его не обрабатывали, поэтому решили пойти обратным путем, запретить к индексации весь сайт, кроме страниц находящихся в sitemap. Вопрос как запретить полностью весь сайт к индексации, кроме файла sitemap.
Как мне кажется правильный вариант реализован здесь: http://hausemafia.ru/robots.txt
Вопрос как запретить полностью весь сайт к индексации, кроме файла sitemap.
Valorous, ответ - никак. Можно конечно, если вам нужно разрешить только пару страниц к индексации, а если там сотня, тысяча, десятки тысяч, и они не попадают под один общий шаблон, то значит никак.
Как мне кажется правильный вариант реализован здесь:
Угу, что означает - разрешить все к индексации.
Нет в вашем случае правильных вариантов. У вас разного формата и с разным название ссылки.
ПС.
ВЫ бы лучше правильно прописали домен у карты сайта.
Вопрос как запретить полностью весь сайт к индексации, кроме файла sitemap.
Как мне кажется правильный вариант реализован здесь: http://hausemafia.ru/robots.txt
Там всё разрешено. :D
запретить к индексации весь сайт, кроме страниц находящихся в sitemap
Такой функции не существует. Анализируй адреса, создавай правила.