- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
robots.txt нормально составить...
КАК?
А в чем собственно проблема-то?
КАК написать в роботьсе так чтобы роботы сканировали только ситемап и выкидывали бы остальные страницы.
КАК написать в роботьсе так чтобы роботы сканировали только ситемап и выкидывали бы остальные страницы.
Никак. Надо запретить все ненужные страницы.
Никак. Надо запретить все ненужные страницы.
запретить лишние страницы не пойдеть (их через чур много)
Никак - что вообще никак, никак???😕😕😕
когда "узаконивали" директивы роботса о сайтмэпах и речи не было
директиву сайтмап в стандарт то ввели года два (?) назад.
и по идее - "закон обратной силы не имеет": старые директивы должны обрабатываться по старому, новые - только вносят новое, не меняя старое...
запретить лишние страницы не пойдеть (их через чур много)
По маске запрещайте или 404 в хтакцессе отдавайте. Короче сайт давайте сюда выкладывайте и примеры урл, что надо запретить. Может проще структуру урл поменять, чтоб ненужные в отдельный кластер выделить.
когда "узаконивали" директивы роботса о сайтмэпах и речи не было
директиву сайтмап в стандарт то ввели года два (?) назад.
и по идее - "закон обратной силы не имеет": старые директивы должны обрабатываться по старому, новые - только вносят новое, не меняя старое...
Если следовать такой логике, тогда получается что код в моем первом посту корректный; получается что если в роботсе все запретить, но строка о ситемап присутствует, то поисковик должен индексировать указанные URL, ведь ситемап там не просто так указан. (плюс еще в описаниях гугла написано, что ему пох на все, если присутствует строка Sitemap: xxx.xml) Блин, кто бы мог точно ответить, чтобы я не запортачил сайт своими экспериментами.
Если следовать такой логике...
блин ;) если следовать моей логике то - указание всего лишь положения сайтмепа не должно отменять предыдущей директивы на запрет индексации всего сайта... что не понятно то?
Блин, кто бы мог точно ответить, чтобы я не запортачил сайт своими экспериментами.
/ru/forum/comment/5700965
блин ;) если следовать моей логике то - указание всего лишь положения сайтмепа не должно отменять предыдущей директивы на запрет индексации всего сайта... что не понятно то?
Если не отменяется директива
Disallow: /
и все страницы запрещаются, тогда новая дериктива Sitemap
Sitemap: sitemap.xml
- разрешает индексировать указанные страницы в sitemap.xml, новая директива сильнее, правильно? ппц.
drg добавил 27.10.2009 в 21:44
/ru/forum/comment/5700965
читал. но не уверен в Вашей правоте.
Если не отменяется директива
Disallow: /
и все страницы запрещаются, тогда новая дериктива Sitemap
Sitemap: sitemap.xml
- разрешает индексировать указанные страницы в sitemap.xml, новая директива сильнее, правильно? ппц.
Disallow: / # запрет доступа к сайту - робот отвернёт назад, что там дальше написано смотреть не будет - так понятно???