Все вопросы по robots.txt

siv1987
На сайте с 02.04.2009
Offline
427
#71
Alexeych:
Правильно ли я понимаю, что директива
Disallow: */index.php
запрещает к индексации только файл index.php
а:
Disallow: /*index.php$
все урлы оканчивающиеся на index.php?

Не правильно. Она запрещает все адреса содержащие index.php - /index.php?cat=1.

А вот вторая да - оканчивающиеся на index.php.

FUN4ik
На сайте с 29.01.2012
Offline
51
#72

Всем привет. Подскажите, пожалуйста, как правильно создать robots.txt для сайта, который был создан на CMS yugo martin. Спасибо.

Регистрация в каталогах (/ru/forum/810601) Верстка сайтов и дизайн (/ru/forum/810604) Услуги по наполнению сайтов (/ru/forum/810606) Качественный копирайт и рерайт (/ru/forum/810603)
CHePaS
На сайте с 22.10.2013
Offline
26
#73

Не знаю причем здесь CMS.

В стандартном роботсе указывается:

User-agent: - определяет правила для всех или одного поискового робота

Disallow: - закрывает от индексации нужные разделы

Host: - указывает роботу главное зеркало

Sitemap: - карта сайта

Заходит как-то SEOшник в бар, ресторан, купить алкогольные напитки, клубы, лучшие бары в Москве, заказать банкет в ресторане…
E
На сайте с 21.09.2009
Offline
283
#74
FUN4ik:
как правильно создать robots.txt

xenu проверте все ссылки сайта. Посмотрите какие страницы есть и будете примерно знать, что закрывать.

V8
На сайте с 06.12.2009
Offline
31
#75

Я хочу исключить страницы с решеткой (запись/#more-21 и запись/#comments), теги, страницы навигации с главной и рубрик (/page/2/ и т.д). Сайт на вордпрессе (если имеет значение).

Будет ли робтс, который ниже, правильным или нужно прописывать отдельно по ПС все расписывать?

User-agent: Yandex

Disallow:

HOST: site.ru

User-agent: Googlebot

Disallow:

User-agent: *

Disallow: /#*

Disallow: /*?dem

Disallow: /tag

Disallow: /page

Disallow: /wp-includes/wlwmanifest.xml

Disallow: /xmlrpc.php?rsd

O0
На сайте с 28.12.2012
Offline
51
#76

Добрый день, Знатоки!

Подскажите пожалуйста, может ли прописанный на страницах сайта тег

<meta name="Robots" content="noarchive, index" /> быть причиной ошибки при запросе кэша страницы(cache:site.ru)? т.к. страница уже давно в индексе, но кеш постоянно выдает ошибку.

Заранее благодарен!

---------- Добавлено 03.02.2014 в 23:59 ----------

sorry, туплю, он ведь для этого и используется насколько я понял!

Вопрос в том, может ли он как-то негативно влиять на ранжирования сайта в целом непосредственно Googlom?

Читал на бурж форумах что вроде этот тег часто используется при клоакинге и может стать тревожным звоночком для гугла.

Есть у кого опыт по использованию?

W
На сайте с 25.05.2010
Offline
43
#77

А для чего собственно вы используете данный мета тег? если вам нужно закрыть сайт от веб архива просто в

robots.txt пропишыте :

User-agent: ia_archiver

Disallow: /

F
На сайте с 22.09.2009
Offline
114
#78

как запретить в Robots.txt индексацию страниц с решеткой в конце?? вида site.ru/kakoitourl#

Disallow: *\# или Disallow: *# - ничего не запрещает
Disallow: */# - запрещает все :(
LEOnidUKG
На сайте с 25.11.2006
Offline
1723
#79

Решётка для браузеров, а не для роботов.

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/
SeVlad
На сайте с 03.11.2008
Offline
1609
#80
fowl:
как запретить в Robots.txt индексацию страниц с решеткой в конце?? вида site.ru/kakoitourl#

А кто тебе сказал, что якорь попадает в индекс?

Делаю хорошие сайты хорошим людям. Предпочтение коммерческим направлениям. Связь со мной через http://wp.me/P3YHjQ-3.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий