Спасибо kimberlit.
Спасибо за ответ.
Если я правильно понял, то для разрешения индексации папки /images/ нужно писать всю цепочку ПОЛНОСТЬЮ:
Allow: /wp-content/themes/costa/images/---------- Добавлено 01.05.2015 в 19:51 ----------Но при этом остальное содержимое папок /themes/ и /costa/ индексироваться НЕ будет?---------- Добавлено 01.05.2015 в 19:54 ----------Понятно, что это при условии:
Disallow: /wp-content/themes/
Наверно ещё слишком рано, чтобы увидеть изменения.
Ну, а на счёт Яндекса есть какие-то мысли?
Всем спасибо за ответы. Мнения в чём-то разделились.
Если не ошибаюсь, то вроде все поисковики оценивают сайты только по HTML-коду. По-крайнем мере я так прочитал где-то (сам не являюсь специалистом). Ну и это в свою очередь, наверное, влияет на ранжирование.
В сервисе "Посмотреть как Googlebot" есть картинка слева, как видит он сам, и справа, как видят страницу посетители. Что это значит? Слева ( глазами Googlebot) - просто так для сведения, но тем не менее так и ДОЛЖНО быть? Или он тем самым Гугл показывает ущербность страницы и хочет, чтобы было так, как справа? То есть как её видят посетители.
Конечно, можно прописать отдельно для Гугла какие-то директивы, разрешить ему видеть то, что он хочет, и забыть. А неужели Яндекс оценивает сайты по-другому и не хочет видеть их "во всей красе"? Так где же истина?
Приму это к сведению. А по существу моего вопроса?
Спасибо за ответ web2033.
В принципе я так и думал. В вебмастере Гугла конкретно указывается, какие именно файлы блокируют тот или иной элемент. Но почему тогда во многих блогах спецы пишут, что нужно ОБЯЗАТЕЛЬНО писать в robots.txt эти директивы (и некоторые другие)? Если не ошибаюсь, вроде поисковики оценивают страницы по HTML-коду. Я не ставлю под сомнение Ваше мнение, просто я не специалист в этих делах и хочу всё понять.
И просьба также ответить на вопрос из моего первого поста (хочу понять это): так будут всё же поисковики считать сайт ущербным и хуже его ранжировать, если оставить эти запретительные директивы?
Был бы признателен за разъяснения.
Сайт на WordPress с ЧПУ. Наряду с прочими директивами в robots.txt имеются и вот эти для закрытия от индексации служебных разделов:
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Проверяю мои страницы в webmaster Гугла в разделе «Посмотреть как Googlebot». Там отображаются только тексты, то есть сайт выглядит как полу-фабрикат. А фотографии, дизайн, элементы оформления, таблицы и т.д. не видны. Указывается, что блокировка этих элементов происходит из-за директив:
В этой связи вопрос. Так и должно быть, что сайт выглядит для поисковиков усеченным / ущербным? И проблем при его оценке и ранжировании не будет? Или всё же он будет понижен в результатах выдачи поисковиков из-за того, что он выглядит в их глазах ущербным? Если последнее верно, то что нужно сделать, чтобы исправить ситуацию?
Ну неужели никто не знает?
Привет bulatbulat48! Отправил в личку.---------- Добавлено 27.04.2015 в 18:07 ----------
Спасибо за ответ. В принципе я об этом думал, но смущало следующее. У меня robots.txt сделан так же, как и на многих сайтах WP, в том числе и на сайтах специалистов по WP. Все они полностью закрывают эти же папки и другим советуют:
Ну, кто-то маленький кусочек в одной из них закрывает. А мне в таком случае много папок и файлов закрывать придется. Поневоле сомнения возникают.---------- Добавлено 27.04.2015 в 18:10 ----------Правильно так: кто-то маленький кусочек в одной из них ОТКРЫВАЕТ.---------- Добавлено 27.04.2015 в 18:11 ----------А мне в таком случае много папок и файлов ОТКРЫВАТЬ придется.