bulatbulat48

Рейтинг
94
Регистрация
27.04.2012
olpiaz:
1. Если в robots.txt страница закрыта, и на самой странице стоит мета-тег с "noindex", может ли эта страница попасть в индекс гугла/яндекса ?

2. Если главная страница открыта в robots.txt, на этой странице есть картинки src=/bla/bla/bla.jpg , и вот это /bla/... закрыто в robots.txt, значит ли это, что эта картинка не попадет в индекс картинок гугла/яндекса?

1) для Google лучше убрать директиву из robot.txt, т.к содержимое самого файла блокируется и он может не увидеть мета-тег. Пруф.

Из яндекса очень быстро удаляются страницы с метатегом noindex. Был случай, что сайт с 50000 страницами за пару дней вылетел из выдачи. Через вебмастер проверить url, можно увидеть что страница заблокирована метатегом.

2) Если присутствует директива Disallow: /bla/ то src=/bla/bla/bla.jpg - будет запрещен для индексации поисковыми системами.

---------- Добавлено 07.04.2015 в 11:58 ----------

Anechka78:
Всем хорошего вечера!
У меня тоже возник вопрос по robots.txt. Движок - Joomla, установлены комменты jcomments. Я вроде для гугла открыла доступ ко всем нужным ему скриптам, css и папкам с картинками в роботсе, но у меня в отчете о заблокированных ресурсах упорно день за днем выдается куча ошибок.
Начинаю проверять ручками через панель вебмастера доступ бота к этим якобы заблокированным картинкам (смайлы, например), в самой же панели отображается, что все ок и доступ для сканирования разрешен.
Подскажите, пожалуйста, как быть в данной ситуации.

в отчете каким числом датировано, до или после снятия запрета?

Алекс35:
Извините за назойливость, но если я правильно понял что Вы имеете ввиду,
то гугл может расценить закрытие папки "themes" как нечестный приемом раскрутки??
Если так, тогда получается что папку с темой, в Вордпресс, в которой находятся css файлы, нужно открывать не желательно, а даже обязательно!?
Я изначально ее прописал в роботс, потому как прочитал, что в целях безопасности, эту папку лучше скрывать..Но хоть я и новичок совсем, но мне кажется на безопасность эта папка не должна влиять..

Может еще кто-нибудь подскажет, что кроме themes, еще следует убрать из robots.txt?
А, что, может быть добавить, для той же "безопасности"?

Вот:

Проверьте тут - открыть рекомендую все что попросит, в рамках разумного.

Советы от google:

Чтобы обеспечить правильное индексирование и отображение страниц, нужно предоставить роботу Googlebot доступ к JavaScript, CSS и графическим файлам на сайте. Робот Googlebot должен видеть ваш сайт как обычный пользователь. Если в файле robots.txt закрыт доступ к этим ресурсам, то Google не удастся правильно проанализировать и проиндексировать содержание. Это может ухудшить позиции вашего сайта в Поиске.

Рекомендуемые действия:

Убедитесь, что Googlebot может сканировать JavaScript, CSS и графические файлы. Для этого в Инструментах Google для веб-мастеров есть функция Просмотреть как Googlebot. Эта функция моделирует процесс сканирования и отображения страниц. С ее помощью можно найти и исправить ошибки индексирования сайта.

Проверьте свой файл robots.txt в Инструментах Google для веб-мастеров.

Алекс35:
А чуть конкретнее можно?
То есть, какие могут быть реальные минусы, (кроме сообщения об ошибках) если доступ к css не открывать для пс?
Ведь по какой-то причине, многие закрывают эту папку "themes"..😕

Гугл говорит это — клоакинг.

---------- Добавлено 01.04.2015 в 16:36 ----------

nadin_ko:
Подскажи, пожалуйста!

У нас файл роботс находится не в текстовом файле, а на отдельный страничке, т.к. у нас нет ftp. Как к этому отнесутся поисковые роботы?

Добавьте сайт в вебмастер и посмотрите через вкладку проверки файла robots.txt, в старттопике указал ссылки.

Алекс35:
Вопрос по файлу robots.txt для wordpress:
В большинстве так называемых "оптимальных" файлов, присутствуют такие строчки:

Disallow: /wp-content/themes
Disallow: /wp-content/plugins


Но вот в вебмастере гугла в разделе "Заблокированные ресурсы", обнаружил что у меня много ошибок, из за этих 2ух строчек.
Так, при просмотре с помощью гуглбот, пишет, - "Роботу не удалось получить следующие ресурсы веб-страницы"
И далее, в строчку перечисляет что из-за Disallow: /wp-content/themes заблокирована таблица стилей, а из-за Disallow: /wp-content/plugins тоже, что-то там не видит..

Подскажите пожалуйста, насколько это критично?

Я открываю файлы(css, изображения), которые просит google.

тоже считаю что снятие ссылок на индексацию не повлияло..

awq:
Нужно разрешить к индексации только посты на сайте, ссылки имеют вид
http://www.site.org/1143241667-post1.html
http://www.site.org/1145645689-post2.html
http://www.site.org/1147756753-post3.html
то есть одинаковое во всех постах только
http://www.site.org/114
что следует прописать в robots ?

User-agent: *

Disallow: /

Allow: /114

Alex Klo:
а давно ли оператор http://yandex.ru/yandsearch?serverurl=searchengines.guru отключили?
позавчера ещё вроде работал, вчера уже нет, как и сегодня...

какой оператор?

---------- Добавлено 27.03.2015 в 13:44 ----------

Вошло много страниц, ура!

pianeer91:
Вы не поняли вопроса? Или не знаете как лучше сделать в моей ситуации?

не понял сути

DR.web показал как троян при обновлении.. исправьте плиз..

pianeer91:
У меня ситуация следующая, подскажите пожалуйста, как сделать лучше с точки зрения SEO.
У меня блог, на нем много разных рубрик.
Соотвественно есть список страниц.
Насколько плохо, что яндекс и гугл индексируют след. страницы: http://blog.***.ru/page/3/ ?
И допустим у меня сейчас 150 постов, по 5 на страницу всего получается 30 страниц, соответственно, когда я удалю 5 постов, количество моих страниц уменьшится на одну и станец 29, а поисковик будет некоторое количество времени определять http://blog.***.ru/page/30/ -как 404 ошибку, пока у меня снова не заполниться.
Какое грамотное решение следует принять в данной ситуации.
Так как закрывать page/ не хочу, пишут что могут вылететь страницы.

я не понял, может кто-то другой подскажет 😕

Всего: 780