Все вопросы по robots.txt

Vladimir SEO
На сайте с 19.10.2011
Online
2069
#761

запретить все остальные

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
M
На сайте с 18.05.2009
Offline
108
#762
Всем привет. Делаю обнову сайта и разом пришлось переделывать структуру url. Делаю 301 редирект, страниц до к*я. Сделал один из разделов решил открыть его для поисковиков конструкцией ниже. Подскажите так правильно? Доступ разрешить только к subcategory

User-agent: *
Disallow: /
Allow: http://site/category/subcategory

да все правильно сделали..аллов перебивает дисаллов...

а вообще юзайте https://webmaster.yandex.ru/tools/robotstxt/

там все видно будет, добавляйте урл и смотрите доступны ли они

serezka
На сайте с 19.04.2009
Offline
136
#763

Всё верно сделано.

Это форум. А это ↑ моё мнение. Оно может не совпадать с вашим. Это нормально.
V
На сайте с 03.09.2013
Offline
47
#764

Спасибо за советы. Вот открыл для себя переезд 1621 страницы :) правдо часть сумел автоматизировать с помощью эксельки, а вот некоторые разделы не захотели переноситься. Вот теперь их позакрывал и по мере правильной простановки 301 редиректа открываю.

Кстати 1621 страниц 301 редирект не станет ли проблемой?

YaanGle
На сайте с 06.09.2011
Offline
155
#765
Ladycharm:
Да, поисковые системы просят делать это. Закрывать можно через robots.txt, а можно и хитрее: мета-тэгом <META NAME="ROBOTS" CONTENT="NOINDEX, FOLLOW">.

Последний вариант требует доработки движка сайта, но есть надежда, что боты из-за FOLLOW будут переходить по ссылкам с таких поисковых страниц. По крайней мере - улучшится индексация/переиндексация страниц.

Так за счет чего индексация-то улучшится?

Сканирование, пардон, это как игра с нулевой суммой - что-то просканили, взамен чего-то другого.

Ну и еще, что лучше - тратить ресурсы робота на сканирование бесполезных страниц и дальнейшее чтение meta robots, или же запретить этот этап, путём блокировки в роботс?

L
На сайте с 07.12.2007
Offline
351
#766
YaanGle:
Так за счет чего индексация-то улучшится?

У меня в поиске по сайту - ссылки на статьи и материалы. Их и будет переиндексировать.

kopirajting
На сайте с 09.02.2016
Offline
22
#767

Ситуация для меня новая, что делать не совсем понимаю. Только что пришло сообщение от яши о том, что в файле роботс отсутствует деректива (хост). Захожу в вебмастер чтобы проверить а там вот такая кракозябра:

User-agent: Googlebot

Disallow: /?*

User-agent: Baiduspider

Disallow: /?*

User-agent: YandexBot

Disallow: /?*

User-agent: ichiro

Disallow: /?*

User-agent: sogou spider

Disallow: /?*

User-agent: Sosospider

Disallow: /?*

User-agent: YoudaoBot

Disallow: /?*

User-agent: YetiBot

Disallow: /?*

User-agent: bingbot

Crawl-delay: 2

Disallow: /?*

User-Agent: Yahoo! Slurp

Crawl-delay: 2

Disallow: /?*

User-agent: rdfbot

Disallow: /?*

User-agent: Seznambot

Request-rate: 1/2s

Disallow: /?*

User-agent: ia_archiver

Disallow:

User-agent: Mediapartners-Google

Disallow:

User-agent: *

Disallow: /

Захожу через файл зилу, там с роботсом все впорядке, но когда начинаю проверку сервера, то там выдает ошибку 400.

Вот сайт, кто подскажет плз kopirajter-ivanov.ru

[Удален]
#768

А по ссылкам в первом посте темы вы пройти не догадались?

kopirajting
На сайте с 09.02.2016
Offline
22
#769

Так вроде бы и перешел!

[Удален]
#770

Ну так второе вам даже яндекс обьяснил, а то что файл полный ахтунг - так по ссылкам все расписано.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий