Robots.txt - возможное количество Disallow

SM
На сайте с 15.09.2008
Offline
94
354

Добрый день, сложилась такая ситуация, что мне для яндекса нужно закрыть от индексации в robots.txt 250 статических страниц. Одним разделом их закрыть нельзя, есть какие-то ограничения на количество Disallow и саму длину robots.txt? Сам никогда с такими объёмными robots.txt не сталкивался, может у кого-то был опыт. Как поисковик к нему может отнестись?

izbushka
На сайте с 08.06.2007
Offline
110
#1

Есть ограничение на размер файла robots.txt. Для яндекса ЕМНИП, 32kb. Так что 250 строк можете смело делать )

SM
На сайте с 15.09.2008
Offline
94
#2
izbushka:
Для яндекса ЕМНИП, 32kb.

спасибо за информацию.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий