Robots.txt в вебмастерс(больше 100 тысяч страниц к закрытию)

realseo
На сайте с 02.02.2006
Offline
90
257

Запретил к индексации группу дублирующих страниц и их число больше 100К. В вебмастерс гугл показывает ровную цифру 100К уже долгое время.

Нет ли ограничений у гугла на количество запрещенных страниц?

Погуглил, нашел только такое упоминание - [тут естественная ссылка]

просто урлов больше 100 тыс. , и по одному удалять не вариант.
Есть два типа людей: одни катят мир, а другие бегут рядом и кричат: “Боже, куда катится этот мир!?”

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий