Совершенно в дырочку! Точно могут сказать только Платоны.
Вам доступны лишь косвенные признаки:
- смотреть логи сервера - были ли роботы Яндекса на сайте раньше.
- посмортеть в вебархиве, но туда попадают не все и только через 6 месяцев.
- если на сайт давно есть внешние ссылки, а он непроиндексирован - вероятность бана высока.
UPS... Этот "фильтр" я выпустила из виду.
А примерную цифру узнать интересно, хотя без конкретной привязки она мало что даст. Сразу возникают вопросы типа:
- "тошнит" ли от навигационного меню, повторяющегося на 10 000 страниц?
- "тошнит" ли сквозная ссылка? (то, что сквозняк не передает ссылочного - слышала, но НПС он даёт точно).
- Яндекс заменяет анкоры с url сайта и словами "тут/там/здесь/тынц" на осмысленные, из окружающего текста. Влияют ли такие анкоры на тошноту анкор-листа, ведь Яндекс их делает сам?
PS: Вопросы риторические, тему можно не палить :)
PPS: Термин "ГС" - тоже сильно смущает в плане однозначности определения и эстетичности восприятия. В беззаботные 2005-06 годы СЕО-шники использовали более грамотную терминологию:
нормировка, ссылочное/текстовое ранжирование, документ, корпус документов, статический вес, внутридокументная плотность ...
3 года назад поступила именно так, и не жалею. Теперь под каждый проект делается индивидуальная CMS.
Что такое г-ссылка и скока их вешать в граммах знает только Яндекс. Фильтр имеется.
Живет, в Google хорошо работает, только это уже не прежние ковровые бомбардировки, а тонкая ювелирная работа.
У них ТЗ по разным классам рарегистрирован, что допустимо.
Ord выше правильно написал - иногда есть смысл закрыть папку /images/ (где лежат картинки-элементы дизайна) - тогда робот-индексатор картинок не будет их индексировать.
А так, программеры правы - совсем "левые" папки можно не закрывать - во многих и индексировать нечего, из них файлы только "инклукдятся" в исполняемые модули.
Закрывать надо страницы для печати, поиск по сайту и прочее, что создает дубли страниц.
Правильно открыть для всех ПС:
Это тоже правильно, под Яндекс секция должна быть отдельной, тк директива Host: - не стандартная и другие роботы её не понимают (хотя, по правилам, они должны проигнорировать всё непонятное):
Закрывать надо, ПС их находят ещё как, например по реферерам. Но админку "палить" в Robots.txt не нужно - туда будут ломится все кому не лень. А ПС её и так не проиндексят, ибо пароля не знают.
PS: Лучше прописать <meta name="ROBOTS" content="none"> в секции <head></head>
На этот вопрос ответит только жизнь, и ответ будет сильно зависеть от качества сайтов (их СДЛ-ности).
У меня долго жили около 40 сайтов на одном IP, проблем не было (счас разнесены на 5).
Есть темы бана и меньшего количества сателлитов на одном IP.
Имхо, дело всё-таки не в IP, а в самих сайтах (хотя баны хостинга доров по IP имели место быть).
PS: Кстати, по логам видно, что Google обращается к сайтам не только по доменному имени, но и по IP (типа http://212.100.56.134/index.html).
Зачем он это делает - ХБЗ, может проверяет shared IP или нет. Но он проверяет так все сайты.
А что в логах сервера, есть аномальная активность? может, прикрыть шибко активные IP, кроме ПС, раз это сателлиты :)
Полеты за границу Вашей мечты.
или просто:
Небо без границ
PS: Последнее - вольный перевод на русский "The Sky is not limit", слогана SITA (или на русском)