A Standard for Robot Exclusion
По аналогу должно строиться примерно так:
# robots.txt for http://www.example.com/
User-agent: *
Disallow: / # Go away
# Cybermapper knows where to go.
User-agent: cybermapper
Disallow:
# Yandex knows where to go.
User-agent: Yandex
# Rambler knows where to go.
User-agent: StackRambler
Давно, но весьма четко высказался про бесплатные хостинги Илья Сегалович:
Про расчет тИЦ все подробно сказано на форуме Яндекса Михаилом Масловым. Так что комментарии уже излишни.
С уважением,
Сергей Пасечник.
Сегалович здесь периодически появляется.
Садовский наверняка тоже.
И, возможно, другие Яндексоиды, но под видом гостей.
Приходится тыкать пальцем в небо.
Ни придыстории, ни текущего состояния, ни характеристик ссылок, ни сайтов - гадать можно долго!
Зато посмеялись :)))))
Во-первых, может пока не знать.
Во-вторых, может вообще не узнать (ссылающиеся сайты в бане и т.п.)
В-третьих, может не показывать.
В четвертых, они могут лежать на машине, которая не успевает ответить и вылетает по таймауту.
В пятых, склеены.
В шестых, другие технические осложнения
В седьмых, клоакинг (вы же не указали сайты - проверить невозможно)
В восьмых, и т.п.
Lisa, поздравляю!
Очень интересно читать Ваши сообщения. Желаю удачи и здоровья!
Мои поздравления! :)
Зависит от самого каталога и от мнения модератора.
Однозначно сказать невозможно.
Не вижу основания для такой логики.
Яка - это дополнительный проект Яндекса, его "инструмент", если можно так сказать. А сам портал - объединение различных проектов воедино. Он и должен быть главнее, что, собственно говоря, и наблюдается.
Сам каталог входит в себя же как один из подразделов Яндекса.