Насколько я понимаю, это в теории. А на практике у меня для успешной регистрации в ДМОЗ обычно уходит несколько сабмитов в разные подходящие категории с интервалом в 1-3 месяца. Пока не накнусь на самую подходящую (а может, на самого непритязательного редактора :)).
Бывает, что выбрана не совсем подходящая категория. В этом случае можно ждать бесконечно долго. Ибо, насколько я понимаю, если редактор сочтет, что сайт не подходит для его категории, то он просто даст ему отлуп, а не подыщет более подходящую. Поэтому можно попробовать засабмитить в другую подходящую для сайта категорию.
Так отправь еще раз
Да уж, последние три апдейта довольно странные...
Файл robots.txt содержит запрещающие директивы. И робот проверяет этот файл именно на наличие их, т.е. строк, начинающихся с User-Agent и Disallow. Если их нет, то роботу должно быть неважно, что там еще есть. Он будет считать, что ему ничего не запрещено, и станет индексировать весь сайт. Так что, судя по всему, "дело было не в бобине"...
Выход есть один - убедить программистов Яндекса отловить багу в механизме склейки зеркал страниц на сайте, приводящую к таким вот результатам. :) У меня такое подозрение, что на зеркало, выбранное главным, некорректно переносится ВИЦ и ссылочное ранжирование с тех страниц, которые признаны неглавными.
На странице с именем robots.txt???? Или же robots.txt редиректил на эту страницу? Просил же поподробнее объяснить, чтоб не было необходимости задавать массу наводящих вопросов.
С каким это "таким" отрывом?
Не помогает. Яндекс все равно упорно периодически выбирает главным зеркалом www.site.ru/index.html , и тогда - вниз по всем запросам. Ведь на этот адрес вполне могут ссылаться извне.
А что, на самом деле недоступен?