Тут есть еще одна страшная правда: ни одна ПС не показывает ВСЕ бэклинки. И что у нее в действительности есть в индексе, едва ли известно кому-нибудь, кроме машинок, все эти данные хранящих
Приличные ПС после появления такой директивы в роботс.тхт перестанут лезть на страницы, расположенные в подкаталоге oneofpage. А когда от этих страниц очистится индекс, точно не скажет никто. Если страниц немного, воспользуйтесь ручным удалением из Яндекса и Гугля
В 1946 г. родился
А умер 7 июля 2006
Его ПФ мне нравился гораздо больше, чем после него
Очень жаль
1. Честно говоря, сложно придумать стиль/дизайн и т.п., которые не позволят создать карту сайта:)
2. Киньте урл в личку
Если ссылки оформлены понятным для ПС образом, то ждите. Сделайте карту сайта, наставьте как можно больше внешних ссылок на сайт и ждите
Лучше заплатите за консультацию - это не очень дорого, в конечном счете. Мне кажется, что вариантов очень мало... У моих знакомых в похожей ситуации ничего не получалось. Пугать никого никем не нужно - не знаете, на что нарветесь в ответ
1. Я бы на месте модеров Яндекса бесплатно не брал. Мне кажется, что очень даже коммерческий проект. Еще и с довольно значительным бюджетом
2. Не декларирует
3. Люди годами ждут
Этот вариант противоречит стандарту. То есть, в таком виде он теоретически (не знаю, как будет на практике) понятен ботам, но слишком многоэтажен должно быть так:
User-agent: *
Disallow: str1.php
Disallow: str2.php
User-agent: Yandex
Host: www.site.ru
Или Яндекс сверху - не суть важно. Смысл в том, что в файле прописывается несколько отдельных блоков - для всех ботов и для "особо одаренных"...
Директиву хост понимает только Яндекс
Сделайте так:
Disallow:
Host: catal0g.com
Если запрещать нечего, следовательно, "общий" блок не нужен
П.С. Внимательно посмотрите, что именно запрещено к индексации. Прописывая директиву хост, Вы запрещаете индексацию всех алиасов/зеркал.
А в чем принципиальная разница с предложенным? Киньте линк в личку - если тема близка, попробую иногда чуток поумничать. Если нет, не обессудьте:)