Кстати, а в наших то пишут? Я что-то не помню ничего про ОУН.
Про УНР что-то было, типа Грушевский был президентом и все такое, совсем уж в "общих чертах".
Оффтопик в целом, но на тему последних страниц:
1. С 1920 по 1992 существовало правительство Украинской Народной Республики в изгнании, и оно не имело отношение ни к УПА в целом, ни к бандеровцам в частности, ни к коллаборационистам вообще, и к приписываемым им преступлениям. Поэтому про современное правительство и Раду тут мимо, если мы говорим про правопреемство.
2. Коллаборационисты были везде и всегда, но в любом случае не стоит их отождествлять с любыми украинскими националистами, будь то бандеровцы, бульбовцы, мельниковцы или еще кто. Между прочим все лидеры этих формаций сидели в немецких тюрьмах или концлагерях.
Они и между собой то не могли договорится, смешно говорить про какие-то истребления.
п.с. Сам презираю украинский национализм (как и любой другой в принципе), но история вещь деликатная и стоит тщательно выбирать источники информации. Статья на укозе это вообще лол, каша сплошная.
п.п.с. НКВД конечно здорово поработали над репутацией украинских националистов.
В который раз, так и работает гугл, ссылку на справку я давал.
Я не считаю это абсурдным, ибо контент страницы в индекс не попал. А если не хотите чтобы и просто ссылка не попала - не оставляйте ссылок на эти страницы, все логично.
А функция disallow не отвечает за попадания в индекс урла страницы и расчета обратных ссылок на этот урл. Dissalow блокирует сканирования страницы и индексирования контента на нем. Это и происходит. Заходят при этом боты или нет, вопрос не в тему, ибо по факту что нужно было то и произошло.
Урл по сути тоже контент. Не предоставляйте его гуглу (на разрешенных страницах), его в выдаче и не будет. Что даете то и в выдаче.
Так что запрет в robots работает и делает именно то что нужно. Урлы индексируются вне зоны компетентности robots и по этому утверждать что в этом виноват именно он - неверно.
Именно этот вопрос я хотел бы закрыть. А спорить про целесообразность гугла индексировать урлы мне не интересно. Это не касается ни топика вообще, ни моего высказывания из-за которого разгорелась эта дискуссия.
У вас есть для этого отдельный топик, там можете и сетовать по этому поводу.
Опять вы к словам придираетесь. Разговор то про факт работы disallow. А тут вопрос терминологии уже, само посещение ботом страницы не равно ведь индексации и работе алгоритмов верно?
Ну может и были, но не проиндексировали контент, и соответственно не учли что там отдает сервер, 404 или что другое.
Вы запретили страницу, и гугл не учел ее содержимое, что не так?
В выдаче информация извне этих закрытых страниц.
Выходит так, что гугл не проиндексировал содержимое страниц, которые вы хотели чтобы он не проиндексировал. Но при этом вы недовольны и делаете заключение что запрет не работает.
Абсурдно не так ли?
п.с. User-agent и подделать можно.
Так боты не были на странице, откуда они знают 404 там или нет? Вы же сами запретили им посещение этой страницы.
Сам факт что урл в выдаче есть, с этим никто не спорит, я привел справку гугла в качестве аргумента, что это нормально.
Что вас беспокоит? Что запрещенная disallow-ом страница займет позиции? О каком еще влиянии может идти речь?
А кто говорил что связанные? И давайте тогда определимся о каком влиянии вы говорите. И что есть в выдаче? Контента нету, титла нету. Есть лишь адрес страницы и возможные обратные ссылки на нее.
disallow отработал свою функцию, а именно запретил доступ роботов к странице. Они на ней не были. Адрес ссылки прочитали на разрешенной странице, видимо.
Что вам не нравится? Что урл страницы светится в выдаче и как-то влияет на ранжирование? Ну так disallow за это не отвечает.---------- Добавлено 20.05.2012 в 18:01 ----------
http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449
Ну ок не клоакинг это. Но явно не самый белый метод отображения контента.
Так вроде бы там правильно написали в выдаче != в индексе. Контент запрещенных страниц не в кеше, и не используется для ранжирования.
Я читал ваш топик, скажем так, использовать такие неоднозначные детали, как утверждение что запрет в роботсе не работает, слабо говоря, неуместно.
Во-первых, топик немного не об этом. Одно дело клоакинг, другое атрибут нофолов и тег ноиндекс.
Во-вторых, фраза которую вы пытаетесь нагуглить, находится в файле, который запрещен индексацией в robots.txt
"Disallow: /js/"
http://www.allave.ru/robots.txt
Так что никакой магии. Ясен пень запрет в роботсе работает, об этом никто не спорит. Но речь то об обычных ссылках.
А тут вроде как клоакинг. При том я даже не уверен, не был ли бот на запрещенных на индексацию страницах (в выдачу то не пустил и не закешировал, но прочитать файлик мог на всякий случай, а как же еще дорвеи вычислять).
Гугл индексирует ссылки с nofollow это факт (то есть запомнит анкор и куда ведет ссылка). На 99% уверен что гугл индексирует страницы, на которые ведут только ссылки с нофолов. Это проверено на личном опыте. Но тут загвоздка в том, что гуглбот вообще и без ссылок иногда попадает на страницы, поэтому на 100% утверждать не берусь.
Открою страшную тайну - как ни закрывай, все равно все проиндексируют.
Никакое г*вно вы не скроете.
ПСы перейдут, проиндексируют, а атрибут нофолов лишь учтут при расчете веса.
Ирония судьбы, в этом полете летел главный инженер самолета.