MauzZzeR

MauzZzeR
Рейтинг
95
Регистрация
12.02.2008
antena:
В их учебниках об этом не пишут.

Кстати, а в наших то пишут? Я что-то не помню ничего про ОУН.

Про УНР что-то было, типа Грушевский был президентом и все такое, совсем уж в "общих чертах".

Оффтопик в целом, но на тему последних страниц:

1. С 1920 по 1992 существовало правительство Украинской Народной Республики в изгнании, и оно не имело отношение ни к УПА в целом, ни к бандеровцам в частности, ни к коллаборационистам вообще, и к приписываемым им преступлениям. Поэтому про современное правительство и Раду тут мимо, если мы говорим про правопреемство.

2. Коллаборационисты были везде и всегда, но в любом случае не стоит их отождествлять с любыми украинскими националистами, будь то бандеровцы, бульбовцы, мельниковцы или еще кто. Между прочим все лидеры этих формаций сидели в немецких тюрьмах или концлагерях.

Они и между собой то не могли договорится, смешно говорить про какие-то истребления.

п.с. Сам презираю украинский национализм (как и любой другой в принципе), но история вещь деликатная и стоит тщательно выбирать источники информации. Статья на укозе это вообще лол, каша сплошная.

п.п.с. НКВД конечно здорово поработали над репутацией украинских националистов.

burunduk:

но добавил в результаты поиска - разве это не абсурд?

В который раз, так и работает гугл, ссылку на справку я давал.

Я не считаю это абсурдным, ибо контент страницы в индекс не попал. А если не хотите чтобы и просто ссылка не попала - не оставляйте ссылок на эти страницы, все логично.

А функция disallow не отвечает за попадания в индекс урла страницы и расчета обратных ссылок на этот урл. Dissalow блокирует сканирования страницы и индексирования контента на нем. Это и происходит. Заходят при этом боты или нет, вопрос не в тему, ибо по факту что нужно было то и произошло.

Урл по сути тоже контент. Не предоставляйте его гуглу (на разрешенных страницах), его в выдаче и не будет. Что даете то и в выдаче.

Так что запрет в robots работает и делает именно то что нужно. Урлы индексируются вне зоны компетентности robots и по этому утверждать что в этом виноват именно он - неверно.

Именно этот вопрос я хотел бы закрыть. А спорить про целесообразность гугла индексировать урлы мне не интересно. Это не касается ни топика вообще, ни моего высказывания из-за которого разгорелась эта дискуссия.

У вас есть для этого отдельный топик, там можете и сетовать по этому поводу.

burunduk:
были :)
роботы не обращают внимания на роботс
логи-то я вижу :)

Опять вы к словам придираетесь. Разговор то про факт работы disallow. А тут вопрос терминологии уже, само посещение ботом страницы не равно ведь индексации и работе алгоритмов верно?

Ну может и были, но не проиндексировали контент, и соответственно не учли что там отдает сервер, 404 или что другое.

Вы запретили страницу, и гугл не учел ее содержимое, что не так?

В выдаче информация извне этих закрытых страниц.

Выходит так, что гугл не проиндексировал содержимое страниц, которые вы хотели чтобы он не проиндексировал. Но при этом вы недовольны и делаете заключение что запрет не работает.

Абсурдно не так ли?

п.с. User-agent и подделать можно.

burunduk:
а то что страницы отдают 404 - это тоже не важно :)

Так боты не были на странице, откуда они знают 404 там или нет? Вы же сами запретили им посещение этой страницы.

burunduk:
если есть в выдаче значит ранжируется и следовательно влияет :)

Сам факт что урл в выдаче есть, с этим никто не спорит, я привел справку гугла в качестве аргумента, что это нормально.

Что вас беспокоит? Что запрещенная disallow-ом страница займет позиции? О каком еще влиянии может идти речь?

burunduk:

отсутствие кеша и не влияние на ранжирование - вещи не связанные
если есть в выдаче, то уже влияет!

А кто говорил что связанные? И давайте тогда определимся о каком влиянии вы говорите. И что есть в выдаче? Контента нету, титла нету. Есть лишь адрес страницы и возможные обратные ссылки на нее.

disallow отработал свою функцию, а именно запретил доступ роботов к странице. Они на ней не были. Адрес ссылки прочитали на разрешенной странице, видимо.

Что вам не нравится? Что урл страницы светится в выдаче и как-то влияет на ранжирование? Ну так disallow за это не отвечает.

---------- Добавлено 20.05.2012 в 18:01 ----------

Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс. В результате URL страницы, а также другие общедоступные сведения, например текст ссылок на сайт или заголовок из каталога Open Directory Project (www.dmoz.org), могут появиться в результатах поиска Google.

http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449

burunduk:
и где вы там клоакинг нашли?

Ну ок не клоакинг это. Но явно не самый белый метод отображения контента.

burunduk:

да ну нафиг /ru/forum/711979

Так вроде бы там правильно написали в выдаче != в индексе. Контент запрещенных страниц не в кеше, и не используется для ранжирования.

Я читал ваш топик, скажем так, использовать такие неоднозначные детали, как утверждение что запрет в роботсе не работает, слабо говоря, неуместно.

Во-первых, топик немного не об этом. Одно дело клоакинг, другое атрибут нофолов и тег ноиндекс.

Во-вторых, фраза которую вы пытаетесь нагуглить, находится в файле, который запрещен индексацией в robots.txt

"Disallow: /js/"

http://www.allave.ru/robots.txt

Так что никакой магии. Ясен пень запрет в роботсе работает, об этом никто не спорит. Но речь то об обычных ссылках.

А тут вроде как клоакинг. При том я даже не уверен, не был ли бот на запрещенных на индексацию страницах (в выдачу то не пустил и не закешировал, но прочитать файлик мог на всякий случай, а как же еще дорвеи вычислять).

vrodeden:
Личный опыт имеется, или только слышали про это? Безо всяких издевок или намеков. Просто пытаюсь понять, действительно ссылку нельзя спрятать никак, или это только один из сео мифов.

Гугл индексирует ссылки с nofollow это факт (то есть запомнит анкор и куда ведет ссылка). На 99% уверен что гугл индексирует страницы, на которые ведут только ссылки с нофолов. Это проверено на личном опыте. Но тут загвоздка в том, что гуглбот вообще и без ссылок иногда попадает на страницы, поэтому на 100% утверждать не берусь.

Открою страшную тайну - как ни закрывай, все равно все проиндексируют.

Никакое г*вно вы не скроете.

ПСы перейдут, проиндексируют, а атрибут нофолов лишь учтут при расчете веса.

Ирония судьбы, в этом полете летел главный инженер самолета.

Всего: 797