wolf

wolf
Рейтинг
1183
Регистрация
13.03.2001
Должность
интернет-маркетинг, SEO
Частичные методы "наказания" - это уже не бан, и их полезнее проводить автоматическими методами.

Значит ли это, что в Яндексе все-таки практикуются эти самые автоматические "частичные методы наказания"?

В данном случае на лицо явная возможность любому желающему легко получать информацию о посетителе. Разьве что только не паспортные данные...

Не хочу никого обидеть, но по-моему такие заявления попахивают паранойей, а точнее, манией преследования. Всю эту информацию владелец сайта и так может узнать, заглянув в логи и воспользовавшись парой-тройкой доступных сервисов (типа whois). Не хочешь светиться - ходи через анонимные прокси, а лучше, вообще в интернет не выходи. По-моему, воспользовавшись броузером, человек добровольно соглашается раскрыть владельцам посещаемых им ресурсов передаваемую броузером информацию о себе.

Согласен, но наверное более точной будет фраза сдокумента с ненулевым PR.

Не совсем согласен. Каково точное значение PR, мы никогда не узнаем, а бар Гугля запросто может показать непроиндексированной странице PR, отличный от нуля. Так что такая фраза может ввести в заблуждение.

По-моему, фразу

3) Некоторые поисковики (Google) индексируют только те сайты, на которые есть хотя бы одна внешняя ссылка

надо дополнить словами с документа, уже проиндексированного данным поисковиком

А вот вылезти в Гугле в котором весь веб - это посложнее. И ПР так быстро, как хотелось бы, не создашь. Поэтому приходится делать дорвеи, а чтобы люди не шарахались (не от конкурентов) - их скрывать...

Ты серьезно полагаешь, что в Гугле можно вылезти наверх только за счет контента? То есть дорвеи могут стать достойной альтернативой увеличению ПР? Я тебя умоляю, как говорят в Одессе...

вариант 1) - прописать в robots.txt:
User-Agent:*
disallow: /pictures/
как это было принято достаточно давно и понимать, что яндекс их возьмет, как например Апорт (пишет потом найдено по ссылке)

Не наводите напраслину на Апорт, он таким образом запрещенные страницы не индексирует, а в результатах поиска они появляются лишь за счет ссылочного ранжирования (поиска по тексту ссылок с других проиндексированных документов)

Вывод напрашивается только один - разные по интересам пользователи в разных пропорциях распределяются между поисковиками.

Почему это только один этот вывод напрашивается? Доля приходов с конкретного поисковика очень сильно зависит от позициий сайта в нем. У меня был сайт, получавший 90% посетителей с Рамблера, но это отнюдь не значило, что его потенциальная аудитория предпочитала Рамблер Яндексу с Апортом - просто сайт в нем очень хорошо прописался.

Как узнать, что надо набирать чтобы определить Link Popularity?

Надо воспользоваться расширенным поиском конкретного поисковика. Там должа быть опция поиска страниц, ссылающихся на заданный URL.

И что надо набирать в каталогах: Yahoo, Dmoz, LookSmart?

У этих каталогов понятия Link Popularity, по-моему, нет.

То есть turtle заиндексировал около миллиона страниц результатов поиска апорта

А какого рожна вы в Апорте не запретите индексацию результатов поиска? Трудно robots.txt составить? Все уважающие себя поисковики не гнушаются этого сделать. И не надо будет себя потом в грудь бить - типа "мои результаты поиска нехорошие ребята индексируют".

Либо база еще совсем маленькая, либо PageRank'ом и не пахнет. В первой десятке по интересному однословному запросу я обнаружил четыре дорвея, которые сделал более двух лет тому назад в соответствии с тогдашними реалиями рунетовских поисковиков. Реалии изменились - дорвеи забылись. И надо же, когда выстрелили. :D

Всего: 24501