LiM

Рейтинг
71
Регистрация
30.11.2001

Другие - тоже. ;)

Авторы лучших работ будут приглашены в Яндекс на собеседование о работе

Во-во... При том Яндексу никто не мешает предложить этим людям заведомо неинтересную должность, либо отказать по неизвестной причине... Интересный способ создать информационный повод из ничего. ;)

Это я к тому, что Яндекс, заявляя такое, ровно ничем не рискует и ничего толком не обещает. Вот если бы они сказали "будут взяты на работу в Яндекс на должность штатного дизайнера с окладом таким-то"...

slawa,

а чем является остальные 2000 ссылок?

А их просто еще не проверили - они подозреваемые на звание каталога... ;) Рук же не так много, как хочется...

Если интересно, за время проверки было отсеяно как НЕ каталоги 264 адреса. Их полный список также дается, дабы не заставлять людей повторять мой путь второй раз. Просто их никто специально не считал - оно мало кому нужно.

Это не есть удобно для обработки своими прогами - webalizer плохо понимает русскоязычные запросы... Кто получал посетителей с Гугля, вспомнит примеры в юникоде.

что такое "ротация"?

Это когда один бесконечный лог режется на небольшие кусочки... Я предпочитаю резать понедельно... После gzip'а аккуратные двухмегабайтики получаются... =)

Так ведь не на одном же 1ps.ru свет клином сошелся... Штука, конечно? неплохая, но только для "первого рывка". После нее нельзя останавливаться... Я вот для одного из подшефных ресурсов почти ежедневно вот уже два года нахожу новые каталоги для прописывания ссылок...

Яндекс не успевает их все индексировать... ;)

Я только что написал свой скрипт ведущий статистику на PHP. Теперь видно по каким запросам кто откуда приходит и в какое время!

Хорошая, должно быть, вещь, но логи - лучше. Если Ваш провайдер их не предоставляет, попросите его это сделать. Если откажется - в болото такого провайдера... Ищите нового.

Polite Moose,

Что-то я не понял про компенсирующий фактор. Поясни подробнее, пожалуйста.

Ну ведь по формуле передается по ссылкам не весь PR страницы, а лишь какая-то его часть, а остальная часть и есть мой "компенсирующий фактор" - она у всех страниц постоянна и равна заданной вероятности случайного попадения на эту страницу того виртуального посетителя, движение которого описывает алгоритм.

В твоем примере, 99 страниц не должны получить ничего, а одна открытая должна получить 1/100 от веса ссылающейся страницы. Именно столько она и получила бы, в случае будь все ссылки открыты.

А чем закрытые от индексации страницы хуже, что им PR не передавать? Ссылка на них же есть. Значит и Виртуальный посетитель имеет физическую возможность на эти страницы попасть. Другое дело, что с точки зрения робота с тех страниц нет выхода...

А зачем при авторегистрации JavaScript? Весь смысл авторегистрации это правильно создать, послать и обработать запрос (реже послать ещё один), подставив нужные данные в запрос. А чтобы все выглядело правдоподобно необходимо задать Referer и User-Agent. И всё.
Обработав огромное количество поисковиков я так и не увидел необходимости в JavaScript.
Cookies при авторегистрации тоже остается невостребованным.

А затем, что иначе просто элементарно отлавливать авторегистрацию. Да и Ваши слова, что "AddSite Pro 2.0 полностью эмулируется IE6", уже неверны...

В моей программе AddSite Pro 2.0 полностью эмулируется IE6

Полностью, включая запоминание кук и исполнение JavaScript?

Всего: 1000