- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Поискал на серче и в яндексе, нашел несколько скриптов для определения pr. Самый свежий из них создан в марте 2008 года. Но как он, так и другие написанные по подобному алгоритму скрипты на данный запрос:
file(http://www.google.com/search?client=navclient-auto&ch=6-220635707&ie=UTF-8&oe=UTF-8&features=Rank&q=info:zhilinsky.ru)
возвращает Warning: failed to open stream: HTTP request failed! HTTP/1.0 403 Forbidden in...
Ну а если попробовать подобный запрос ввести в Google, то он выдает:
403: Forbidden
Your client does not have permission to get URL /search?client=navclient-auto&ch=6-220635707&ie=UTF-8&oe=UTF-8&features=Rank&q=info:zhilinsky.ru from this server. (Client IP address: 95.134.175.215)...
это я пробовал как со своего айпишника, так и через несколько прокси.
В общем, вопрос такой - где взять рабочий алгоритм определения pr?
Модуль PageRank для perl.
думаю что сесть, разобрать ява скрипт хеширование ссылки от плагина к файрфоксу не сложно за вечер, наймите кого нить, может осилят) и выложите чтобы все пользовались :)
Такая проблема похоже только с жилинским :)
Вот, проверяю по надыбленным ранее скриптам: http://vashmaster.ru/files/top40/indexPR.php
Запрос 1: http://www.google.com/search?client=navclient-auto&ch=6645161294&features=Rank&q=info:vashmaster.ru
Запрос 2: http://www.google.com/search?client=navclient-auto&ch=61904436467&features=Rank&q=info:rbc.ru
Запрос 3: http://www.google.com/search?client=navclient-auto&ch=6-220635707&features=Rank&q=info:zhilinsky.ru (выдаёт 403)
У других сайтов нормульно, а жилинский чудит. Почему-то параметр ch при подготовке получается равным 6-220635707, хрен знает, правильно ли это?! Похоже, что проблема как раз в нём.
Например, если подправить в ручную у другой проверки:
http://www.google.com/search?client=navclient-auto&ch=6-45161294&features=Rank&q=info:vashmaster.ru
то аналогичный 403 ответ от гуги вылазит
Нужно найти правильную функцию вычисления параметра ch для сайта zhilinsky.ru
Например, здесь правильно вычисляют PR сайтов:
http://www.pr-cy.ru/analysis/vashmaster.ru PR=3
и, конечно, жилинский - http://www.pr-cy.ru/analysis/zhilinsky.ru PR=4
Значит, корректная функция хеширования есть.
Возьмите скрипт с сайта Жилинского и исправьте одну функцию. Там переполнение идет, в остальном он рабочий.
предполагаю что битовые операции из пхп страдают .... сталкивался с этим, они ведут себя как арфифметические, а не битовые увы :(
деархиватор криптованных архивов писал и обломался, пришлось на си лепить)
пхп - гумно со своими багами увы :(
общую суть я понял, но появилось несколько вопрос - зачем вообще Google хеширует url?
Возьмите скрипт с сайта Жилинского и исправьте одну функцию. Там переполнение идет, в остальном он рабочий.
общую суть я понял, но появилось несколько вопрос - зачем вообще Google хеширует url?
чтобы дети не атаковали сервера
Больше всего похоже на дополнительный индекс в хранилище данных. По хэшу искать значение быстрее, чем по строке URL.
Для кэша страниц в гугле применяется такой же подход - можно кэш получить запросом
но в выдаче гугля все ссылки идут с хэш-кодомMalcolm, то есть вы хотите сказать что поддерживать клиентский код проще/гибче/интереснее? ведь передаются оба параметра - хеш и не хеш, зная алгоритм, применить хеш функию на стороне сервара в десятки миллионов раз логичнее, чем обновлять сторонний софт. это дополнительные грабли для всяких скриптов пр.
Гуглю нет никакого дела до сторонних скриптов, единственный клиентский скрипт, который они поддерживают - их собственный тулбар, из которого функцию расчета хэш-кода умельцы портировали на другие языки. Просто как-то не логично рассчитывать этот хэш на стороне клиента исключительно для усложнения алгоритма.