И еще вопрос - подскажет ли кто как получить PR от гугля в текстовом виде?
Спасибо!
И то же самое в гугле?
и рамблере?
Вопрос относится к линкообмену - как проверить (прямым запросом к яндексу без помощи посторонних сервисов), действительно ли размещенная на меня ссылка на чужом сайте проиндексирована? То есть она в принципе может появиться в поисковой выдаче?
http://1-info.ru/links_checker
- проверьте результаты своих трудов:)
Сделайте нормальный отчет для клиента.
А заодно узнайте, например, сколько линков останется на следующий день, через неделю?
Да- что-то вроде припоминаю, там в момент принудительного завершения скрипта возбуждается исключение, которое можно использовать чтобы запустить скрипт по новой?
Если рассуждать о теоретической части, то есть еще важная деталь. Когда идет обращение по неотвечающему адресу обычно выдерживается тайм-аут в несколько секунд. В это время другой поток должен работать с другим сайтом и таким образом загрузить канал. То есть количество потоков должно быть таким, чтобы количество передаваемых данных равнялось ширине канала. По опыту для 256 кбит/сек - это порядка 50 потоков. Для мегабитного канала должно быть больше и т.д.
Иначе проверка, скажем 1000 каталогов займет неприемлемо много времени.
В среднем реальная скорость передачи данных при обходе нормального по доступности сайта в 1 поток составляет всего 20-30кбит. Из-за даже не плохих ссылок, а необходимого времени начальной инициализации http протокола при начале каждой страницы. То есть одна страница загружается конечно быстрее, но если обойти сайт из например 100 страниц и поделить объем данных на общее затраченное время, то получатся как-раз такие цифры. Независимо от ширины канала.
Вот так 🚬
Не буду спорить - сервер можно настроить как угодно. Но ограничение по времени есть всегда иначе достаточное количество запущеных скриптов со строчкой, типа while(1=1) {} - убьет его.
он вообще не придет, потому что все выполняемые на сервере скрипты имеют ограничение времени выполнения. Через 30 сек (настройка php по умолчанию) они принудительно завершаются.
Такие программы не пишутся для исполнения на сервере, т.к это либо означает его перегрузку, либо неприемлемые для вас параметры по скорости.
Мы бы обязательно предложили серверный вариант, если бы была такая техническая возможность.
Вы считаете входящий траффик, измеряемый десятками или даже сотнями мегабайт, 100% загрузку канала за счет многопоточности и время непрерывной работы, измеряемое часами (хотя смотря какой канал) - совместимыми с сервером провайдера?.
В принципе несложно написать скрипт, который проверит один сайт за несколько запусков. Но отчет о работе, например, allsubmiter вы таким образом не сделаете.
Она написана под юниксом на ЯВЕ и скомпилирована там-же - если интересно. Работает под любой ОС, где есть ява.
Ищет на сайтах.
Я тут читал тему про allsubmiter и базы из 6000 белых каталогов. С помощью links_checker можно узнать обо всем этом очень много нового.