vlav

vlav
Рейтинг
57
Регистрация
07.09.2004

И еще вопрос - подскажет ли кто как получить PR от гугля в текстовом виде?

DimaU:
хttp://www.yandex.ru/yandsearch?text=&pag=u&surl=сайт_партнера.ru&Link=www.ваш_сайт.ru,ваш_сайт.ru :)

Спасибо!

И то же самое в гугле?

и рамблере?

Вопрос относится к линкообмену - как проверить (прямым запросом к яндексу без помощи посторонних сервисов), действительно ли размещенная на меня ссылка на чужом сайте проиндексирована? То есть она в принципе может появиться в поисковой выдаче?

http://1-info.ru/links_checker

- проверьте результаты своих трудов:)

Сделайте нормальный отчет для клиента.

А заодно узнайте, например, сколько линков останется на следующий день, через неделю?

Konstantin_S:
Была проблема оганичения времени, посидеть пришлось денёк... Ну потом и надумал...
И всё путём работает, час отрабатывает без проблем...

Да- что-то вроде припоминаю, там в момент принудительного завершения скрипта возбуждается исключение, которое можно использовать чтобы запустить скрипт по новой?

Если рассуждать о теоретической части, то есть еще важная деталь. Когда идет обращение по неотвечающему адресу обычно выдерживается тайм-аут в несколько секунд. В это время другой поток должен работать с другим сайтом и таким образом загрузить канал. То есть количество потоков должно быть таким, чтобы количество передаваемых данных равнялось ширине канала. По опыту для 256 кбит/сек - это порядка 50 потоков. Для мегабитного канала должно быть больше и т.д.

Иначе проверка, скажем 1000 каталогов займет неприемлемо много времени.

В среднем реальная скорость передачи данных при обходе нормального по доступности сайта в 1 поток составляет всего 20-30кбит. Из-за даже не плохих ссылок, а необходимого времени начальной инициализации http протокола при начале каждой страницы. То есть одна страница загружается конечно быстрее, но если обойти сайт из например 100 страниц и поделить объем данных на общее затраченное время, то получатся как-раз такие цифры. Независимо от ширины канала.

Вот так 🚬

Konstantin_S:
Техническая возможность есть...
У меня скрипт проверки наличия ответных ссылок работает..
каталог у меня порядка 500 - 550 сайтов и проверка занимает минут десять что-ли...
ну а потом отчет приходит.
Правда система моя написана не на РНР, а на ПЕРЛ'е

Не буду спорить - сервер можно настроить как угодно. Но ограничение по времени есть всегда иначе достаточное количество запущеных скриптов со строчкой, типа while(1=1) {} - убьет его.

Konstantin_S:
Конечно, объём обмена данными большой, потому отчет придет нескоро...

он вообще не придет, потому что все выполняемые на сервере скрипты имеют ограничение времени выполнения. Через 30 сек (настройка php по умолчанию) они принудительно завершаются.

Такие программы не пишутся для исполнения на сервере, т.к это либо означает его перегрузку, либо неприемлемые для вас параметры по скорости.

Мы бы обязательно предложили серверный вариант, если бы была такая техническая возможность.

Konstantin_S:
Братцы! да такую и в онлайне можно сделать...
только отчет о наличии ответных ссылок будет приходить например на e-mail после проверки всех сайтов.
У меня у самого так проверка на каталоге ссылок работает...

Вы считаете входящий траффик, измеряемый десятками или даже сотнями мегабайт, 100% загрузку канала за счет многопоточности и время непрерывной работы, измеряемое часами (хотя смотря какой канал) - совместимыми с сервером провайдера?.

В принципе несложно написать скрипт, который проверит один сайт за несколько запусков. Но отчет о работе, например, allsubmiter вы таким образом не сделаете.

Deni:
Вы бы еще под досом прогу написали....
Хотя почти так оно и есть...........

Она написана под юниксом на ЯВЕ и скомпилирована там-же - если интересно. Работает под любой ОС, где есть ява.

IrokezV:
vlav, она ищет прямо на сайтах? Если да, то такое не нужно.
Намного полезнее сделать прогу, которая бы проверяла на проиндексированность во многих поисковиках. Получится и быстрее и полезней, и трафа меньше жрать будет.

Ищет на сайтах.

Я тут читал тему про allsubmiter и базы из 6000 белых каталогов. С помощью links_checker можно узнать обо всем этом очень много нового.

Всего: 209