ап тиц жуть ...
на всех сайтах огромный минус.....
ниже списочек, а пока наблюдения... все сайты ктоторые вверху, у которых есть тиц на 16 февраля не трогались с января и ничего не делалось....
нижке те сайты с которыми занимались....
☝ имхо бред введение отрицательного коэффициента, при резком увеличении беков.
16.фев 30.мар 1500 2300 ВНИМАНИЕ тут была расклейка без www было 900 с www 1500 - сейчас все опять склеилось... 150 70 1100 700 210 40 120 30 220 30 90 30 60 20 200 40 190 40 190 60 180 30 200 40 190 30 180 30 170 30 180 30 180 40 170 40 190 40 190 40 170 30 190 30 180 30 180 30 200 30 210 50 80 20 100 30 100 30 180 30 110 30 160 20 120 30 100 30 150 30 150 10 80 20 170 30 180 30 150 20 160 30 150 30 180 40 180 40 170 30 180 30 190 40 180 30 160 30 190 30 170 40 190 40 160 30 180 20 170 30 80 30 80 20 170 30 100 30 90 30 80 30 80 30 160 40 70 30 80 30 80 30 90 30 90 30 90 40 100 50 80 40 100 30 100 30 90 30 80 30 160 30 80 20 60 20 170 50 90 40 70 20 80 30 80 20 80 30 80 30 80 20 80 30 60 20 70 30 80 30 70 30 90 30 180 40 100 40 90 30 70 30 100 30 80 30 60 20 110 40 70 30 100 30 90 30 90 30 170 40 100 30 100 30 80 30 80 30 220 190 80 20 70 30 50 20 90 30 70 20 70 20 90 30 80 30 60 30 60 20 70 20 70 30 110 30 190 120 50 40 60 10 100 30 80 30 60 20 70 30 150 40 80 30 300 30 400 20 350 20 50 20 375 20 425 30 50 10 70 20 80 20 425 20 230 10 80 10 200 30 80 110 400 20 275 20 275 10 70 20 300 10 70 20 275 20 300 20 325 10 350 20 300 20 300 10 210 20 70 20 70 20 400 20 275 20 50 10 210 20 400 20 300 20 60 10 375 20 70 20 250 20 300 20 200 10 425 30 70 20 60 10 275 10 275 10 240 10 70 10 60 10 425 120 150 130 90 120 80 110 30 10 300 20 600 300 300 10 325 10 70 10 70 10 60 10 60 10 325 10 250 10 60 10 250 10 210 10 275 10 275 20 300 10 210 10 350 10 350 10 250 10 275 10 300 20 200 10 350 10 350 10 350 10 275 10 60 10 160 10 170 10 110 10 70 10 60 10 50 10 60 10 50 10 50 10 70 10 60 10 50 10 60 10 50 10 60 10 50 10 70 20 60 10 60 10 250 10 300 10 230 10 190 10 240 10 190 10 210 10 250 10 275 10 275 10 190 10 190 10 210 10 220 10 240 10 325 10 275 10 375 10 200 10 275 10 250 10 250 20 300 20 300 20 250 20 140 10 250 20 150 20 210 10 250 10 350 20 240 10 220 20 375 20 250 20 200 20 250 20 230 20 300 20 140 20 230 20 250 10 250 10 200 10 150 10 180 10 350 20 275 20 140 20 220 10 130 20 275 20 250 20 250 10 150 20 250 10 170 20 250 20 200 20 230 20 180 20 230 20 200 20 160 10 140 20 230 10 300 20 140 20 300 10 275 20 160 20 300 20 200 20 180 20 250 20 240 20 180 20 140 20 180 10 160 20 170 10 150 10 130 20 180 10 110 20 120 20 130 10 180 20 110 10 30 10 70 10 70 10 70 10 70 10 70 10 - 70 20 60 10 70 20 70 10 50 20 30 10 40 10 40 10 40 10 40 10 40 10 20 10 30 10 30 10 10 10 10 10 20 20 10 20 10 20 20 20 10 20 10 - 20 10 20 10 20 10 20 10 20 10 10 20 - 20 10 20 20 10 20 20 20 20 - 20 20 20 10 10 20 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 20 - 0 - 20 10 10 10 10 20 10 10 10 - 10 20 10 10 20 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 - 10 10 - 10 10 10 10
количество страниц не изменилось: Поиск по 1 657 963 806 веб-страницам
глюки в выдаче капитальные! - ... 2 позиция вообще шик - смотрим описание:
border=0 alt="Анализатор апдейтов поисковых машин"></a>'
ни сдесь, ни там не ответили 😒
ребят я вообщето про поиск посредством XML.YANDEX.RU спрапшивал :)
как обработать простую выдачу знаю..
$target = 'www.'.$target; // checking Yandex $source = 'http://www.yandex.ru/yandsearch?Link='.$target.'&numdoc=50'; $data['Yandex'] = array(fetch($source, '— не менее', 17, 'Область', 'did not match any documents'), $source);
да с этим проблем нет...
только бан yandex устроит если ему сразу 500 сайтов кинуть...
поэтому и возник вопрос про XML. запросы оплачиваем.. а как от туда вынуть нужную инфу не догоняю.
другими сровами в результатах XML этих данный нет?
имеем xml запрос:
<?xml version='1.0' encoding='windows-1251'?> <request> <query>link="www.yandex.ru"</query> <page>0</page> <maxpassages>0</maxpassages> <groupings> <groupby attr='d' mode='deep' groups-on-page='20' docs-in-group='1' curcateg='-1'/> </groupings> </request>
получаем дынные (perl)
my $req = HTTP::Request->new( POST => 'http://xmlsearch.yandex.ru/xmlsearch'); $req->content_type ('application/xml'); $req->content ($doc); my $response = $ua -> request ($req); @nodes = $response -> content; my $doc = XML::XPath -> new ( xml => $response -> content );
как получить количество найденых сайтов? Страниц?
а исходничков не найдется 😕
нужно только определение беков через xml yandex, по аналагичной схеме уже самостоятельно можно будет построить скрипт для определения проиндексированных страниц.
как посмотреть ссылки в базе быстроробота? и как в основной?
очень похоже на занижение веса морд.
повылезали те сайты, которые продвигались через внутрянки (ликопомойки) на донорах....
а те что только мордами крутились - понизились реально...
анализ на основе более 100 сайтов... отвал составил 20% от выведенных слов...