sergey_

sergey_
Рейтинг
55
Регистрация
09.01.2007

ап тиц жуть ...

на всех сайтах огромный минус.....

ниже списочек, а пока наблюдения... все сайты ктоторые вверху, у которых есть тиц на 16 февраля не трогались с января и ничего не делалось....

нижке те сайты с которыми занимались....

☝ имхо бред введение отрицательного коэффициента, при резком увеличении беков.

16.фев	30.мар

1500 2300 ВНИМАНИЕ тут была расклейка без www было 900 с www 1500 - сейчас все опять склеилось...
150 70
1100 700
210 40
120 30
220 30
90 30
60 20
200 40
190 40
190 60
180 30
200 40
190 30
180 30
170 30
180 30
180 40
170 40
190 40
190 40
170 30
190 30
180 30
180 30
200 30
210 50
80 20
100 30
100 30
180 30
110 30
160 20
120 30
100 30
150 30
150 10
80 20
170 30
180 30
150 20
160 30
150 30
180 40
180 40
170 30
180 30
190 40
180 30
160 30
190 30
170 40
190 40
160 30
180 20
170 30
80 30
80 20
170 30
100 30
90 30
80 30
80 30
160 40
70 30
80 30
80 30
90 30
90 30
90 40
100 50
80 40
100 30
100 30
90 30
80 30
160 30
80 20
60 20
170 50
90 40
70 20
80 30
80 20
80 30
80 30
80 20
80 30
60 20
70 30
80 30
70 30
90 30
180 40
100 40
90 30
70 30
100 30
80 30
60 20
110 40
70 30
100 30
90 30
90 30
170 40
100 30
100 30
80 30
80 30
220 190
80 20
70 30
50 20
90 30
70 20
70 20
90 30
80 30
60 30
60 20
70 20
70 30
110 30
190 120
50 40
60 10
100 30
80 30
60 20
70 30
150 40
80 30
300 30
400 20
350 20
50 20
375 20
425 30
50 10
70 20
80 20
425 20
230 10
80 10
200 30
80 110
400 20
275 20
275 10
70 20
300 10
70 20
275 20
300 20
325 10
350 20
300 20
300 10
210 20
70 20
70 20
400 20
275 20
50 10
210 20
400 20
300 20
60 10
375 20
70 20
250 20
300 20
200 10
425 30
70 20
60 10
275 10
275 10
240 10
70 10
60 10
425 120
150 130
90 120
80 110
30 10
300 20
600 300
300 10
325 10
70 10
70 10
60 10
60 10
325 10
250 10
60 10
250 10
210 10
275 10
275 20
300 10
210 10
350 10
350 10
250 10
275 10
300 20
200 10
350 10
350 10
350 10
275 10
60 10
160 10
170 10
110 10
70 10
60 10
50 10
60 10
50 10
50 10
70 10
60 10
50 10
60 10
50 10
60 10
50 10
70 20
60 10
60 10
250 10
300 10
230 10
190 10
240 10
190 10
210 10
250 10
275 10
275 10
190 10
190 10
210 10
220 10
240 10
325 10
275 10
375 10
200 10
275 10
250 10
250 20
300 20
300 20
250 20
140 10
250 20
150 20
210 10
250 10
350 20
240 10
220 20
375 20
250 20
200 20
250 20
230 20
300 20
140 20
230 20
250 10
250 10
200 10
150 10
180 10
350 20
275 20
140 20
220 10
130 20
275 20
250 20
250 10
150 20
250 10
170 20
250 20
200 20
230 20
180 20
230 20
200 20
160 10
140 20
230 10
300 20
140 20
300 10
275 20
160 20
300 20
200 20
180 20
250 20
240 20
180 20
140 20
180 10
160 20
170 10
150 10
130 20
180 10
110 20
120 20
130 10
180 20
110 10
30 10
70 10
70 10
70 10
70 10
70 10
-
70 20
60 10
70 20
70 10
50 20
30 10
40 10
40 10
40 10
40 10
40 10
20 10
30 10
30 10
10 10
10 10
20
20 10
20 10
20 20
20 10
20 10
-
20 10
20 10
20 10
20 10
20 10
10 20
-
20 10
20 20
10 20
20
20
20
-
20
20
20
10
10
20
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
20
-
0
-
20
10
10
10
10
20
10
10
10
-
10
20
10
10
20
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10
10

10
-
10
10
-
10
10
10
10

количество страниц не изменилось: Поиск по 1 657 963 806 веб-страницам

глюки в выдаче капитальные! - ... 2 позиция вообще шик - смотрим описание:

border=0 alt="Анализатор апдейтов поисковых машин"></a>'

ни сдесь, ни там не ответили 😒

ребят я вообщето про поиск посредством XML.YANDEX.RU спрапшивал :)

как обработать простую выдачу знаю..

korolef:
тебе нужно что то типа этого
	$target = 'www.'.$target;


// checking Yandex
$source = 'http://www.yandex.ru/yandsearch?Link='.$target.'&numdoc=50';
$data['Yandex'] = array(fetch($source, '&mdash; не менее', 17, 'Область', 'did not match any documents'), $source);


ну и вывод значения сделать...

да с этим проблем нет...

только бан yandex устроит если ему сразу 500 сайтов кинуть...

поэтому и возник вопрос про XML. запросы оплачиваем.. а как от туда вынуть нужную инфу не догоняю.

korolef:
если тебе нужно вывести количество бэков и страниц, то нужно парсером нужное инфо забирать. Что именно ты хочешь сделать и где?

другими сровами в результатах XML этих данный нет?

korolef:
исходник не дам но с функциями могу помочь если это тебе поможет

имеем xml запрос:

<?xml version='1.0' encoding='windows-1251'?>

<request>
<query>link="www.yandex.ru"</query>
<page>0</page>
<maxpassages>0</maxpassages>
<groupings>
<groupby attr='d' mode='deep' groups-on-page='20' docs-in-group='1' curcateg='-1'/>
</groupings>
</request>

получаем дынные (perl)

		my $req = HTTP::Request->new( POST => 'http://xmlsearch.yandex.ru/xmlsearch');

$req->content_type ('application/xml');
$req->content ($doc);
my $response = $ua -> request ($req);
@nodes = $response -> content;
my $doc = XML::XPath -> new ( xml => $response -> content );

как получить количество найденых сайтов? Страниц?

korolef:
можешь здесь просматривать и не только бэки но и много всего полезного для анализа
http://www.smclick.ru/rating.php

а исходничков не найдется 😕

нужно только определение беков через xml yandex, по аналагичной схеме уже самостоятельно можно будет построить скрипт для определения проиндексированных страниц.

Brutus:
еще с лета такая фигня :)
А вообще смотрите в какой базе ваши ссылки...они могут светиться но быть в базе быстро-робота...тогда толку от них мало :) и тогда ждите когда они попадут в основную базу

как посмотреть ссылки в базе быстроробота? и как в основной?

очень похоже на занижение веса морд.

повылезали те сайты, которые продвигались через внутрянки (ликопомойки) на донорах....

а те что только мордами крутились - понизились реально...

анализ на основе более 100 сайтов... отвал составил 20% от выведенных слов...

Всего: 103