DmitryShustov

DmitryShustov
Рейтинг
259
Регистрация
27.11.2004
Интересы
Менеджмент конкурентоспособности, развитие онлайн/офлайн бизнеса
Много думаю и работаю.

metlyov, ключевое слово "в последнее время". Свежие ссылки не порезали видимо. У меня только такое сейчас предположение.

Кротов, ага в любом случае еще подкрутят

Есть + и - по всем проектам. Большинство в -. Из них новые проекты или новые запросы по старым проектам более в +, чем в -.

Из поверхностных наблюдений (высосанных из пальца:)) только:

1. Старым ссылкам снизили вес или зафильтровали много.

2. Один ИМ по всем запросам (кучка ВЧ, десятки СЧ, НЧ) как будто ушел в глубокий фильтр - вот это только пугает :) хотя на него давненько новых ссылок не докупали.

Анализируем дальше..

Как бы бан по ip не получился (если следилки стоят у них конечно:))

Sterh:
Вот на неё задумчивость нападает как раз, когда много ссылок идет сквозняком, бо все в памяти держит. В серверной версии, думаю, сумеем от этого избавиться.

Я так понимаю он по всем этим сквознякам и гуляет так долго туда-обратно? Тогда идеал после каждой страницы убирать неуникальные ссылки из общей базы паука.

Sterh:
Ради спортивного интереса натравил программку на газету "Взгляд" За пол часа сканирования вытащила 3500 страниц и 230000 ссылок. Травля продолжается

:)

Sterh:
Или я что-то не так понял?

Не так. Я имею ввиду что:

1. Парсим морду, парсим шаблон сайта (не меняющая масса ссылок на каждой странице)

2. Задаем кучку параметров, как то: кол-во страниц x типа (рубрик), y типа (товаров), z типа (новостей) и т.п.

3. Исходя из этих данных веса высчитываем.

Т.е. берем частично парсенный сайт + общий шаблон связей + надо подумать что еще и высчитываем тож самое. Получится некий результат с некими неточностями.

Веса - весами, а юзабили, в т.ч. навигация, у моих многоссылочных сайтов меня и клиентов полностью устраивает к примеру (в среднем на странице ИМ чуть более 150 ссылок).

Сейчас все еще парсю его вашим софтом, потом своим прогоню ради интереса уже )) жалко что пых повесится считать вес страницы по формуле из указанного вами источника, я бы попробовал поизвращаться :)

Кстати: рекомендую спланировать тулзу для ручного составления карты сайта, для пробы расчета весов страниц без парсинга с учетом данных морды и еще нескольких страниц стандартных (нечтно похожее +- на реальность чтобы высчитывать) )) Я уже второй раз нажал "Отмена" - не выдержал ожидания :)

Каков алгоритм парсинга если не секрет? Чтото она очень долго "думает"... У меня паук на пыхе летает намного шустрее...

Может дело в том что надо отсеивать неуникальные линки после скана каждой страницы? (Сужу по "Найдено ссылок: 112405" :)) - не угадал случаем?

CHEM_Eugene:
чьего менеджера? я че-то туплю....

который ручками это сделает. точно. :)

Я бы даже не думая абузами закидал его хостера ))

Всего: 2012