- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
на данный момент в индексе 4000 а реально примерно 9-10 т страниц
в описание программы я не видел это ограничение
так бы не стал брать ... а главное нет ответа от разработчика (отправил уже 2 письма)
Уже писали гарантировано до 5000. В теме же есть данные. У некоторых до 10к страниц получалось обработать. Думаю все дело в коде...
Отличная программа, автору зачет
Поставил, запустил, и только потом задумался о том, что у большинства проектов больше 15к страниц.
Можно ли как-нибудь сообщить проге "СТОП, ХВАТИТ №;%НАЯ РОГАТАЯ ТВАРЬ, ОСТАНОВИСЬ" (с)
чтобы она работала с тем количеством страниц, которое насканилось на момент остановки?
Или либо ждать пока досканит все, либо нифига?
С настройкой фильтров разобраться не могу (-
Как, например, запретить ей смотреть все глубже 3-х кликов?
У поисковиков, насколько я знаю, число итераций равно 6. И там идет не суммирование значений, как в проге, а их замена на вновь полученные. Именно при замене, изменения значений веса после шести итераций сходит на нет, т.е. значения меняются столь незначительно, что ими можно пренебречь. В новой версии проги так же будет замена, а не суммирование.
добрый!
а можно поподробнее? как-то не встречал подобной инфы
спасибо
Dim0k, а насколько большой? ТС вроде гарантирует работоспособность до 5к страниц. И ещё если много картинок, можно в фильтры графику добавить.
я выкачивал сайты по 15-20К страниц
как же долго прога их обрабатывает после сканирования!
на деле заметил, что качая большие сайты получаю разное количество страниц - где обрубилось, столько и показывает
ArtLiberty добавил 08.01.2010 в 22:28
Поставил, запустил, и только потом задумался о том, что у большинства проектов больше 15к страниц.
Можно ли как-нибудь сообщить проге "СТОП, ХВАТИТ №;%НАЯ РОГАТАЯ ТВАРЬ, ОСТАНОВИСЬ" (с)
чтобы она работала с тем количеством страниц, которое насканилось на момент остановки?
Или либо ждать пока досканит все, либо нифига?
С настройкой фильтров разобраться не могу (-
Как, например, запретить ей смотреть все глубже 3-х кликов?
ветку прочитать западло
ветку прочитать западло
да :-(
добрый!
а можно поподробнее? как-то не встречал подобной инфы
спасибо
Это нам еще на курсах говорили (тех, что самые первые были когда то, Каширин вел). Можно попробовать по архивам РОМИПа полазить, поискать.
я выкачивал сайты по 15-20К страниц
как же долго прога их обрабатывает после сканирования!
на деле заметил, что качая большие сайты получаю разное количество страниц - где обрубилось, столько и показывает
Сейчас разломали всю прогу нафиг. Переделываем таблицы, методику обсчета. Должна побыстрее работать после обновления.
такой момент
в роботс.тхт прописал
Disallow: /archives/tag
при проверке урлов вида site.ru/archives/tag/1.html
в панели ВМ пишет, что запрещен к индексации правилом
а PW при сканировании все равно ищет эти страницы
Исп-ть роботс, ессно, включено
ArtLiberty добавил 22.01.2010 в 08:25
такой момент
в роботс.тхт прописал
Disallow: /archives/tag
при проверке урлов вида site.ru/archives/tag/1.html
в панели ВМ пишет, что запрещен к индексации правилом
а PW при сканировании все равно ищет эти страницы
Исп-ть роботс, ессно, включено
Когда хоть приблизительно ожидается обновление?
добрый!
а можно поподробнее? как-то не встречал подобной инфы
спасибо
Классический алгоритм PageRank в переводе А. Садовского.
Вообще основной минус программы - то, что она десктопная, поэтому потоковая проверка или проверка больших сайтов затруднена на компах средней мощности. Не говоря уже о том, что на большом сайте может зависнуть с потерей результатов.
Классический алгоритм PageRank в переводе А. Садовского
Давно ли он обрабатовался? :)