- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Отправил еще раз.
---------- Добавлено 18.01.2013 в 12:14 ----------
Получил отчет по почте.
Отправил детальное описание проблемы, сканы настройки и процесса сканирования.
Жду ответа.
Можете таймауты сделать больше? просто при 30 потоках например бывает довольно большой таймаут - например 100 300 500 сек :)
Можете таймауты сделать больше? просто при 30 потоках например бывает довольно большой таймаут - например 100 300 500 сек
А куда больше 100 сек таймаут? Он же для каждого потока отдельный. Плюс задержка между запросами. Если каждая страница будет по 100 сек открываться, то меньше тыщи страниц в сутки можно будет проверить, куда это надо.
А куда больше 100 сек таймаут? Он же для каждого потока отдельный. Плюс задержка между запросами. Если каждая страница будет по 100 сек открываться, то меньше тыщи страниц в сутки можно будет проверить, куда это надо.
Все же ограничение мнимое и легко масштабируемое, применение найдется.
Все же ограничение мнимое и легко масштабируемое, применение найдется.
Применение, будет аналогу крона. Но тогда уже проще крон использовать.
А почему программа после последнего обновления роботс видит через раз? В смысле вроде как видит, но процентов 90 закрытых в роботсе ссылок почему-то считает незакрытыми от индексации. Причем параметры закрытых и якобы незакрытых абсолютно одинаковы - и там и там pechat.html. Раньше такого глюка не было
Подскажите еще как правильно выставить начальный вес страниц для расчета веса?
Пример :
входящие ссылки - 20
исходящие ссылки - 34
начальный вес - 1
уровень -1
Какой в этом случае выставить начальный вес страницы?
dimatel, если эти данные нашла программа, то по умолчанию оставьте 1. Другие значения ставятся при моделировании, для внешних ссылок на сайт.
А почему программа после последнего обновления роботс видит через раз? В смысле вроде как видит, но процентов 90 закрытых в роботсе ссылок почему-то считает незакрытыми от индексации. Причем параметры закрытых и якобы незакрытых абсолютно одинаковы - и там и там pechat.html. Раньше такого глюка не было
Если сканируете сайты, которые сканировали до обновления, то рекомендуется удалить проект и сделать новый.
Подскажите еще как правильно выставить начальный вес страниц для расчета веса?
Пример :
входящие ссылки - 20
исходящие ссылки - 34
начальный вес - 1
уровень -1
Какой в этом случае выставить начальный вес страницы?
Изменять начальный вес имеет смысл на тех страницах, куда ведут ссылки с других сайтов. Какое именно значение ставит - тут скорее на глаз. Если ссылаются жирные страницы, то ставьте больше, если нулевки, то меньше
Sterh, как изменить большое число ссылок (более миллиона) на проекте - в ручную не вариант :)