- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Вопрос по base версии
Она потянет 50к страниц и сколько времени займет сканирование и расчет?
100к страниц?
А больше?
Тестирование проводилось?
В настройках задал - исключения, но 1 страница очень важна (которая попадает под исключения), хочу вот добавить лишь 1 url 🍿
P.S. Для расчета веса (ну и сканирования наверно).
Добавить URL сейчас нельзя.... как то хитрО у Вас получается... все запретить, одну разрешить.. Попробуйте сделать отдельную секцию директив в robots.txt, указав юзер-агентов pageweight (в хэлпе есть описание).
Вопрос по base версии
Она потянет 50к страниц и сколько времени займет сканирование и расчет?
100к страниц?
А больше?
Тестирование проводилось?
Потянет. Время зависит от канала и сайта. У меня на 3G модеме 25К страниц и, примерно, лям ссылок, вытягивались час, при скорости не более 30 kbc
Хочу обратить внимание, версия Base на данный момент представлена в виде парсера и небольшого модуля тех. анализа. Модуля перелинковки там пока нет!
Собственно как раз парсер и выложен на тестирования (скачать может любой владелец версии Lite из личного кабинета), т.к. именно с объемами сканирования возникало 90% проблем и ошибок.
Добавить URL сейчас нельзя.... как то хитрО у Вас получается... все запретить, одну разрешить.. Попробуйте сделать отдельную секцию директив в robots.txt, указав юзер-агентов pageweight (в хэлпе есть описание).
Потянет. Время зависит от канала и сайта. У меня на 3G модеме 25К страниц и, примерно, лям ссылок, вытягивались час, при скорости не более 30 kbc
Хочу обратить внимание, версия Base на данный момент представлена в виде парсера и небольшого модуля тех. анализа. Модуля перелинковки там пока нет!
Собственно как раз парсер и выложен на тестирования (скачать может любой владелец версии Lite из личного кабинета), т.к. именно с объемами сканирования возникало 90% проблем и ошибок.
Обосную, есть много выходящих дублей и т.п. Решил жестко в исключения задать, чтобы быстрее прошло сканирование, но 1 url исп. в продвижении и он нужен :) поэтому так изощренно пошел.
Обосную, есть много выходящих дублей и т.п. Решил жестко в исключения задать, чтобы быстрее прошло сканирование, но 1 url исп. в продвижении и он нужен :) поэтому так изощренно пошел.
Все равно трудно представить 🤪 Ну да ладно, Вам виднее :)
Приобрел программу, спасибо, очень понравилась.
Не поставил время на задержку и программа сервер повалила :D
Приобрел программу, спасибо, очень понравилась.
Не поставил время на задержку и программа сервер повалила :D
Благодарю за отзыв :) Да, задержку лучше использовать :)
Кстати да, программа интересная ^_^ , только сайты на укозе валит на 2-5 минуте (ip во временный бан отправляется).
Кстати да, программа интересная ^_^ , только сайты на укозе валит на 2-5 минуте (ip во временный бан отправляется).
Ну так для этого и паузу сделали :)
(c)
По-моему, Вы пропустили тире на отрезке между словами "ограничение" и "ложиться" ;)
(c)
По-моему, Вы пропустили тире на отрезке между словами "ограничение" и "ложиться" ;)
А вместо "ложиться" "- положить" ? )))))