- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
А как растекается по сайту - так это и так видно, без учета внешних.
не видно если входящие идут на разные страницы :)
попробуйте сравнить даже на 10-12 страницах (посчитать в экселе) как изменяется значения веса и сколько дойдет до главной со страницы 3 уровня.
100 единиц веса, а на другую 10 - как узнать куда и сколько?
это в принципе не важно, достаточно условных величин соизмеримых с величинами используемыми при расчете
кстати pelvis скинул мне отчет по одному моему сайту и я увидел проблему в программе, а именно производится попытка сканировать несуществующие страницы :), точнее не учитывается значение указанное в <base href="http://сайт" /> на странице, в связи с этим расчеты получаются не точными :)
Вот такой вопрос.
Сайт морды является форумом, и как следствие программа виснет на 2500 странице. При чем, сам форум достаточно дохлый.
Сам вопрос, - мне нет необходимости тестировать форум, меня интересует внутренние страницы, не относящиеся к форуму. Можно запустить программу по отдельным файлам, минуя морду? Как я понял, программой это не предусмотрено?
Вот такой вопрос.
Сайт морды является форумом, и как следствие программа виснет на 2500 странице. При чем, сам форум достаточно дохлый.
Сам вопрос, - мне нет необходимости тестировать форум, меня интересует внутренние страницы, не относящиеся к форуму. Можно запустить программу по отдельным файлам, минуя морду? Как я понял, программой это не предусмотрено?
Можно в настройках, в ограничениях, забить слово forum например, и программа будет игнорировать все ссылки и страницы, с forum в УРЛе.
Под рукой оказался голый домен. Ради эксперимента поставил чистенький phpBB3. Хотел поюзать систему ограничений.
Так программа закачала 4000 страниц и 11200 ссылок, продолжает скачивать дальше.
Выбило программу на 4998 страниц, 14050 ссылок.
Под рукой оказался голый домен. Ради эксперимента поставил чистенький phpBB3. Хотел поюзать систему ограничений.
Так программа закачала 4000 страниц и 11200 ссылок, продолжает скачивать дальше.
Выбило программу на 4998 страниц, 14050 ссылок.
Ответил в личку.
потестил сегодня программу, очень удобная, при наличии минимума мозгов может помочь не только при анализе своего сайта, но и помочь при анализе доноров при покупке ссылок :)
на форуме очень часто возникают вопросы как узнать все ссылки с сайта эта программа может ответить и на этот вопрос :)
P.S. Sterh, небольшое пожелание на будущий релиз :)
интересна возможность пакетной обработки url в автоматическом режиме по заданным настройкам с сохранением отчетов по каждому url отдельно, что бы можно было запустить комп и он обрабатывал заданный список, но при этом можно было бы работать с уже с обработанными результатами.
а об остальных пожеланиях типа моделирования мы уже пообщались :)
Под рукой оказался голый домен. Ради эксперимента поставил чистенький phpBB3. Хотел поюзать систему ограничений.
Так программа закачала 4000 страниц и 11200 ссылок, продолжает скачивать дальше.
Выбило программу на 4998 страниц, 14050 ссылок.
Проблема нечитаемости форумов - решена. Спасибо разработчику за оперативность.
несколько урлов подставлял..
только главную сканирует...
несколько урлов подставлял..
только главную сканирует...
robots.txt стоит?
robots.txt стоит?
в смысле галочка,? так она по умолчанию стоит..