- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Подскажите, программа определяет "ссылки относительно текущего документа"?
Прогнал сайт через программу и похоже, что все относительные ссылки вида "../bb.html" попали в "битые" с описанием ошибки "Исключение во время запроса WebClient." Т.е считаются ссылки только вида "/aa/bb.html", а ссылки вида "../bb.html" в ошибках.
Получается, что для сайтов, где урлы ссылок имеют неполный адрес программа бесполезна? Или, что-то можно настроить?
Исключение во время запроса WebClient. - это сервер отбивает. Установите паузу между запросами при парсинге.
К сожалению пауза не помогает. Битые ссылки с ошибкой "Исключение во время запроса WebClient." все равно остаются. Причем рабочая ссылка, например: href="../stati.html" в битых ссылках отображается, как ссылка с ошибкой: /statistati.html, т.е прилепляется слово stati еще раз.
Жалко, однако, купил прогу, а попользоваться не могу.
К сожалению пауза не помогает. Битые ссылки с ошибкой "Исключение во время запроса WebClient." все равно остаются.
Попробуйте увеличить величину паузы.
Причем рабочая ссылка, например: href="../stati.html" в битых ссылках отображается, как ссылка с ошибкой: /statistati.html, т.е прилепляется слово stati еще раз.
Жалко, однако, купил прогу, а попользоваться не могу.
Скиньте в личку или на support@page-weight.ru какой сайт вы проверяете, разберемся почему так получается с ссылками.
Попробуйте увеличить величину паузы.
Паузу увеличивал до 2 сек. Не помогает.
Скинул на support * page-weight.ru
Спасибо
демки то нету?
Сутки работы. И происходит самая обидная печалька из всевозможных печалек.
я считаю жестким недостатком в программе, что все это не пишется автоматом в файл или бд - вся работа (не час и не два, а сутки) уходит в никуда :(
Также не понятно, почему до сих пор не реализована функция остановки парсинга и просчета имеющихся результатов
Программа работает больше недели:
Вот лишь бы у меня не было никаких печалек.
HeR0vn1k добавил 30.11.2011 в 09:18
а когда-то всё начиналось с 1 500-3 500 страниц
Не совсем понятно.
Разъясните пожалуйста, как программа расчитывает вес в этих двух случаях:
1. Флаг "Игнорировать nofollow выключен.
2. Флаг "Игнорировать nofollow включен.
1. Программа учитывает nofollow и такая ссылка участвует в расчете как внешняя, т.е. вес по ней уходит в никуда.
2. Программа игнорирует этот атрибут, и ссылка участвует в расчете как обычная внутренняя.
демки то нету?
Нету
Программа работает больше недели:
😮
нет слов ))
а когда-то всё начиналось с 1 500-3 500 страниц
а сейчас сколько?
а сейчас сколько?
Ответ на скриншоте.
Спарсил 31 342 страницы за 11 суток и процесс продолжается
Нету
Печально... как тогда убедиться, что она нормально отработает? Просто начал использовать аналогичный другой софт, иногда бывают баги, а некоторые сайты не отрабатываются нормально, по не понятным причинам. Благо там триальная версия есть.
Печально... как тогда убедиться, что она нормально отработает? Просто начал использовать аналогичный другой софт, иногда бывают баги, а некоторые сайты не отрабатываются нормально, по не понятным причинам. Благо там триальная версия есть.
Ну, и у нас не без багов... Большой сайт не потянет. Оптимально до 5К страниц (хотя есть отдельные рекорды). А так - работает, по проблемам стараемся отвечать оперативно. В крайнем случае вернем деньги.