- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Спасибо за программу, Sterh.
Но хотелось бы видеть и такие возможности в ней:
1. Коды ответа сервера для каждой страницы (200, 404, 301, 302...).
2. Информация о редиректах: с какой страницы и куда ведет редирект, с каким кодом.
3. Уровень вложенности страницы.
4. Размер страницы, кб.
5. Циклические ссылки - те, которые ссылаются сами на себя.
Планируете ли развитие функционала программы?
Спасибо за отзыв :)
1.2. - это есть в он-лайн сервисе. В Lite обещать не буду.
3 - вот честно говоря не вижу смысла абсолютно. Учитывая, что сейчас в основном продвигают внутренние страницы, такое понятие как уровень вложенности становится относительным (если воспринимать его как количество кликов от точки входа).
4. В принципе можно, но если будем подключать п.п.1 и 2
5. ... ну.. в принципе можно их не удалять, а выводить в окно к битым ссылкам... подумаем
Ну а над развитием работаем постоянно :)
Спасибо за отзыв :)
3 - вот честно говоря не вижу смысла абсолютно. Учитывая, что сейчас в основном продвигают внутренние страницы, такое понятие как уровень вложенности становится относительным (если воспринимать его как количество кликов от точки входа).
УВ понимается как количество кликов от главной страницы. Данная функция полезна, если анализируется большой сайт с большим количеством продвигаемых запросов. Она позволит найти страницы с УВ ниже 2 и на основе этой информации создать нужные УВ страниц.
Спасибо за ответы :)
УВ понимается как количество кликов от главной страницы. Данная функция полезна, если анализируется большой сайт с большим количеством продвигаемых запросов. Она позволит найти страницы с УВ ниже 2 и на основе этой информации создать нужные УВ страниц.
Спасибо за ответы :)
Все равно не улавливаю связь между УВ и продвижением страниц. Ну есть куча запросов, к ним куча страниц - ну и двигайте. При чем тут УВ.
Он играл хоть какую-то роль два-три года назад, когда ссылки в основном покупались на морду, а далее вес перетекал по внутренним ссылкам.
Сейчас УВ это атавизм.
ветку всю не читал, засунул сайт там в гуглоиндексе 45к страниц, прога не смогла проработать на 3к гд то вылетело окошко от винды что программа прекращает работу, пробовал с мелкими сайтами 200 -300 страниц - все ок
windows7 64 бита, процессор Core i7
собственно вопрос возможно ли просчитать большой, объемный сайт? может проблема именно в 64битах?
ветку всю не читал, засунул сайт там в гуглоиндексе 45к страниц, прога не смогла проработать на 3к гд то вылетело окошко от винды что программа прекращает работу, пробовал с мелкими сайтами 200 -300 страниц - все ок
windows7 64 бита, процессор Core i7
собственно вопрос возможно ли просчитать большой, объемный сайт? может проблема именно в 64битах?
Нет, на данный момент прога большие сайты не тянет. Но есть серверная версия - Page Weight Online, которая вытягивает любые сайты.
Sterh, у меня возник вопрос: Как мне пройтись пейдж вейтом по определенному разделу сайта? (сайт конкурента, доступ к роботс не имею).
Дело в том, что возникла необходимость получить список УРЛ'ов всех пользователей форуме (страниц больше 1кк). Естественно, парсить весь сайт нет смысла - нужны только ссылки профилей пользователей + долго + вылеты из-за массивности форума и невозможностью спасить большое кол-во страниц.
Как быть? Есть какие-то варианты? Чтобы PW, к примеру, лазил по страница, содержащим в url'е member= (ну или набор символов). Повторюсь, доступа к роботс нету.
Повторюсь, доступа к роботс нету.
А зачем? в программе реализован инструмент правил роботса в него можете задать все необходимое (и не учитывать роботс конкурента).
В исключение можете добавить разные вариации, кроме тех которые встречаются в профайлах. :)
А зачем? в программе реализован инструмент правил роботса в него можете задать все необходимое (и не учитывать роботс конкурента).
В исключение можете добавить разные вариации, кроме тех которые встречаются в профайлах. :)
Неа, так не получится... все перепробовал. Таким образом как Вы советовали можно исключить конкретно какйо-то УРЛ, а если их десятки тысяч?
Исключения вида mysite.com/* и mysite.com* или просто mysite.com/ и mysite.com чтобы пройтись только по всем ссылкам из mysite.com/blog/ не работают... Может у меня таки лыжи не едут и я делаю что-то не так? 🙅
Исключения вида mysite.com/* и mysite.com* или просто mysite.com/ и mysite.com чтобы пройтись только по всем ссылкам из mysite.com/blog/ не работают... Может у меня таки лыжи не едут и я делаю что-то не так? 🙅
Прошу прощения, что не сразу ответил - думали, как реализовать...
Боюсь, что не получится все таки, т.к. робот должен все равно пройти по всему сайту, что бы убедиться, что не пропустил страницы.
В качестве "костыля" для решения Вашей задачи, можно использовать какой либо парсер выдачи и запрос вида: site:www.site.ru/razdel
Спасибо за отклик. Да, я уже все варианты перепробовал, с ПВ не получается реализовать мою задачку. Но, все равно, спасибо. Софт стоящий.
п.с. Хотелось бы уже обновление десктопной версии увидеть, хоть и с доплатой при переходе на новую. Лиж бы сайты жирные "ел" и не вылетал.