- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
тоже кстати после видео семинара с Люстиком, решила приобрести программку)
Сергей, к вам вопрос, когда вы проводите анализ на веса, вы сколько ставите число итераций?
тоже кстати после видео семинара с Люстиком, решила приобрести программку)
Сергей, к вам вопрос, когда вы проводите анализ на веса, вы сколько ставите число итераций?
В принципе, для того, что бы увидеть разницу, достаточно и двух. Чем больше итераций - тем меньше погрешность и разница очевиднее. Я обычно выставляю 6 итераций.
Купил программу, очень понравилась. Да ещё и недорого. Спасибо Вам за то что вы есть.
У меня вопрос Если парсить сайты с блоками Контекстоной рекламы. Она не нащёлкает мне лже переходов. Или лучше выключать их в момент анализа. Просто выключить их все долго, а так парсить боюсь.
Купил программу, очень понравилась. Да ещё и недорого. Спасибо Вам за то что вы есть.
У меня вопрос Если парсить сайты с блоками Контекстоной рекламы. Она не нащёлкает мне лже переходов. Или лучше выключать их в момент анализа. Просто выключить их все долго, а так парсить боюсь.
Переходы не нащелкает :)
Спасибо за программу и не большую цену :)
1) Если ссылки выводить с помощью Jquery - программа не будет их учитывать?
2) Добавил сайт, просчитал веса. С нужно страницы убрал ссылки (в самой программе!) пересчитал вес, а программа не увеличила а уменьшила значение. Это нормально, или что-то я не понимаю? не могу бы кто проконсультировать :)
Sterh, всё время забываю уточнить как обрабатываются ссылки ведущие на страницы закрытые в роботсе или с атрибутом нофолоу, точнее как прога их считает при расчёте веса?
Доброго времени суток Первый раз в жизни заплатил за софт свои кровные с твердым убеждением, что в бизнес надо вкладывать) Парсинг одного сайта загнулся после сканирования пяти с чем-то тысяч страниц, поэтому надеюсь на развитие вашей софтины С другим сайтом такая картина - 439 страниц пробежал, сохраняю отчет в *.csv - тут, во-первых, обнаружился небольшой глючок - тайтлы с амперсандами (" у меня там в неск-х местах) вместо того, чтобы уместиться в свой столбец "Заголовок" залезли на соседние столбцы (sapienti sat), но это ерунда Объясните чайнику - что я делаю не так - более трехсот ссылок записана в "битые", хотя ни вебмастер ни ксену линкс ни ручные проверки не выявляют битые ссылки и что значит "Исключение во время запроса WebClient"? Т е сервер просто не дал нагло парсить все страницы? Почему программа нашла на сайте всего 9 нормальных страниц и присвоила им одинаковый условный вес?
Использую версию 1.7.9, Опции по умолчанию Все внутренние ссылки относителные, т к сайт имеет 2 адреса, со склейкой все в порядке, основной хост присвоен
Почему нигде не сказано какое кол-во страниц может обрабатывать программа? У меня около сотни тысяч страниц, а программа вылетела после 3 тысяч!
Почините программу!
Доброго времени суток Первый раз в жизни заплатил за софт свои кровные с твердым убеждением, что в бизнес надо вкладывать)
С почином! )))))
..... сохраняю отчет в *.csv - тут, во-первых, обнаружился небольшой глючок - тайтлы с амперсандами (" у меня там в неск-х местах) вместо того, чтобы уместиться в свой столбец "Заголовок" залезли на соседние столбцы (sapienti sat), но это ерунда
Всплывал этот вопрос уже. Решение в этой ветке можно почитать с поста 983 до 993
Объясните чайнику - что я делаю не так - более трехсот ссылок записана в "битые", хотя ни вебмастер ни ксену линкс ни ручные проверки не выявляют битые ссылки и что значит "Исключение во время запроса WebClient"?
В 90% случаев некорректно прописан base href
Если проверили и не помогло - УРЛ мне в личку и что за движок у сайта.
Почему программа нашла на сайте всего 9 нормальных страниц и присвоила им одинаковый условный вес?
9 страниц из-за "Исключение во время запроса WebClient" как раз. А вот условный вес нужно сначала расчитать :) Единичка у всех страниц - это стартовый вес по умолчанию.
Почему нигде не сказано какое кол-во страниц может обрабатывать программа?
Да ладно! А это что?
[ATTACH]99480[/ATTACH]
На страницеhttp://www.page-weight.ru/buy/ , аккурат перед словом "купить"