- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
По моему вопросу будет ответ?
там нет ссылок и программа их не видит, откуда у вас такие скриншоты?
и кстати без www. результаты совершенно другие :)
Ковыряем :)
А можно сроки услышать? А то может вы править будете пол года, а я сиди жди.
Я вам ссыль давал, тоже прога встает?
Тоже на рекорд идете? :)
Да, до сих пор иду. Раньше максимум сканировалось 3 500 страниц.
На данный момент уже 12 600 страниц!
Смею предположить, программа вставала из-за сложности чтения урлов - из-за параметров или количества url и зависала. А тут сайт с более, чем 20т. страниц и пока всё нормально читает. Порог в 10т. преодолен.
Так там же есть сохранение в формате программы, и экспорт есть в csv. Мне не понятен ваш вопрос.
при экспорте csv какие разделители ставить?
при экспорте csv какие разделители ставить?
Точка с запятой. А вообще любой csv можно открыть блокнотом и посмотреть, какие используются разделители... бо разные могут быть.
Видимо да, поисковики то ходят по таким страницами исключая страницу с $ а все что за ней учитывают
Проще наверно вручную удалить эти страницы, из списка найденных, перед тем как веса расчитывать. Только вот на данный момент, это удаление невозможно.
Насчёт тормозов при сканировании, мне помню считало и 20к страниц, комп 95 года. Проблемы не в количестве страниц, а в количестве ссылок на странице. Если внутренних ссылок много - то тормозить будет и на небольших сайтах.
Купил у ТС вчера прогу, в целом, остался очень даже доволен, спасибо. Да, остались у меня кое-какие вопросы касательно сквозных ссылок в меню и др., буду читать эту ветку и разбираться что к чему, думаю они тут уже поднимались.
По скорости работы для небольших сайтов (200-300 стр. за 2-3 минуты) программка довольна-таки шустрая, никаких претензий нет. Вообщем, полезная прога, уже подкорректировал некоторые свои сайты, выявил несколько битых ссылок, будем тестить и смотреть на результаты :)
Точка с запятой. А вообще любой csv можно открыть блокнотом и посмотреть, какие используются разделители... бо разные могут быть.
У вас экспорт в csv корректно работает? что-то я несколько раз выгружал, открывал через open office, столбцы ползут, веса страниц не найти.
А как еще можно сравнивать результаты?
Ведь очень важно видеть результат месяц назад и сейчас на примере siteauditor
2 tysson
Часом не тот же случай?
Всплывал этот вопрос уже. Решение в этой ветке можно почитать с поста 983 до 993
кстати почему настройки из robots.txt не сохраняются, а их надо подгружать каждый раз?
может сделать, чтобы они сохранялись в самой проге?