- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Кстати о robos.txt
Теперь можно сделать раздел специально под программу.
Цитата из хэлпа:
Так же допускаются следующие спец. символы:
* - означает любую последовательность символов
$ - означает конец строки
Так же если в файле есть поле User-Agent: PageWeight то программа учитывает только директивы из этого блока. Иначе берется блок User-Agent: *.
Например:
User-agent: pageweight
Disallow: /img/*.jpg
Disallow: /admin/
Disallow: /link$
User-agent: Yandex
Disallow: /
Disallow: /images/
Disallow: *
Disallow: /somedir
В этом случае будет использован только первый блок и будут запрещены к индексации:
Все файлы .JPG из каталога /img/
Все ссылки из каталога: /admin/
Прямые ссылки на /link, однако ссылки на /link/somedir/ будут обработаны.
Не совсем понял про роботс. В окне получения данных вижу:
/cat/vodka-and-history/
или
/tag/konyak/
при том, что
User-agent: *
Disallow: /cat/
Disallow: /tag/
Сайт - в подписи.
Не совсем понял про роботс. В окне получения данных вижу:
/cat/vodka-and-history/
или
/tag/konyak/
при том, что
User-agent: *
Disallow: /cat/
Disallow: /tag/
Сайт - в подписи.
Странно, при тестах все работало нормально. Разберемся с причиной.
Потому что три года назад "комбайна" было достаточно для работы с большинством сайтов. Как только поняли, что "уперлись" начали ковырять другие возможные варианты.
вопрос: можно ли делать парсинг своими инструментами, а использовать расчет веса в Вашей програме?
Нет
Вы сами себе противоречите и держитесь за комбайн. :(
Сбор исходных данных - это трудоемкая и долгая рутина, с которой мужественно сражается каждый разработчик win программ. Тратя именно на этот кусок много сил, зачастую в ущерб основному функционалу.
Самое ценное - это математика (анализ, расчет, построение отчетов, подсказки, рекомендации)
Так почему же не сосредоточится именно на функционале, а не на рутине?
Почему не использовать открытый формат входных данных? Алгоритмы парсеров уже давно отработаны и не содержат внутри никаких секретов.
Технически - это просто замена функции from_url на from_odbc или from_mysql
При работе с большими сайтами, напрягает не нужная обезьянья работа:
запустил софт1 – тянется весь сайт, анализ1, отчет1
запустил софт2 – тянется тот же сайт, анализ2, отчет2
запустил софт3 – тянется тот же сайт, анализ3, отчет3
анализы начиная от банальной проверки на 404, редиректы, тайтлы, кейворды и т.д.
Сегодня купил программу. Ссылки с протоколом ftp прога определяет как битые.
Как вариант, можно написать инструкцию в .PDF, чтоб множество вопросов снялись сами по себе.
Вы сами себе противоречите и держитесь за комбайн. :(
Сбор исходных данных - это трудоемкая и долгая рутина, с которой мужественно сражается каждый разработчик win программ. Тратя именно на этот кусок много сил, зачастую в ущерб основному функционалу.
Не, не противоречим. Видимо Вы не совсем в курсе. Сейчас готовится вторая версия, где парсер будет отдельно, а весь анализ отдельно. Именно для того, что бы рутину и математику решать отдельно.
Как вариант, можно написать инструкцию в .PDF, чтоб множество вопросов снялись сами по себе.
Так есть же хелп в программе. Кроме того, его отдельно можно скачать с сайта.
Sterh добавил 07.12.2011 в 09:18
Сегодня купил программу. Ссылки с протоколом ftp прога определяет как битые.
А как их еще определять? ИМХО конечно, но на такие ссылки вес не передается, и в расчете они не участвуют.
Еще вот такая ошибка бывает вылетает
Еще вот такая ошибка бывает вылетает
Я так понимаю, ошибка возникает во время расчета веса. Пришлите на support@page-weight.ru сохраненный проект, разберемся почему она возникает.
Я так понимаю, ошибка возникает во время расчета веса. Пришлите на support@page-weight.ru сохраненный проект, разберемся почему она возникает.
Отправил на почту