По опыту предыдущих вариантов 2.0 - рекомендую купить 1.0 сейчас, а когда выйдет 2.0 - просто разницу доплатить.
Можно но геморно, так как IP поисковых ботов не стабильны.
Обсуждение действий модератора? Насчёт сотен явное преувелечение, думаю подавляющее большинство людей догадалось нажать на просмотр последних сообщений Sterh, и по последним поставм вышла на эту ветку. Либо зашли в профиль Sterh и посомтрели список тем им созданных.
Он наоборот говорил:)
Как программа поймёт, что уже прошла половина сканирования? И насчёт известного числа страниц тоже спорно, мне на сайте в 2к страниц прога находила их в 2-а раза больше. Из-за раного рода дублей. Плюс ссылки на картинки и документы - это тоже страницы.
Я когда-то вроде тоже поднимал этот вопрос, в итоге сделали видимым какой урл сканируется в настоящее время и можно прикинуть докуда программа дошла.
Если вы не загрузили конкретный список страниц сайта для сканирования, почём программе знать сколько страниц всего на сайте. Если там ошибки в коде, вообще может зациклиться. И потом скорость зависит от числа внутренних ссылок на странице, если в последующих страницах их будет больше процесс замедлится, а если меньше ускорится.
Это не абсолютные веса, а относительные. Т.е. просто показывается соотношение весов на разных страницах. Сами цифры не имеют никакого значения и зависят от числа итераций.
Проще наверно вручную удалить эти страницы, из списка найденных, перед тем как веса расчитывать. Только вот на данный момент, это удаление невозможно.
Насчёт тормозов при сканировании, мне помню считало и 20к страниц, комп 95 года. Проблемы не в количестве страниц, а в количестве ссылок на странице. Если внутренних ссылок много - то тормозить будет и на небольших сайтах.
Не является. Если б робот счёл это переспамом, то то эта страница давно бы уже вылетела из индекса. Вообще к развлекательной тематике менее строгие критерии нежели к коммерческой.
Собственно чёрными методами являются те которые нарушают законодательство. Прочие это серые той или иной степени. Белых нет официально.
Роботс обрабатывается криво, лучше исключениями пользуйтесь. И ещё если на сайте много ссылок на картинки, то прога их считает отделоьными страницами - и получается их очень много, прога может вообще сайт не просканировать. Я например в таком разе их в исключения по расширению добавляю перед парсингом.
Так там же есть сохранение в формате программы, и экспорт есть в csv. Мне не понятен ваш вопрос.
MyOST, а есть новости по тому модулю к проверяльщику позиций о котором ещё в начале мая говорили?