Это потому, что вы наверно, после того как изменили юзер-агент не начали заново, а продолжили сканирование. У меня же точно такая ситуация была. Я выше писал. Мне сказали удалить проект и сканировать заново, и тогда нормально стало и уровни проявились.
А можно чтобы в процессе сканирования, в списке который виден с уже просканированными ссыллками - рядом с ними писало время через которое после запроса был получен доступ к странице?
А то иногда всё так медлено сканируется и не понятно, то ли ссылок очень много на странице нашлось, то ли комп притормаживает, то ли сервер медленно информацию отдаёт.
Если вы в группе роботс использовали юзерагент pageweight - то программа будет искать правила конкретно для этого юзерагента, а если не найдёт будет сканировать всё подряд.
Я вот так утром закрыл, не дождавшись остановки.Потому что сервер на профилактику ушёл. Сейчас открыл - пусто ни одной ссылки не просканировано оказалось, хотя было порядка 1200 проверенных.
Nina, а как вы поставили запрет в роботсе? /*? Роботс локальный был?
И при скане вы выбрали тот юзерагент в котором этот запрет стоит?
Я б прогу закрыл, всё равно отсканено неправильно. У меня кстати с локальным роботсом нормально отсканировалось посл раз.
Я разобрался с проблемой активации, вернее понял откуда ноги растут. Она связана с тем, что программа файлик лицензии сохраняет в новые места. После того как она у меня попросила активацию, после сбоя с импортом и я ввёл данные. После чего она сохранила файлик лицензии в тут папку откуда я импортировал файл с ссылками сайта(( Сейчас его нашёл там, потому что предположил такую возможность. Запустил сейчас прогу для скана другого сайта, она снова активацию потребовала, я ввёл данные - она файлик лицензии на рабочий стол сохранила - потому что я локальный роботс с рабочего стола загружал. И в этом то и дело, каждый раз когда что-то загружаешь в программу она начинает эту директорию считать своей родной и не находит там файлика лицензии соответственно. Нужно жёстко прописать в настройках пути к диретории программы. И желательно чтобы путь к файлам проекта тоже прописать можно было 1 раз и прога это запомнила, а то приходится каждый раз путь заново указывать. Т.е. надо указать путь и нажать - запомнить.
Он взял на отзыв, тему и написал что она отличная и типо я уже начал по ней работать и жду хороших результатов. А тема стоила 300 баксов с человека. Ну люди повелись на его рекомендацию... А в итоге оказалось, что эта тема чёрное кидалово на подписках, самому активировать, а потом толкать на биржах как нормальные. Представители партнёрок упомянутых в мануале тоже уже в теме, к ним вал валит последнее время таких шутников. К нему с претензиями обратились, а он ответил что типа посмеяться хотел над теми кто на такое ведётся, а сам он типа такими вещами не занимается. Ну дальше понятно:)
sear4er, как ты мог получить претензию на вмид, если не платил за мануал, а получил его бесплатно. Откуда продавцу его знать. Тоже и других касается - почём продавец знал вмиды тех кто отзывался.
ТС, ты неправильный топик сделал. Нужен топик - "Список юзеров которые пишут фейковые отзывы".
Ник - цитата поста с отзывом - ссылка на топик. И кратко в чём суть обмана в теме.
Темы бывают сносят, а так останутся...
Это противоречитт вашим словам:
Если в теме и поняли что тема гнилая и кидальная. Почему сразу не отписали об этом в отзыве?
Отзыв - это независимая объективная оценка темы - называть чёрное белым, это не отзыв, а прямой обман пользователей форума, которые доверяли вашему мнению. Отзыв не обязательно должен быть хвалебный, что за мода на это пошла. Суть отзыва - показать как достоинства предложения, так и недостатки и риски. В настоящее время читаю тут разные темы - отписывается обычно не отзыв, а скрытая реклама ТС, в обмен на тему бесплатно.
Пересканировал уровни появились. Но это всё равно не дело, что глюки при добавлении страниц вручную влияют на весь проект так что его сносить приходится.
Почему у гугл бота, яндекс написано?
[ATTACH]116693[/ATTACH]
Топерь вот что, по моей проблеме с импортом. Проверил на том же сайте о котором материалы кидал уже. Ссылки в тхт загрузились, но прога сообщила что не может связаться с сервисом активации - ввёл рег данные - приняла - началось сканирование их - в общем все прошла - открываю результаты там у всех ноль входящих и ноль исходящих, битых нету. Запустил скан непосредственно сайта - просканировалось нормально, правда меньше страниц чем в моём списке. Так что проблема не решена. Плюс - уровни у всех страниц нулевые остались, чего быть не может.