Странно, пишет, что нет прав доступа, на просмотр документа. Как только уже не пробовал качать.
Что-то не дает скачать. Нет доступа говорит.
Работа проведена хорошая, только не забывайте, что оригинал, если не ошибаюсь, вышел в 2008. Прошло три года, многое изменилось с тех пор.
Тем не менее полезные вещи в книге есть.
Вообще-то они заявили совершенно обратное:
Я немного не точно выразился в обоих случаях вылетает с ошибкой.
Эти настройки у меня стоят. С ними все равно вылатает.
Ссылки 100% корректны. Гугл вебмастерс их отлично скушал из сайтмапа. В первый раз гружу ссылки - получаю 424, во второй раз сразу после этого из того же файла 455. Гружу в третий раз - 443. Видимо что-то не то с алгоритмом закачивания контента по ссылкам.
В фильтре нет не скачанных ссылок. Вижу только: начинающиеся с, заканчивающиеся на, содержащие.
Галку поставил. Не помогло, все равно программа зависает. Один раз зависла после проверки 1К страниц, уже на выводе результатов, при том выводило порядка девятисотого результата.
Такая просьба: можно ли сделать, чтобы после проверки каждой страницы программа записывала бы результаты проверки в файл на диск, чтобы не терять таким образом уже проверенные результаты?
Кроме того обнаружил такой момент: при проверке сайта через добавление ссылок на сайт из файла добавляются почему-то не все ссылки. Например, из 500 ссылок в файле добавилось лишь 424. С чем это может быть связано? Можно ли поправить эту ошибку?
У меня программа вылетает примерно после проверки тысячи страниц с такой ошибкой
Описание:
Stopped working
Сигнатура проблемы:
Имя события проблемы: CLR20r3
Сигнатура проблемы 01: etxtantiplagiat.exe
Сигнатура проблемы 02: 2.0.15.0
Сигнатура проблемы 03: 4d6b8312
Сигнатура проблемы 04: System
Сигнатура проблемы 05: 2.0.0.0
Сигнатура проблемы 06: 4a275e12
Сигнатура проблемы 07: 121a
Сигнатура проблемы 08: 19
Сигнатура проблемы 09: System.ObjectDisposedException
Версия ОС: 6.1.7600.2.0.0.256.1
Код языка: 1049
Спасибо. Понимаю, что это лишь ваше мнение и в каждом конкретном случае все проверяется практикой, но есть еще вопрос: каково ваше мнение по однословным ключевикам? Сколько вы считаете переспамом?
Подскажите, пожалуйста, каким сервисом вы проверяете переспам? Какие цифры вы уже считаете переспамом?
Когда примерно планируется планируется выложить апдейт?
Есть еще небольшое пожелание: чтобы при пакетной проверке программа запоминала бы последний путь, где была предыдущая проверка.