Это уже исправлено, но версия пока не выложена - тестируем.
А как он выдается? Если как "найден по ссылке", то все нормально, в смысле - это не добавляет непота, ведь действительно донор мог отвалиться. Но реципиент мог появиться там просто так, если содержит в тексте самих страниц текст ссылки.
Да, при проверке исходим из предположения, что непот или на всех ссылках, или ни на одной. Т.е. если есть уникальные ссылки, по которым находятся только донор и акцептор, то непота нет.
Да, это ограничение сделано специально. Чтобы всякие товарищи, которые тут отписывалиь, не сильно волновались и не скручивали шеи и т.п. (тут уже выше про это было).
А то что с ручным результатом сходится, это нормально :), так и было задумано.
Не в непоте, но процентов это добавляет. Добавляет только в том случае если нет уникальных ссылок с которыми все нормально.
Думаю, непостоянство выдачи яндекса. И очень важно, чтобы при проверке не было ошибок (в отчете пишется как "55% (ошибок: 10)"), т.к. ошибки могут сильно изменить результат.
А насколько сильно меняется результат? 5-10% в принципе нормально.
Тогда может просвятите меня в Истину? Да и я писал уже, что я больше по программингу, а алгоритмы мне так сказать "подгоняют" оптимизаторы.
Думаю, пара примеров, хотя бы в личку, не помешала. А то Вы все говорите, а никаких примеров или аргументов нет.
Сейчас дорабатываем алгоритм. Искажения появляются из-за того, что программа можкт учитывать лишние внешние ссылки (реклама, импорт новостей, субдомены и т.п.). Но как бы там ни было, прога показывает где непота нет точно. А уже это само по себе сэкономит массу времени.
Disell, вот в том то и проблема - как понять, что делать с субдоменами, проверять или удалять... Писать список исключений не дело. Тут надо подумать. Как вариант, можно сделать настройку или перед началом проверки спрашивать, что делать с субдоменами.
_S_, да, пока в некоторых случаях и у нас не совпадает, работаем над улучшением алгоритмов. Также в ходе тестирования были найдены ошибки, работа над которыми уже ведется:
1. Учитываются лишние ссылки с донора (субдомены, контекстная реклама и т.п.)
2. Не перекодируются страницы. Корректно обрабатываются только страницы в кодировке win-1251.
Лучше бы осилил, про рандом я уже писал - прога не рандом.
Только что ответил на другом форуме как интерпретировать цифры:
1. 0% - значит, что непота нет (акцептор найден по анкору, при этом анкор уникальный и не имеет копий на других сайтах)
2. ??? - недостаточно данных для оценки или ошибка
3. 5% и выше- подозрение на непот. Процент повышается, например, когда найден только донор, а акцептора нет.
Disell, да, как раз сегодня думали, что делать с поддоменами... Ведь именно из за них программа отправила Ваш сайт в непот :) Наверное, надо как-то их вообще не учитывать, но при том, как-то надо определить, является ли поддомен частью этого сайта или нет.
Например, ссылку на forum.site.com с сайта site.com понятное дело не нужно учитывать. А вот ссылку с сайта vasya.narod.ru на сайт petya.narod.ru - учитывать нужно. Причем, для программы оба этих случая - одинаковые, т.к. и там и там имеем домен третьего уровня.
Насчет понижения, думаю в яндексе поступили проще - или учитывают ссылку полностью (т.е. непота нет), или не учитывают совсем (есть непот или еще что-то). Какой смысл учитывать ссылку наполовину или еще как-то? Ведь если сайт продажный (т.е. яндекс думает, что это так), то ссылки с него учитывать, даже частично, смысла нет, ведь они поставлены не для людей, а для поисковиков.
Да ладно, непот есть, или он куда-то делся, а я не знаю?
Думаю, насчет ответственности тему стоит закрывать, давайте лучше обсудим результаты проверки.
Кашпировский и т.п. - это другая песня. Вот если бы моя прога выдавала случайное число то это было бы в их стиле, а тут как я уже говорил - реализация ручного метода проверки. Метод похож на тот, который был описан в статье на optimization.ru "В ПОИСКАХ СВЯТОГО ГРААЛЯ размышления о непотах".
Обновил программу. Теперь в логе (внизу главного и в окне во время работы) пишутся ошибки, если они возникают. Исправлена ошибка при работе с http - некоторые сайты вообще не удавалось открыть (результат был "???" и 0 внешних ссылок). Также, если недостаточно ссылок для оценки, процент не считается, т.к. все равно он скорее всего будет неверным.
Скачать (~300K): http://www.altseotools.com/download/MassPageChecker_beta.rar?nocache
Доп. ссылка: http://slil.ru/24390662
Нет, разница обусловлена наличием ответственности. Грубо говоря, ответственность стоит 9980 долл, а прога точно также 20, и определяет все также, как и версия за 20 :)
И никакого гудбая не будет, можете не волноваться, прога поддерживаться будет, т.к. используется нами.
И по поводу 90 случаев из 100 - откуда знаете, что Ваши данные верные, а в проге - нет?
Кто из нас тормозит еще большой вопрос. Про ответственность - платите абонентку порядка $10К в неделю, и я найду Вам того, кто будет отвечать за каждый проверенный сайт. Чтобы что-то получить, надо сначала что-то дать.
Безусловно Вы правы, и именно так и было сделано. Была база проверенная вручную, потом решили сделать прогу - проверили сайты, все сходится. В принципе, по другому и быть не могло - метод аналогичен ручной проверке.
А добавить второй метод лишним не будет. Дополнительная степень надежности. Или для тех, кто нашему методу не доверяет.