fmcoder

Рейтинг
50
Регистрация
11.04.2007
dkmeron:
на один сайт с малым числом внешних линков (3) выдало непот
там 1 ссылка не проиндексирована еще, а 2 выдают по анкору сайт рецепиент а не донор, при этом минимум 1 ссылка уникальна.

Это уже исправлено, но версия пока не выложена - тестируем.

dkmeron:
я считаю что если ссылка уникальна и выдается рецепиент без донора, это не непот.
мало ли почему донор отвалился?

А как он выдается? Если как "найден по ссылке", то все нормально, в смысле - это не добавляет непота, ведь действительно донор мог отвалиться. Но реципиент мог появиться там просто так, если содержит в тексте самих страниц текст ссылки.

chiffa:
тоже не осилил весь топик, ИМХО дорабатывать софт надо, нет учета уникальности анкоров ссылок: проверил сайт где 4 ссылки явно работают, а 3 фиг знает, потому что анкоры не уникальные, и все равно 0%, а может они(не уникальные) как раз и под фильтром?

Да, при проверке исходим из предположения, что непот или на всех ссылках, или ни на одной. Т.е. если есть уникальные ссылки, по которым находятся только донор и акцептор, то непота нет.

dkmeron:

с предварительно проверенным ручками списком совпадение хорошее.
100% непот вручную=85% непот у вас

Да, это ограничение сделано специально. Чтобы всякие товарищи, которые тут отписывалиь, не сильно волновались и не скручивали шеи и т.п. (тут уже выше про это было).

А то что с ручным результатом сходится, это нормально :), так и было задумано.

dkmeron:
1. ваша программа явно считает, что если акцептора нет в выдаче по анкору (а донор есть), то донор в непоте. Но возможно яша "недоапдейтился", и акцептор еще появится в выдаче

Не в непоте, но процентов это добавляет. Добавляет только в том случае если нет уникальных ссылок с которыми все нормально.

dkmeron:
2. при проверке одних и тех же сайтов с разницей в пару часов процент может несколько измениться. какова причина этого явления?

Думаю, непостоянство выдачи яндекса. И очень важно, чтобы при проверке не было ошибок (в отчете пишется как "55% (ошибок: 10)"), т.к. ошибки могут сильно изменить результат.

А насколько сильно меняется результат? 5-10% в принципе нормально.

Deni:
Мда ... Вы сударь даже теории не знаете а пытаетесь заниматься практикой и писать какие то анализаторы

Тогда может просвятите меня в Истину? Да и я писал уже, что я больше по программингу, а алгоритмы мне так сказать "подгоняют" оптимизаторы.

Deni:
1. Представленная программа выдает просто бредовые значения. Даже 10 % попадания в реальность нет. И так не только у меня если почитать топик.

Думаю, пара примеров, хотя бы в личку, не помешала. А то Вы все говорите, а никаких примеров или аргументов нет.

baltic13:
Алгоритм не важен тем, кто заказывает продвижение. А кто продвигает - тому важен.
Проверил 60 морд, 50 из них в непоте. Есть конечно результаты, с которыми я согласен, но больше тех, которые не понятно откуда взялись.

Сейчас дорабатываем алгоритм. Искажения появляются из-за того, что программа можкт учитывать лишние внешние ссылки (реклама, импорт новостей, субдомены и т.п.). Но как бы там ни было, прога показывает где непота нет точно. А уже это само по себе сэкономит массу времени.

Disell, вот в том то и проблема - как понять, что делать с субдоменами, проверять или удалять... Писать список исключений не дело. Тут надо подумать. Как вариант, можно сделать настройку или перед началом проверки спрашивать, что делать с субдоменами.

_S_, да, пока в некоторых случаях и у нас не совпадает, работаем над улучшением алгоритмов. Также в ходе тестирования были найдены ошибки, работа над которыми уже ведется:

1. Учитываются лишние ссылки с донора (субдомены, контекстная реклама и т.п.)

2. Не перекодируются страницы. Корректно обрабатываются только страницы в кодировке win-1251.

думаю:
всё не осилил, просто своё имхо скажу
1 программа рандомная

Лучше бы осилил, про рандом я уже писал - прога не рандом.

Только что ответил на другом форуме как интерпретировать цифры:

1. 0% - значит, что непота нет (акцептор найден по анкору, при этом анкор уникальный и не имеет копий на других сайтах)

2. ??? - недостаточно данных для оценки или ошибка

3. 5% и выше- подозрение на непот. Процент повышается, например, когда найден только донор, а акцептора нет.

Disell, да, как раз сегодня думали, что делать с поддоменами... Ведь именно из за них программа отправила Ваш сайт в непот :) Наверное, надо как-то их вообще не учитывать, но при том, как-то надо определить, является ли поддомен частью этого сайта или нет.

Например, ссылку на forum.site.com с сайта site.com понятное дело не нужно учитывать. А вот ссылку с сайта vasya.narod.ru на сайт petya.narod.ru - учитывать нужно. Причем, для программы оба этих случая - одинаковые, т.к. и там и там имеем домен третьего уровня.

Насчет понижения, думаю в яндексе поступили проще - или учитывают ссылку полностью (т.е. непота нет), или не учитывают совсем (есть непот или еще что-то). Какой смысл учитывать ссылку наполовину или еще как-то? Ведь если сайт продажный (т.е. яндекс думает, что это так), то ссылки с него учитывать, даже частично, смысла нет, ведь они поставлены не для людей, а для поисковиков.

Да ладно, непот есть, или он куда-то делся, а я не знаю?

Думаю, насчет ответственности тему стоит закрывать, давайте лучше обсудим результаты проверки.

Кашпировский и т.п. - это другая песня. Вот если бы моя прога выдавала случайное число то это было бы в их стиле, а тут как я уже говорил - реализация ручного метода проверки. Метод похож на тот, который был описан в статье на optimization.ru "В ПОИСКАХ СВЯТОГО ГРААЛЯ размышления о непотах".

Обновил программу. Теперь в логе (внизу главного и в окне во время работы) пишутся ошибки, если они возникают. Исправлена ошибка при работе с http - некоторые сайты вообще не удавалось открыть (результат был "???" и 0 внешних ссылок). Также, если недостаточно ссылок для оценки, процент не считается, т.к. все равно он скорее всего будет неверным.

Скачать (~300K): http://www.altseotools.com/download/MassPageChecker_beta.rar?nocache

Доп. ссылка: http://slil.ru/24390662

Deni:
Правильно ли я Вас понимаю что Ваша программа определяет в 500 раз хуже чем ручной метод ? ( 20 баксов и 10000)

Нет, разница обусловлена наличием ответственности. Грубо говоря, ответственность стоит 9980 долл, а прога точно также 20, и определяет все также, как и версия за 20 :)

И никакого гудбая не будет, можете не волноваться, прога поддерживаться будет, т.к. используется нами.

И по поводу 90 случаев из 100 - откуда знаете, что Ваши данные верные, а в проге - нет?

Deni:
Сударь. Вы тормозите или только притормаживаете?
Мне а так же остальным пользователям совершенно фиолетово на качество кода данной программы.
Вы предлагаете СЕРВИС !!!!!
Вы готовы нести ответственность за то что данный сервис будет предоставлять достоверную и правдивую информацию ?

Кто из нас тормозит еще большой вопрос. Про ответственность - платите абонентку порядка $10К в неделю, и я найду Вам того, кто будет отвечать за каждый проверенный сайт. Чтобы что-то получить, надо сначала что-то дать.

DrJeans:
Обычно сервис, как мне это представлятеся, создается когда методика уже опробована вручную и даёт сравнительно небольшой % погрешности, а потом уже этот процесс автоматизируется и предлагается в виде платного сервиса.
Или я неправ?

Безусловно Вы правы, и именно так и было сделано. Была база проверенная вручную, потом решили сделать прогу - проверили сайты, все сходится. В принципе, по другому и быть не могло - метод аналогичен ручной проверке.

А добавить второй метод лишним не будет. Дополнительная степень надежности. Или для тех, кто нашему методу не доверяет.

Всего: 182