- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Программой доволен. Из плюсов - нашел больше половины своих покупных ссылок под непотом . Единственный минус для меня в этой программе - это поедание интернет трафика.
С поеданием пока ничего толкового пока не придумать. Можно конечно настроить на сервере сжимающий прокси, это позволит снизить кол-во трафика раз в 5, т.к. информация текстовая и очень хорошо пожмется. Но на своем сервере я этого делать не хочу, причин две - IP сервера будет быстро забанен яндексом (хотя можно использовать прокси - но тогда надо где-то брать списки и периодически обновлять), и есть ненулевая вероятность того, что сервер не справится с нагрузкой. Можете попробовать программы вроде traffic compressor (бесплатно) или globax (этот платный, но вроде недорого).
К примеру, страницам, на которых за счет коротких ссылок получается "приличный" рейтинг, я доверять совсем не хочу.
Позволю себе рацпредложение.
ИМХО, длину ссылок стоит учитывать более серьезно. Чем длиннее анкор - тем больший вес должна получать ссылка в расчете ее рейтинга и наоборот.
Интересная мысль. Может в следующих версиях что-то такое будет.
Кроме того, стоило бы учитывать общее количество результатов в выдаче по конкретному запросу. Чем больше результатов в выдаче - тем меньше должен быть вес соответствующей ссылки.
А почему?
Новая версия MassPageChecker v1.4
Изменения:
- новая опция: проверка индексации страницы Яндексом
- исправлена ошибка: неправильно определялось наличие некоторых сайтов в Яндекс-каталоге
- исправлена ошибка со вставкой из буфера, теперь появилось 2 вида вставки: 1. Обычная вставка текста; 2. Вставка HTML: если в буфере html код страницы, копированный например из IE то в список будут добавлены ссылки со страницы.
Демо версия: http://altseotools.com/download/masspagechecker_setup.exe
Сайт программы: http://www.altseotools.com
Для зарегистрированных пользователей: скачайте обновление по той же ссылке, которую получили при регистрации.
Цена полной версии программы $19.99 или 499р, до нового года действует скидка 10%.
здравствуйте, потестил самую первую версию из пяти сайтов два было в непоте (мои проверенные данные у платона) прога показала 55%. по двум сайтам
купил бы но прежде вопрос:
сколько сайтов можно проверить одновременно, можно ли проверить внутренние страницы, и не забанит ли яндекс мой ip при использовании онной проги ?
А почему?
На мой взгляд, если мы в выдаче имеем более двух результатов по одному анкору (где есть донор+акцептор), то это означает:
1. анкор ссылки не уникальный ->
2. следовательно, донором учтенной ссылки может быть другая страница, а не та которую мы анализируем ->
3. чем больше результатов в выдаче, тем больше вероятность п.2 и тем выше вероятность неработоспособности анализируемой ссылки ->
4. очевидно, вероятность непота для анализируемой страницы должна быть выше
По сути, это аналогичный учету длины анкора модификатор, просто более комплексный и точный.
P.S.
Еще один момент. Возможно я не до конца понимаю систему, но, мне кажется, что при отсутствии донора в выдаче, рейтинг непота странице выставлять вообще нельзя. Это как то нелогично - данных по донору нет никаких, а рейтинг выставляем... Уместнее было бы ставить вопросики или же, на крайняк, [1/2 + все остальные применимые модификаторы].
Это ИМХО.
Посмотрел программу , понравилась алгоритмом.
% непота,конечно ,ерунда, но 0% позволяет выявить работающую главную.
Еще добавить бы модифицированную проверку на непот (см. Непот+++ для FF, работающий безотказно) и цены бы ей не было.
За 3 дня тестового пользования дошел до покупки. Вчера вечером оплатил , жду ключа на мыло.
Девелоперу спасибо!
А где смотреть то?
keks, посмотреть можно тут http://ivanov.in/seo/nepot-test-5/
fmcoder, NepM посмотрите.
сколько сайтов можно проверить одновременно, можно ли проверить внутренние страницы, и не забанит ли яндекс мой ip при использовании онной проги ?
Внутренние проверять можно. Кол-во сайтов не ограничено. Насчет бана яндексом - тут точно сказать не могу. Чем больше сайтов проверяете, тем больше вероятность, что забанит.
Для избежания этого можно использовать прокси.
На мой взгляд, если мы в выдаче имеем более двух результатов по одному анкору (где есть донор+акцептор), то это означает:
1. анкор ссылки не уникальный ->...
Да, программа примерно так и считает. В следующей версии алгоритм будет немного подкорректирован, будет более точно.
fmcoder, NepM посмотрите.
Да, ту программу посмотрю, как раз для следующей версии может пригодится пара идей :)
Ключи всем кто оплатил сейчас отправлю.
keks, посмотреть можно тут http://ivanov.in/seo/nepot-test-5/
fmcoder, NepM посмотрите.
Там Денис спустя столько времени даже прокричал
Ну а теперь о программе.
начнем с минусов:
1. Вначале кажется, что программа использует не совсем правильный запрос при ручной проверки (в подробно по ссылкам) 😒. Но потом выясняется когда проверяешь программу через перехватчик пакетов, что запрос правильный. Зачем так дурить пользователей показывая неверный и неиспользуемый в проге запрос :) ?
2. Нельзя получить отдельно(список) по нажатию на кнопку список сайтов с уровнем 0 и с уровнем отличном от 0
3. Зачем было вводить %, можно просто оставить: не под непотом и неизвесно?
4. Непонятная настойка "таймаут при получении страницы". Это таймаут при запросах в яшу(кстати можно парсить и проекты которые используют его xml выдачу ;)? Так напишите это. Прикапываюсь конечно :)
5. Программа не определяет быстробота.
6. Если больше 2 результатов, но меньше n (где n от 2 до 50 задается ползователем). Можно проверять выдачу парся сайты(до первого найденного сайта с ссылкой с искомым анкором) и если таковые не найдены преспокойно ставить 0%
(последнии 2 пункта сильно уменьшат количество ложных срабатываний).
теперь плюсы:
1. Нравится концепция программы т.е. не капли мимо. (Лучше я ково то несправедливо отфильтрую нежели потрачу деньги впустую). Как я принимаю сайт под непотом пока не доказано обратное(жеско, но деньги жалко). И программа четко доказывает, что сайт не под непотом(хотя несправедливо отфильтрованных должно быть меньше).
2. Хорошее юзабилити программы и расшифровка-обьяснение(правда паленая ссылка проверки :D ) результатов.
3. Ну и главный плюс, что она работает и исполняет свои обязанности. ☝
Вывод: косяки есть, но программа справляется с поставленной на нее задачей. Я куплю её.
Так как прога привязывается к железу, смогу ли я получить новую лицензию при его смене?
Diplomat,
Для тех, кто в танке: кнопки Nep и NepM не работают. Пользуйтесь кнопкой QUQ!
еще вчера игрался с NeP и NePM - работало. Не понимаю что там с синтаксисом запросов происходит. Он менялся ? Возможно, я не в курсе...
Diplomat, спасибо за развернутый отзыв :)
1. Вначале кажется, что программа использует не совсем правильный запрос при ручной проверки (в подробно по ссылкам) . Но потом выясняется когда проверяешь программу через перехватчик пакетов, что запрос правильный. Зачем так дурить пользователей показывая неверный и неиспользуемый в проге запрос ?
Да никто не дурит, просто отчет "подробно по ссылкам" делался уже далеко после первой версии, а ручная проверка появилась вообще недавно. Я не стал копировать запрос из того места, где именно он делается (лень было искать), и написал по памяти.
2. Нельзя получить отдельно(список) по нажатию на кнопку список сайтов с уровнем 0 и с уровнем отличном от 0
Это будет в следующей версии.
3. Зачем было вводить %, можно просто оставить: не под непотом и неизвесно?
Сначала над этим думали, но просто, некоторые сайты могут получить ненулевой процент за счет того, что например ссылка выпала из индекса, или еще что-то. Но если на сайте много "плохих" ссылок, то процент будет большим.
4. Непонятная настойка "таймаут при получении страницы". Это таймаут при запросах в яшу(кстати можно парсить и проекты которые используют его xml выдачу ? Так напишите это. Прикапываюсь конечно
При получении любой страницы. Страницы с самого сайта, от яндекса, гугла и т.п. Мало ли какая проблема при получении страницы. Если получить страницу за указанный промежуток времени не получилось в отчете программа напишет read timeout.
6. Если больше 2 результатов, но меньше n (где n от 2 до 50 задается ползователем). Можно проверять выдачу парся сайты(до первого найденного сайта с ссылкой с искомым анкором) и если таковые не найдены преспокойно ставить 0%
(последнии 2 пункта сильно уменьшат количество ложных срабатываний).
Будет в следующих версиях как включаемая опция. Ведь это довольно ощутимо поднимет трафик.
Так как прога привязывается к железу, смогу ли я получить новую лицензию при его смене?
Да, если железо не будет меняться по нескольку раз в день...