ddvhouse

Рейтинг
94
Регистрация
04.04.2007
edgrak:
Выставить большу задержку - имеете ввиду во вкладке "Сеть" в параметрах программы или где?

Да. Во вкладке "Сеть". Но это не панацея, если "уже" спалил IP и "уже" банит.

Лучший вариант это, конечно, прокси сервера подключить. Чем больше, тем надёжнее.

Вышла новая версия CS Sape Master 1.8

  • Проверка индексации через альтернативные источники без выпадения капчи.
  • Проверка уникальности доноров.
  • Небольшие изменения при сворачивании программы в «трей».

Тема техподдержки.

ddvhouse добавил 26.11.2010 в 13:44

inetessentials:
лучше больше функционала бы :)

Пишите, реализуем. 🚬

edgrak:
Когда так делаешь выскакивает табличка с предложением на какой текст сменить, а надо, чтобы меняло на другой свободный, если есть. Если не совсем понятно о чем я, посмотрите, пожалуйста как реализован данный функционал непосредственно на sape.ru

Нет. Пока это не реализовано. Возможно, будет в одной из ближайших версий.

edgrak:

И Вы не ответили на вопрос про индексацию в Google.

Проглядел. Гугл усилил защиту от парсинга. Вас банят. Попробуйте выставить большую задержку при работе с ним.

Вышла новая версия 1.8

  • Проверка индексации через альтернативные источники без выпадения капчи.
  • Проверка уникальности доноров.
  • Небольшие изменения при сворачивании программы в «трей».
tuz:
Расскажите про новый источник ссылок SEOMoz. Откуда берутся бэки?
Спасибо.

http://www.opensiteexplorer.org/About

Описание на сайте автора.

titaniMOZG:
Вопрос: возможно ли создать пресеты проверок, аналогично, как создаются пресеты фильтров?
Допустим, ко мне приходит 1000 заявок с полуавтомата.
У меня процентов 50 минимум сразу отклоняется по тексту URL.
Потом я проверяю число страниц в индексе, индексацию самой страницы - на этом отсеивается еще весомая часть ссылок.
Потом фильтруется по числу внешних, по фильтру стоп-слов.
Т.е. мой алгоритм действий выглядит как:
Проверка 1
Фильтр 1
Проверка 2
Фильтр 2
и т.д.
Следовательно, мне нет смысла проверять все заявки по всем критериям. Потому что это во-первых будет очень долго, во-вторых - будут быстро съедаться все лимиты, XML допустим.

В идеале, было бы здорово, что бы можно было создавать сценарии. Допустим, в сценарии пишется:
1. Фильтруем (удаляем) по URL
2. Проверяем число страниц в индексе
3. Фильтруем по числу страниц
4. Проверяем наличие страницы-донора в индексе
5. Фильтруем по странице донору
6. Проверяем число внешних ссылок
7. Фильтруем по числу внешних
ну и т.д. в этом же духе. Что бы можно было сохранить несколько сценариев под разные цели и потом просто выбрать один сценарий, запустить, и забыть.

PS: я еще не пользователь sapemaster. Только приглядываюсь к нему. :)

Это в планах по работе с автоматом. Впринципе и сейчас это частично в автомате уже реализовано.

edgrak:
Уважаемые разработчики!

По какой причине проверка на индексацию в Google проходит меньше 5% ссылок, как правило. Для остальных дается прочерк? Это как-то можно исправить.

Также есть предложение по доработке программы:

Ввести возможность смены текстов ссылок, как и в системе sape сделано (когда мы можем выбрать определенные ссылки, и сменить тексты с отмеченными, сохранив старый вариант, если не прошло). Это удобно, когда необходимо закупить N ссылок с определенными уникальными текстами ссылок, так чтобы одному тексту соответствовала 1 ссылка. Просто используя Вашу замечательную программу, я, например, закупаю ссылки, после чего отсеиваю по своим критериям, в итоге на некоторые тексты получается, что закуплено 3-4 ссылки, далее я вынужден заходить на сайт sape.ru, и изменять тексты ссылок используя вкладку "смена текстов".

Отметить ссылки, в меню правой кнопки мыши выбрать "Изменить тексты".

Всегда пожалуйста.

Sidius:
Здравствуйте. Разъясните пожалуйста новый параметр "Уникальность". Спасибо.

Здравствуйте.

Описание параметра: http://forum.controlstyle.ru/topic/652/

Особенности: http://forum.controlstyle.ru/topic/651/

Уважаемые пользователи! В связи с заметной нестабильностью результатов проверки индексации страниц и ссылок в Яндекс.XML (во всех сервисах и программах) нами были внесены изменения в алгоритм проверки индексации — все данные теперь проверяются трижды!

Несмотря на это, возможны редкие ошибки (не более 1% от проверяемого числа ссылок), тогда как ранее погрешность могла достигать 30%. На ближайшие 7 дней стоимость проверки индексации остается прежней. В дальнейшем она может быть пересмотрена из-за увеличения числа запросов к Яндексу.

Перец:
Хм, у меня на фильтрацию заявок уйдет около 2500р. в месяц. Но сейчас я могу руками при желании проверять часть сайтов перед добавлением в gbl.

Это 250000 проверок. Сколько у вас в месяц заявок валится?

Перец:

Для урлов длинее 400 символов индексация (yap) не показывается. В драйвлинке можно под это отдельный фильтр сделать чтобы не покупать на таких сайтах?

Сейчас проверка таких урлов проходит в несколько этапов. Если и после всех ухищрений не получится проверить индексацию, то результатом будет "ERROR, не удалось проверить индексацию страницы". Вы можете выделить такие позиции через инструмент "Отметить строки, содержащие тексты" внизу таблицы раздела История.

Перец:

ps У вашей команды мощные сервисы выходят. Сделайте, плиз, проверялку сайтов на предмет контроля контента и появления чужих ссылок и iframe.

Контроль контента - это проверка по стоп словам? Такой параметр уже есть.

Над iframe подумаем.

ddvhouse добавил 16.11.2010 в 09:22

pro-maker:
Очевидно же, что за счет фильтрации, понижаете оборот в разы. :)

Не совсем так. Как правило, речь всегда идёт о бюджете. С помощью DriveLink, вы сможете на тот же бюджет закупить ссылки, которые будут работать и давать результат ВСЕ. Оборот останется тот же, но в этом обороте будут участвовать только нормальные ссылки.

Уважаемые пользователи! Со вчерашнего дня проверки по бирже SAPE затруднены в связи с тем, что API данной биржи периодически недоступно или работает очень медленно.

Пожалуйста, наберитесь терпения, запуск проверок вручную не ускорит процесс проверки.

Всего: 374