ddvhouse

Рейтинг
94
Регистрация
04.04.2007
nocomments:
Тоже вылезла проблема с XML после последнего обновления программы.
Кнопка "Проверить доноров" - говорит XML не работает, ip не зарегистрирован. В то же время проверка из Настроек проходит успешно. Ну ip естесственно зарегистрирован правильный, 1000 запросов не использовано. Добавлен пустой прокси с ключём и логином, с прокси та жа история.
Чуть ранее до этого вылезла капча, ввёл ключ от антигейта - перестал работать XML. Нужно вернуть прошлую версию, подскажите где скачать.

Выложили новую версию (1.7.4.140), где эта ошибка исправлена.

http://sapemaster.ru/

SerjL:
Добрый день. Пользуемся yazzle уже в принципе не первый день. Сейчас офис расширился. Имеется один общий ай-пи адрес на все компы. Суть вопроса в том: нужны ли нам дополнительные ай-пишники, так как яззл может быть запущен на разных машинах одновременно, да и в придачу сеомонитор может в это время шустрить:). Зависит ли корректность работы программы от того, какие программы ещё в это время активно используют ай-пи? Заранее благодарен за ответ.

Если вы активно используете режим Яндекс.XML, то так как на один IP лимит запросов 1000, то скорее всего его хватать не будет и нужно будет воспользоваться прокси серверами.

Если вы используете режим прямого парсинга Яндекса, то тогда вам тем более понадобятся прокси сервера, так как Яндекс забанит вас весьма быстро (обычно в течение минуты :))).

Если вы используете сервис SEOBudget, то тогда вам хватит и одного IP адреса.

Опять же всё выше сказанное касается работы с Яндексом и, конкретно, индексацией в нём. Функции, которые затрагивают другие поисковые системы работают с ними, в основном, в режиме прямого парсинга и там так же ваш IP может оказаться в бане. Либо же некоторые сервисы в бан IP не заносят, но, вместе этого, отдают в ответ некорректную или же вообще пустую страницу, что, несомненно, скажется на результатах проверок. Потому прокси сервера или дополнительные IP адреса лишними не будут.

SEO.Slash:
ddvhouse, планируете ли подобный параметр («Уникальность контента на странице») ввести в CS Sape Master?

На Sape Master пока нет.

Разрабатываем на Yazzle. Проверим, как будет работать на нём. Если всё будет стабильно, то тогда можно будет думать и о Sape Master.

Уважаемые пользователи! С сегодняшнего дня на сервисе доступен новый параметр «Уникальность контента на странице». Появление данного параметра вызвано нововведениями в алгоритмах поисковой системы Яндекс:

"За последний месяц был произведен ряд изменений в поисковом алгоритме, чтобы существенно ограничить влияние SEO-ссылок на ранжирование. В первую очередь это относится к SEO-ссылкам с сайтов, содержащих некачественный контент, и к недавно появившимся SEO-ссылкам."

Уникальность контента определяется по методу шинглов. Длина каждого шингла 9 слов. Данные определяются по индексу Яндекса. Стоимость проверки по данному параметру составляет 0,3 рубля и обсуловлена большим числом запросов к Яндексу по сравнению с другими параметрами. Однако, уникальность текста достаточно проверить только один раз для уже размещенных ссылок.

Примерно 2/3 всех ссылающихся с бирж сайтов имеют неуникальный контент!

Lamar:
Простите, возможно что-то пропустил или недоглядел в настройках, но тем не менее: а куда (или как) из "проверки обратных ссылок" делась ориентировочная цена каждой ссылки?

Вероятно, у вас выключен параметр Сервис - Рассчитывать стоимость.

MIZER:
Введение этих 10 копеек как раз бьет по этой группе пользователей. Апи конечно решает проблему, но это лишние телодвижения.

Как раз для тех, кто использует DriveLink для работы не со стандартными ботами SAPE, а со своими, и придуман API DriveLink.

MIZER:
Огромное кол-во заявок отсеивается (думаю статистика у вас есть), поэтому если их покупать и проверять раз в день, то процесс закупки нужного колчичества может растянуться на значительное время.

Если проверка в Drivelink стоит раз в сутки, то процесс если и затянется, то не более, чем на сутки.

Например. Нужное количество - 1000 ссылок.

Ваш бот закупает их раз в час по 1000 штук, Drivelink проверяет их раз в час, при этом каждый раз 900 из них (90%) отсеивается.

В итоге за 10 часов наберется необходимые 1000 ссылок.

Другая ситуация. Нужное количество - 1000 ссылок.

Ваш бот закупает их раз в час по 400 штук (или 10000 за раз), через сутки у вас будет лежать 9600-10000 заявок. Drivelink проверяет их раз в сутки, и отсеев 90% - получается 960-1000 ссылок.

Оставшиеся 40 будут закуплены в следующие сутки (это и есть "задержка"). С учётом того, что 90% - это примерное число, вполне возможно, что все необходимые ссылки закупятся сразу.

ddvhouse добавил 20.10.2010 в 14:40

Изменили API. Сейчас функция drivelink.start_items_filters доступна по умолчанию.

MIZER:
А эту новость чего не запостили сюда?

Руками новости постим. Когда получается, тогда и получается.

MIZER:

На одном аккаунте по всем урлам у меня стоит полуавтомат на покупку ссылок. Если какая-то часть ссылок отваливается, то происходит автоматическая их докупка (сапа ищет заявку, драйвлинк проверяет). Да, для урлов у которых лимит ссылок уже набран новых заявок нет, но все же не просто так я бота гоняю.

Поставьте проверку раз в сутки. В этом случае, даже при ненужной проверке, списаний не произойдет.

MIZER:

Если хотите вводить такие меры, то сначала доработайте АПИ, чтобы можно было тогда вручную запускать проверку по определенному урлу. А пока вы поступаете не очень корректно.
...
Повторюсь, хотите вводить такие меры - вводите, но прежде сделайте тогда нормальный апи.

Читайте внимательнее FAQ: http://drivelink.ru/faq/text/49/

(array) drivelink.start_items_filters((array) id_items [, (array)id_filters]) — запустить вручную проверку по указанным фильтрам (если не указаны, то запуск произойдет по всем фильтрам) для заданных элементов. Функция не доступна по умолчанию в интерфейсе API, включается по запросу после обоснования необходимости доступа к ней. В случае успеха возвращается массив успешно поставленных в очередь на проверку элементов.

Последняя новость:

В целях сокращения ваших и наших издержек на сервисе сегодня будет исключен период проверки «3 часа». Связано это с тем, что по статистике на биржах ссылки закупаются в среднем не чаще чем 2—4 раза в сутки. Таким образом, примерно каждый второй запуск проверки с трехчасовым периодом не приносит никаких результатов. Во всех фильтрах с периодом 3 часа системой будет автоматически установлено значение «6 часов».

Уважаемые оптимизаторы! Сегодня для вас стал доступен еще один параметр для проверки доноров «Ссылка размещена в футере». Отметим, что ссылка считается размещенной в футере, если ее нет в отрезке текста длинной x%, считая от начала страницы. Аргумент x задается пользователем системы. Если ссылка отсутствует на странице, то считается, что она не расположена в футере.

lipton:
3-й день день при попытке проверить доноров на индексацию в Яндексе выскакивает " исчепано допустимое кол-во запросов"...
прогу обновил, не помогает.. проблема с моим IP .? не подскажете как исправить.?

Проверяете через Яндекс.XML, через прокси или свой IP?

Проверьте, что на них не закончились суточные лимиты лимиты.

Всего: 374