- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Виноват. Тут я ошибся -частоту запуска не увидел. Функции апи листал, но, опять же, проморгал. Т.е. все-таки вопрос решаем через саппорт - ок, отпишу.
Вы поставили, юзеры используют. Дело не в том, что сапа 1-2 раза в день на полуавтомате присылает заявки, а в том, что пользователи либо вручную могут добавить эти заявки, либо с использованием своих ботов через апи сапы также добавлять заявки чаще, чем это делает полуавтомат сапы. Сложно описал, но думаю понятно. Так, если использовать своих ботов, то частота запуска проверки ссылок может быть и раз в час.
По поводу того, что и раз в день можно проверять. Огромное кол-во заявок отсеивается (думаю статистика у вас есть), поэтому если их покупать и проверять раз в день, то процесс закупки нужного колчичества может растянуться на значительное время.
Огромное кол-во заявок отсеивается (думаю статистика у вас есть), поэтому если их покупать и проверять раз в день, то процесс закупки нужного колчичества может растянуться на значительное время.
Если проверка в Drivelink стоит раз в сутки, то процесс если и затянется, то не более, чем на сутки.
Например. Нужное количество - 1000 ссылок.
Ваш бот закупает их раз в час по 1000 штук, Drivelink проверяет их раз в час, при этом каждый раз 900 из них (90%) отсеивается.
В итоге за 10 часов наберется необходимые 1000 ссылок.
Другая ситуация. Нужное количество - 1000 ссылок.
Ваш бот закупает их раз в час по 400 штук (или 10000 за раз), через сутки у вас будет лежать 9600-10000 заявок. Drivelink проверяет их раз в сутки, и отсеев 90% - получается 960-1000 ссылок.
Оставшиеся 40 будут закуплены в следующие сутки (это и есть "задержка"). С учётом того, что 90% - это примерное число, вполне возможно, что все необходимые ссылки закупятся сразу.
ddvhouse добавил 20.10.2010 в 14:40
Изменили API. Сейчас функция drivelink.start_items_filters доступна по умолчанию.
спасибо
Ваш бот закупает их раз в час по 400 штук (или 10000 за раз), через сутки у вас будет лежать 9600-10000 заявок. Drivelink проверяет их раз в сутки, и отсеев 90% - получается 960-1000 ссылок.
Бот закупает также, как и бот сапе - пока не достигнут будет предел необходимого кол-ва ссылок. Т.е. хоть 100 раз за день запусти бота, но суммарно по ссылкам, вейтам, заявкам больше, чем 1000 их не будет. Почему так? Что бы не купить больше, т.к. если вдруг из набранных 9600-10000 заявок отсеются не 90%, а пускай даже 80%, то получится мы закупим 2000 ссылок, т.е. 1000 лишнии, что существенно.
Просто вы должны понимать, что многие ваш сервис используют для автоматизации процессов - когда пользоваться агрегаторами не хочется, а своих ботов с кучей фильтров пока еще нет. Введение этих 10 копеек как раз бьет по этой группе пользователей. Апи конечно решает проблему, но это лишние телодвижения.
Введение этих 10 копеек как раз бьет по этой группе пользователей. Апи конечно решает проблему, но это лишние телодвижения.
Как раз для тех, кто использует DriveLink для работы не со стандартными ботами SAPE, а со своими, и придуман API DriveLink.
Уважаемые пользователи! С сегодняшнего дня на сервисе доступен новый параметр «Уникальность контента на странице». Появление данного параметра вызвано нововведениями в алгоритмах поисковой системы Яндекс:
"За последний месяц был произведен ряд изменений в поисковом алгоритме, чтобы существенно ограничить влияние SEO-ссылок на ранжирование. В первую очередь это относится к SEO-ссылкам с сайтов, содержащих некачественный контент, и к недавно появившимся SEO-ссылкам."
Уникальность контента определяется по методу шинглов. Длина каждого шингла 9 слов. Данные определяются по индексу Яндекса. Стоимость проверки по данному параметру составляет 0,3 рубля и обсуловлена большим числом запросов к Яндексу по сравнению с другими параметрами. Однако, уникальность текста достаточно проверить только один раз для уже размещенных ссылок.
Примерно 2/3 всех ссылающихся с бирж сайтов имеют неуникальный контент!
ddvhouse, планируете ли подобный параметр («Уникальность контента на странице») ввести в CS Sape Master?
ddvhouse, планируете ли подобный параметр («Уникальность контента на странице») ввести в CS Sape Master?
На Sape Master пока нет.
Разрабатываем на Yazzle. Проверим, как будет работать на нём. Если всё будет стабильно, то тогда можно будет думать и о Sape Master.
А кто-нибудь обращал внимание какой процент ошибочных проверок? У меня сегодня из 23665 проверенных ссылок (все на YAP и около 20% на YaL) было 764 ошибки. Это примерно 3%, довольно много, особенно, если учесть, что после каждой проверки я снимаю порядка 10% ссылок. Очень надеюсь, что разработчики внедрят возможность перепроверки только error'ов.
А кто-нибудь обращал внимание какой процент ошибочных проверок? У меня сегодня из 23665 проверенных ссылок (все на YAP и около 20% на YaL) было 764 ошибки. Это примерно 3%, довольно много, особенно, если учесть, что после каждой проверки я снимаю порядка 10% ссылок. Очень надеюсь, что разработчики внедрят возможность перепроверки только error'ов.
1) не ошибочных проверок, а неудавшихся :) за которые деньги не списались.
2) 3% это нормально. Такое показатель по системе был всегда.
3) большая часть этих 3% из-за невозможности получения HTML-кода донора (сервер лежит, таймаут).
4) насчет YAP - в дни апдейтов большая нагрузка и число приходящихся на них неуспешных проверок может немного увеличиваться.
3) большая часть этих 3% из-за невозможности получения HTML-кода донора (сервер лежит, таймаут).
Я проверял проиндексированность страницы в Яндексе, сервер донора тут
4) насчет YAP - в дни апдейтов большая нагрузка и число приходящихся на них неуспешных проверок может немного увеличиваться.
Вот и очень хотелось бы, чтобы можно было на следующий день когда сервер донора заработает или нагрузка меньше будет, чтобы можно было перепроверить только неудавшиеся проверки.