Чистка бэклиста при помощи программ и сервисов

12
L
На сайте с 24.02.2005
Offline
181
1023

Краткое вступление

Примерно 2 месяца назад я стал задумываться над эффективностью траты средств в Sape. Автофильтры это конечно круто, они экономят время, но и тратят денег примерно в 2 раза больше, если регулярно не контролировать их результаты. Понял я это тогда, когда стал отслеживать эффективность траты бюджета на поднятие тИЦ и результата. Поначалу я конечно просто офигел – примерно половина бюджета тратилась на покупку ссылок на забаненых сайтах (и это при том, что в фильтре стояла галка «Не покупать ссылки с сайтов, отсутствующих в ПС Яндекс»). Сапа вообще иногда поражает своим функционалом. Например, при нажатии на ссылку «Отметить ссылки с непроиндексированных сайтов» почему то не отмечаются сайты, в индксе Я которых 0 страниц. В общем функционал не очень и без допсервисов тут не обойтись.

Обзор сервисов

Плагин для Firefox – вебмастер Sape

После некоторых поисков первое, что мне попалось (на самом деле посоветовали на работе – у нас тут все сеошники :) ), это плагин для Firefox – вебмастер Sape. Если не ошибаюсь, сделан он был в самой Сапе – что поначалу внушало некоторые надежды – но увы – видимо глючный функционал Сапы мигрировал и в него. Для себя я поставил такую задачу – мне необходимо снимать ссылки:

  • С сайтов, страниц в индексе Я и G которых больше определенного порога.
  • С сайтов, страница которых не в индексе определенное время
  • С сайтов, ссылка на который не проиндексирована, а страница проиндексирована определенное время

Начнем с первого пункта. Пользуюсь кнопкой «G10», предварительно выставив нужный порог – мне отмечаются ссылки – но самое забавное, что из реального числа ссылок это примерно 20-30%. Остальное приходится отмечать ручками – при листе в 1000 бэков – это минут 5-10. На моем LCD монике глаза устают уже на половине.

Второй и третий пункт отбрасываю, потому как совместить несколько правил там не получается.

SapeMaster

Следующим сервисом стал очередной продукт от студии ControlStyle – SapeMaster (кто не знает – они делали Seobudget и Yazzle). Хоть он изначально и предлагался в виде обрезанной беты, но так уж повелось, что все новинки от CS я получаю самым первым, то и право первой ночи с нормально функционирующим продуктом я тоже попробовал одним из первых (если не первым). По началу конечно нифига не понятно и непривычно. Но поскольку я поставил себе точные конкретные задачи по чистке, то и функционал я пользовал только тот, который мне необходим. Дальше пойдут скрины и функционал, который пока еще никто не видел – поэтому не удивляйтесь.

Сначала вводим свой логин и пароль в Sape:

[ATTACH]44721[/ATTACH]

Тут обычно возникает главный вопрос у всех "А х..ле, я буду палить свой логин и пароль CS?". Тут уж "Думайте сами, решайте сами" палить или не палить :) Спецом для параноиков можно ввести MD5 хэш вместо пароля, это отсеивает основную массу параноиков, хотя еще остаются те, кто что то поет про Китай и что там уже все ломают - ну так это Китай - там процы наверно из человеческих мозгов делают, чтобы на металле экономить.

Первым делом получаем список проектов:

[ATTACH]44720[/ATTACH]

Жмем слева кнопку "Вебмастер" (1), заходим во вкладку "Ссылки" (2), далее отмечаем нужные нам проекты (3) и нажимаем кнопку "обновить" (4). Сразу же хочу сказать - для экономии времени и средств я загружаю ссылки только со статусом "ОК". Помимо этого, если стоит цель очистить бэклист от бесполезных ссылок, то можно загрузить ссылки, которые размещены более, чем 2 недели назад (зачем это надо, объясню позже). Ждем когда список загрузится. После загрузки жмем кнопку "Отметить все" (5) (располагается рядом с "обновить", которую мы уже нашли в столь непонятном на первый взгляд интерфейсе). И вот сейчас начинается Магия.

Получение необходимых для анализа параметров:

Жмем "Проверить доноров" (6)

[ATTACH]44719[/ATTACH]

Лично мне интересны 3 показателя "Индексация доноров", "Страниц в индексе" и "Индексация ссылок". Тут предоставляется выбор, через что проверять - либо через свой акк в xml.yandex.ru (должен быть зареген), либо через сервис SeoBudget. Второй способ хорош тем, что за раз получается по 10 позиций + никакого страха бана. Минус в том, что за каждый запрос берется 5 копеек (для этого я и ставил только статус "ОК"). Все - данные получены - сейчас приступим к чистке.

Чистка

Тут есть 3 варианта:

Чищу от плохих доноров - использую следующие фильтры - страница в индексе - "Да", ссылка в индексе - "Нет", дата установки - больше двух недель от установки. Таким образом мы чистим все ссылки, которые плохо индексируются. Параметры могут меняться, но я использую такой фильтр.

Чищу от АГС-17 - использую фильтр - количество проиндексированных страниц меньше 15 - удаляются все сайты, которые попадают под определение АГС-17

Чищу от ГС - грубую чистку можно провести по количеству страниц в индексе - если у нас на сайте всего 20-30 страниц - то очень велика вероятность, что это очередной сателит с "уникальным контентом" отсканированным из журнала "Юный натуралист" за 80 год. Наверняка автор этого "СДЛ" считает, что это сайт для людей и когда он выпадет - будет очередным недовольным, что его "пушистый" сайт попал под фильтр.

Все операции можно совмещать - в принципе по каждому из параметров Сапы можно добавить фильтр. Конечно это не даст 100% гарантии, что в бэках будут только качественные сайты, но позволит хоть как то сэкономить бюджет, который тратится на покупку пустых ссылок.

Ну и последний шаг - это удаление. В проге существует кнопка "Удаление ссылок", но я ей не пользуюсь, а просто экспортирую ссылки кнопкой "Экспорт таблицы" и потом в самой сапе уже отмечаю бэки по списку. Почему я делаю так? Потому, что все происходит через API - и там частенько случаются глюки при передаче данных - а тут 100% гарантия, что все пройдет нормально. Ну и конечно перед удалением все заношу в ГБЛ, чтобы потом не покупать уже эти ссылки.

В общем прога мне нравится - так что запасайтесь лубрикантом в ожидании полноценной версии. Кстати она тоже будет платной :)

Третьим интересным сервисом мог бы быть линкфидатор, который тут где то пиарится - но мне честно говоря в лом покупать его за 2 штуки, тем более все бабло у меня обычно в кармане лежит или в банке, а на кошеле редко наберется больше 50 ВМЗ. Конечно если автор захочет, может мне дать его потестить - я пламенно обещаю, что напишу по нему развернутый отчет - во всяком случае по тому, что заявлено он должен быть неплохим - по крайней мере вокруг меня уже много кто в своих эросеотических фантазиях хочет его получить.

jpg 3.jpg
jpg 1.jpg
jpg 2.jpg
sanitarn
На сайте с 20.08.2007
Offline
199
#1

Ну и где ссылка на данную прогу?

финансовый ответ (https://finansanswer.ru) Займ для безработных (https://finansanswer.ru/mikrozajmy/bezrabotnym/)
L
На сайте с 24.02.2005
Offline
181
#2

ссылка? /ru/forum/401294 вот

Buc
На сайте с 12.05.2009
Offline
24
Buc
#3

Чистку от ГС нужно по-другому продумать, 20-30 страниц это не показатель, нужен вариант фильтра по процентному соотношению текста к контенту. Видел не один ГС на 200-300 страниц, думаю, многоуважаемый Locker то же с таким встречался в своей практике ))))

Вечные ссылки (http://bit.ly/oldlinks) + Эффективное продвижение (http://bit.ly/easytop) + Удобная пробивка позиций (http://bit.ly/seopos)
L
На сайте с 24.02.2005
Offline
181
#4

Текста к контенту? Это как?

Buc
На сайте с 12.05.2009
Offline
24
Buc
#5

это вроде линкфидатор или сеопульт умеют, т.е. количество символов всего, к количеству символов чистого текста, без учета картинок, тегов, ссылок, ну и я бы еще исключил текст менее 20 символов между тегами (что-то вроде тех характеристик, как правило такие тексты неуникальны).

L
На сайте с 24.02.2005
Offline
181
#6

Ну так и напиши создателям - я всего лишь счастливый тестер

Buc
На сайте с 12.05.2009
Offline
24
Buc
#7

за меня словечко замолвишь при раздаче халявы? )))

L
На сайте с 24.02.2005
Offline
181
#8

Хм. Вряд ли :P

L
На сайте с 24.02.2005
Offline
181
#9

Обновление: скачал новую версию плагина для Firefox: Добавилась возможность нормально вылавливать сайты с 0 страницами в индексе + тематичная близость. Но минусы так и остались - долго + нельзя делать в несколько потоков + нельзя совмещать несколько условий

Malcolm
На сайте с 02.05.2007
Offline
119
#10
Locker:
скачал новую версию плагина для Firefox: Добавилась возможность нормально вылавливать сайты с 0 страницами в индексе

Что ж вы себя так мучаете, Locker? 🚬 Бросайте плагин и переходите уже полностью на SapeMaster.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий