Pch

Рейтинг
74
Регистрация
24.05.2012
one:
Вообщем ручная работа я так понимаю?

По сути да. В целом, если часто пользоваться этой схемой, то всё довольно быстро происходит. Самое затратное по времени это нафильтровать доноров, остальное аллсаб сам сделает.

one:
Что за варианты можно узнать? Да и что за хотелки такие? :)

У всех разные подходы, но я сторонник схемы "1 текст - 1 проставленная ссылка". Получается, если вы проставили в сапе ограничение кол-ву использования текстов, то вы не сможете отправить в заявки больше доноров чем кол-во имеющихся текстов. Например, если добавили 100 текстов, то сможете добавить в заявки только 100 доноров и после фильтрации останется где-то 3-5 :) Получается если нам нужно разово закупить сразу 50-100 ссылок на 1 url, то придется фильтровать пол дня ) Сейчас работаю по схеме добавления доноров в разные вайт-листы (под каждый акцептор/url). В общем идея в том что мы один раз фильтруем тонны ссылок, то что осталось загоняем в нужный вайт-лист и потом уже закупаемся из вайт-листа. Точнее, после создания нужного WL фильтруем в сапе ссылки только из этого листа, потом снова фильтруем алсабом и покупаем где-то порядка 60-90% ссылок. Но это всё опять же только для требования "1 текст - 1 проставленная ссылка". Если этим не заморачиваетесь, то вся эта песня не нужна )

one:
Поделитесь если не трудно. Поизучаю ваши навыки. ;)

Бросьте скайп в личку, сброшу фильтр для закупки, фильтр для ежедневных/еженедельных проверок )

p.s. только единственная просьба, желательно не выкладывать эти фильтры в паблик. Тема фильтрации аллсабом, как видите, не очень популярная ) пусть она такой и останется ;)

one:

А потом куда?

Да схема по сути стандартная для покупки. На всякий случай напишу, хотя вы наверное в курсе )

- Фильтруем ссылки в сапе. Всё что выбрали не покупаем, а добавляем в заявки "с открытыми и закрытыми URL'ами отправлять в заявки".

- Обновляем данные аккаунта в аллсабе 2 раза. Честно говоря не помню сколько именно раз нужно обновлять, быть может и одного раза достаточно (может что-то с тех времен поменялось там :) ). Но, если я не ошибаюсь, при добавлении нового ака в аллсаб нужно обновлять данные 3 раза.

- Фильтруем аллсабовскии фильтром. По результатам "хорошие" ссылки должны попасть в одну папку, "плохие" в другую.

- Выбираем папку с "хорошими", выделяем, копируем, идем в сапу. Там на странице "Ждут подтверждения" отмечаем ссылки по урлам, покупаем отмеченное. Остальное удаляем.

Как бы всё :) Это самая простая метода. Есть более интересные варианты с составлением вайт-листов (особенно когда нужно придерживаться правила 1 текст=1 url + другие хотелки), я думаю вы поймете как это работает ;)

p.s. если нужен фильтр, которым я всегда пользовался, могу скинуть. Честно скажу, исходник фильтра покупался и дорабатывался. Еще год-два назад показывал хорошие результаты.

one:
Ни CS Sape Master случайно?

Нет, не пользовался.

one:

А удаляете мусор из сапы как, там же в модуле алсаба?

По поводу удаления и подтверждения, фришная версия аллсаба не дает такую возможность. В платной версии такая возможность есть. В настройках фильтров можно проставлять в какие папки какие ссылки будут попадать после сканирования (как вариант, папки: "Подходят для покупки/ Не подходят для покупки"). Потом просто из папок копипастить и все дела :)

Нашел альтернативные способы чистки ссылок ) Работают вроде как не хуже и зачастую быстрей.

Как раз недавно решил вернуться к аллсабу т.к прежние результаты в общем и целом устраивали, особенно когда используешь в связке аллсаб+плагин винка. По моим фильтрам после аллсаба из, например, 1000 заявок оставалось где-то 50+/-30. После проверки оставшихся винком оставалось не более 30-50 урлов. Т.е нормальный остаток после фильтраций это 3-5%. Все данные и цифры это не прописная истина и ни в коем случае не какая-то идеальная величина, ровняться на эти данные не нужно. Все работают по разному и у всех разные результаты.

Раньше работал очень активно, сейчас очень редко. Если грамотно настроить шаблоны, то можно очень много чего полезного получать на выходе. Работал в основном только для чистки заявок перед покупкой ссылок в сапе и для проверки индексации купленных ссылей.

Периодически встречаю такое. На неоднократные письма в саппорт боты и не боты отвечали, что никаких проблем с этим нет, на позиции не влияет, на индексацию тоже. Конкретного ответа почему так происходит не давали. Быть может мощи не хватило "съесть" еще и графику ) А может с сервером что-то не так было в момент визита робота.

Было бы интересно узнать мнения других участников форума.

Доброго времени суток!

Давно пользуюсь сервисом и сейчас стали появляться проблемы с доступностью сайта. При создании нового проекта, добавлении урлов и нажатии кнопки подтверждения постоянно вылетает ошибка "Сервер не найден" (проверено в 4-х браузерах, 2 из них полностью чистые). После того как вылезла ошибка, на сайт больше не получается зайти. Сайт начинает открываться только спустя некоторое время. На Вашей стороне в последнее время проблем не наблюдается? Дело в том что только Ваш ресурс так себя ведет.

Спасибо!

---------------

через тор всё работает на ура. Видимо идет блокировка ip.

Андрей, напишите пожалуйста альтернативный способ связи с Вами. На Вашу почту письма не отправляются, тестил с разных почтовиков.

Хотел поблагодарить Андрея за помощь. Письмо о снятии санкций пришло где-то дней через 5-7.

Сообщение:

"Мы обработали запрос на повторную проверку от владельца сайта http://www.*****.ru/

и отменили меры, принятые в отношении сайта. По результатам проверки сайт соответствует нашим рекомендациям по обеспечению качества."

Передаю остальные проекты, которые сейчас висят с санкциями )

Рекомендую!

Заказал у Андрея услугу по снятию санкций по гуглу + чистку сапоссылок. Работа выполнена оперативно и, что важно, в оговоренные сроки. Сотрудничество понравилось, если с проекта гугл снимет санкции, передам еще кучу зафильтрованных проектов )

Ценой и сроками более чем доволен. Рекомендую к сотрудничеству.

Всего: 233