- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
И так, друзья и коллеги. Связи с тем, что моя репутация на этом форуме, мягко говоря подпорчена (это вовсе не говорит о том, что я какой-то не адекват, скорее говорит о неадекватности некоторых форумчан, которые занижают репу – дабы себя порадовать) мною было принято решение, рассказать, что-нибудь полезное и кое-что выложить, с целью реабилитации*в глазах пользователей.
Наверное, главным обсуждением за все годы существования SEO, были ссылки, именно о них я и решил Вам рассказать. Как настраивать фильтры в SAPE, Миралинск, Liex и т.д. я думаю Вы и так уже знаете, а вот как определить круг всех тех площадок, которые передадут Вашему сайту наибольший вес, думаю, что знают не все. Многие наверняка знают в SAPE такой инструмент как «Релевантный подбор»? Инструмент действительно хороший, но дает довольно скромное представление о количестве релевантных площадок.
Ищем релевантные площадки
Для поиска площадок, лично я давно не использую фильтры, а пользуюсь написанным под заказ парсером выдачи поисковых машин Яндекс и Google. Изначально программа писалась совершенно для других целей (если кому-то понравится эта статья, готов написать вторую, которая расскажет о истинном применения данного парсера), но со временем он стал для меня универсальным инструментом, который позволяет собирать все те сайты, которые мне необходимы. Скачать данный инструмент, можно абсолютно бесплатно с моего скромного сайта или найти ссылку на моей страничке в Google+
Настройка программы для парсинга интересующей выдачи
Открываем скаченную программу и видим вот такое окошко:
После того, когда шкала достигнет 100%, мы получим txt файлик, в котором будут собраны все сайты поисковой выдачи по интересующим запросам.
Применение полученных URL в SAPE
Второй и завершающий этап – это закупить ссылки с этих площадок. Для этого мы будем использовать белые списки в биржах статей и «Избранное» в SAPE.
Добавление списка в SAPE
Переходим во вкладку «Оптимизатору» - «Избранное» - «Создать раздел» называем раздел, например адресом продвигаемого сайта -> добавляем в этот раздел наш список URL’ов.
Поиск площадок по избранному списку
Переходим в поиск площадок, в правой части настроек ставим галочку на против названия нашего раздела, ставим галочку «Не отображать площадки уже купленные в рамках данного URL», нажимаем поиск и покупаем ссылки. Так, же можно настроить все необходимые параметры, сохранить как фильтр и запустить на полуавтоматический режим.
На биржах статей, принцип такой же. Ищите кнопки «Белые списки», «Списки» и т.д
Надеюсь, такое мини-пособие будет интересно многим пользователям форума.
Также я планирую выкладывать еженедельно полезные статьи в своем аккаунте на Google+, любой желающий может подписать на мои публикации. На данный момент, я стараюсь информировать о всех серьёзных изменениях в отечественном поиске, в том числе и обновление поисковых баз Яндекса.
Внимание! Программа работает не всегда стабильно и требует хорошей скорости в Интернете. О багах сообщать смысла нет, софт черновой.
а с капчей шо?
Если парсить не более 5 ключей за один раз, то лично у меня капча не вылетает. Если не будет парсить, то пробуйте уменьшать количество ключевых слов за раз.
RAR пароль на распоковку парсера требует
Не взрезал вен и не порвал аорту (с)
RAR пароль на распоковку парсера требует
Совсем забыл
Пароль: suvorov.r
Окончание ссылки обязательно указывать? Зачем вообще этот параметр нужен?
главная проблема не в поиске релевантных... а в преодоление спам фильтров яндекса....
Прикольно. Везде надпись: Найдена ссылка http://*.* Но она неподходит.
По какому региону данные собирает, Украина?
Так в сапе же есть функция "релевантный подбор" из доноров в топ-50 по нужному запросу.
Окончание ссылки обязательно указывать? Зачем вообще этот параметр нужен?
Я ведь говорю, что софт писался изначально для других целей. Указывать обязательно, обязательно указывать слеш "/"
Ты не указал слеш в окончание ссылки
Собирает по региону, который указан у тебя в Яндекс. Но работает только с yandex.ru