- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем доброго дня
Хотелось бы поинтересоваться, кто как решает проблему продвижения интернет магазина по большому количеству СЧ/НЧ.
Ситуация такая.
Есть интернет магазин (Украинский), для него есть семантическое ядро - около 1500 запросов, почти все запросы СЧ и НЧ. Запросы типа: купить холодильник nord, купить фен Braun и т.д., т.е. не названия товаров. Сайт оптимизирован - тайтлы, тексты там где надо с нужными ключами, перелинковка, seo-верстка. Естественно, что в сегодняшних условиях только внутренней оптимизации уже не достаточно для достижения результатов в виде ТОПа :). Возникла потребность во внешних ссылках.
По очень многим причинам источником этих ссылок решено было сделать Sape (или другую биржу - на самом деле - не суть).
Так вот собственно в чем вопрос. Существуют ли на сегодняшний день какие-либо механизмы автоматизации (хотя бы минимальной) для работы с таким количеством запросов? Интересуют готовые решения и опыт тех, кто уже занимался подобным. Как вы получаете и дальше управляете ссылками для такого немаленького ядра?
Я таким большим количеством никогда не занимался, но предпологаю что используют методы сапы, там можно загружить сразу весь список текстов автоматически создавая урлы в проекте. Там же сразу натсроить и (полу-)автоматичскую скупку ссылок по фильтру.
Но я это лишь мое предположение, так как тоже сейчас нужно заняться продвижением тысячи запросов и вот решаю все сразу или лучше по чуть чуть двигать
Собственно, API на сколько я понимаю позволяет обращаться к системе "из вне", т.е. через какой-то свой интерфейс. Может уже есть что-то готовое просто?
Где-то недавно проходила тема про АПИ, но там сказали, что он не для всех открыт
Где-то недавно проходила тема про АПИ, но там сказали, что он не для всех открыт
Вас обманули - для всех.
Вас обманули - для всех.
О действительно вы правы, http://www.sape.ru/api_xmlrpc.php
Но что-то не вижу там методы добавления, удобно будет для проверки индексации и т.п.
Методы добавления чего?
Методы создания проектов + добавления урлов, редактирования текстов, хотя наврное это и не нужно, проще добавлять через основной интрефейс
Все там описано
Excel + пакетная загрузка. ;) (я тоже про АПИ думал, но как-то пока не пригодилось)
З.Ы. Ах да, на ссылки пока Wink-овского плагина хватает, но собираюсь покупать программулину.
У меня был такой опыт, раскручиваемых страниц было больше четырехсот, каждая страница раскручивалась по десятку ключевых слов. Проекты создавались в экселе с помощью формул <name>&Название проекта&</name><a href=”http://www.site.ru/&Раскручиваемая страница&/”>&Текст ссылки&</a> , где & - это соединитель ячеек в экселе. Затем они экспортировались в сапу, то есть автоматически создавалось около тысячи проектов (за несколько экспортов), затем они ставились на покупку полуавтоматом, после получения заявок они проверялись плагином на индексацию и просматривались. Ну а после покупались. Таким образом за пару-тройку дней можно было купить достаточно большое количество ссылок.