- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Друзья, допустим я составляю длииииный список из ключей, который составляется из разных комбинаций неких частей. Допустим, <наименование товара> комбинируется во всех возможных вариантах с <название города>. Если у нас 100 товаров и 100 городов - получим 10 тысяч ключевиков. Это и есть так называемые лонг тейл ключи?
А теперь мой главный вопрос: какой тип соответствия в этом случае лучше использовать?
Вообще, насколько я понимаю суть этих типов соответствия, казалось бы, достаточно взять достаточно ВЧ запрос (допустим, те же "пластиковые окна"), который тем не менее позволяет выбрать целевых пользователей, выбрать широкий тип соответствия, поставить ставку пониже и будешь получать недорогой трафик с запросов типа "пластиковые окна купить дорого ярославль" и иже с ним. Но ведь так вроде не делают, а заморичиваются с подбором мильёнов ключей. Спрашивается: почему? Чем такой подход плох?
Такой подход не плох - он трудоёмок, если нет софта, который делает это за вас. Само по себе более точное соответствие в случае создания компаний <товар> + <город> позволяет получить более высокий показатель качества по сравнению с вариантом только <товар> в широком соответствии.
Я бы заморочился и ещё модифицированное широкое использовал ;)
Для ряда категорий привлекать трафик по запросам без действия (купить, выбрать, найти и т.д.) будет весьма дорого - он может слабо конвертиться в продажи. Разве что можно доставать этих людей через ремаркетинг в GDN.
Такой подход не плох - он трудоёмок, если нет софта, который делает это за вас. Само по себе более точное соответствие в случае создания компаний <товар> + <город> позволяет получить более высокий показатель качества по сравнению с вариантом только <товар> в широком соответствии.
Я бы заморочился и ещё модифицированное широкое использовал ;)
Для ряда категорий привлекать трафик по запросам без действия (купить, выбрать, найти и т.д.) будет весьма дорого - он может слабо конвертиться в продажи. Разве что можно доставать этих людей через ремаркетинг в GDN.
Софт всегда можно написать и он будет делать что нужно :) Руками такие тыщи ключей, конечно, не перелопатить...
А что вы имеете в виду под "модифицированным шир.соответствием"?
+товар +город -мусор, периодически смотрим результаты и пополняем блек лист
P.S. Adwords
Такой подход не плох - он трудоёмок, если нет софта, который делает это за вас.
Можете порекомендовать софт?
И если можно то пару слов о
Если человек посетил некотрые страницы сайта, то его нужно "фильровать"? Почему? Или я что-то не так понял?
Если человек посетил некотрые страницы сайта, то его нужно "фильровать"? Почему? Или я что-то не так понял?
Теоретически он сорвался с крючка. Если не ошибаюсь, дожать продажу дешевле чем привлечь нового.
Можете порекомендовать софт?
магадан парсер сейчас будет вводить такой механизм. Если уже не ввел.