Сергей про е-ком

Сергей про е-ком
Рейтинг
351
Регистрация
11.05.2008
Должность
Нет, не оккупашион, туристо! )
alaev #:

В коммерческих тематиках доменов с ключами в названии и свободных очень мало.

Но, при этом, в su как раз компании третьего и далее пошиба. Есть, конечно, исключения. Но это как .com и .world условно. Я в МРТ случайно написал gmail.ru (хотя есть вероятность, что они неправильно с ответа вбили). В итоге пришлось ехать в диагностический центр за ответом. А тут ru/su. Клиентов терять из-за ошибок такое себе. А они точно будут.
Mik Foxi #:

ну она какая то совсем мертвая. скорее всего сдохла изза конской цены, уровняли бы с рушками, может чаще бы покупали.

Не, она дохлая как раз по причине схожести с рушкой. Маркетинговая ошибка.

Вопрос не совсем в том, кто мне встретился. Вопрос именно в стоимости решений и их быстрой доступности. На Битриксе дорого иметь сайт не только потому, что разрабы на Битриксе больше получают за час работы (что обосновано всем студийным екомом на Битриксе), но и из-за того, что в WP практически всё реализовано и требуется только допилка. Как по мне, с этим буквально трудно спорить. Можно просто зайти на маркетплейс Битрикса и сравнит его даже не с репозиторием WP, а просто с Themeforest.

Yandex-007 #:

Нет, с приобретением двух доменов su  я думал покончу с удалением сайтов навсегда. У меня на домене su городской сайт знакомств за 50 дней нехило так поднялся, уже 20 ИКС получил за трафик  прямой с рекламы.

Короче покупаю домены в зоне com и пойду удалять сайты в su

Ну вот видишь, был сайт знакомств СНГ, а станет - мировым. ) Так и на этот замахнёшься, Тиндер. Может, продашься ему. )
ziliboba0213 #:

Оно же сломалось уже давно, или починили?

Проще вбить запросы в какой-нибудь сервис и там собрать примерную. Я для этого алпозишн юзал, но владелец умер, а сервис так и не восстановили пока.

Всё работает. В Кейсо/ПТ или программах, типа КейАссорт работать с семантикой нормально невозможно. Данные снимать - да. Потом в КК.
Птаха-Пташка #:
А через API Яндекс.Директа  или Вордстата можно сделать подобный сбор частотности запроса по ГЕО?


С семантикой 30к можно работать только в КейКоллекторе. )

Птаха-Пташка :

Подскажите пожалуйста программы, сервис или алгоритмы для сбора частотности Яндекса по регионам.
Нужно собирать частотность уже готовых запросов.
Общее количество запросов от 10 до 30 тысяч (снимается одновременно).
Как это проще всего можно сделать?
Эффективно и по возможности недорого?)

КейКоллектор, анализ по директу, цель - сбор частотности. Снимется часов за 5 без прокси и мультиаккаунтов. И без капчи, скорее всего.
  • Во-первых, потому что перекупы.
  • Во-вторых, потому что риск покупки контентных проектов слишком высокий.
  • Третье, если сайты сервисы, их содержать надо.

Хорошие сайты с точками роста могут уйти за 2 и более лет вполне спокойно, если покупатель знает, что с ними делать. Но сейчас делать что-то не выгодно. Расходы огромные, прибыток маленький. Так что берут то дорого, где владелец явно недорабатывает и это можно легко поправить. Я за 2 месяца последних смотрел сайты под покупку, но вообще ничего интересного не нашёл, даже то, что хотелось бы купить за год.

Дополнительный вопрос. В Кейсо я инструмента не видел, но как раз хотел в ПТ это проверить, но тоже не нашёл. В отчёте "Глубокий анализ запроса" присваиваются теги, характеризующие нишу и интент. Но нигде не смог найти сбор семантики из база, оперируя только этими тегами. Было бы удобно. Фишка в Аквареле работает отлично, но, опять же, себестоимость средней семантики уходит в сумму за 100000. Вопрос также по скорости обновления данных, есть мысль, что они там годами висят.

Новые вопросы по Пикселю. Взял подписку на него к Кейсо в пару, посравнивать, поиграться. И что-то запутался.

ТП прямо сказало, что они данные берут из Кейсо. Ок.

Но есть незадача, два инструмента Кейсо: поисковые запросы конкретных страниц и расширение запросов дают результат, условно: 30 и 500 запросов. В ПТ 0 и 17. Галочки все стоят правильно. В ПТ, при этом, ограничение на количество страниц 5, в Кейсо 30 без изменения лимита.

Речь про эти инструменты:

Из дополнительных проблем: оба сервиса не отдают семантику с Авито.

Получается, широта охвата ЧАСТОТНЫХ ключей у этих сервисов ниже, чем даже у Букварикса и единственный нормальный способ - выгрузка конкурента целиком, вытаскивание релевантных для пациента слов (если семантика на условный 1кк запросов) + скрипт на создание масок для Планера и Вордстата? ПТ ограничивает выдачу ТОП-10, судя по всему, но при этом не может съесть весь кластер запросов?

Есть кто в ПТ разбирается, можете пнуть в сторону решения проблемы.


Всего: 4450