- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если скопировать и вставить такие неявные дубли в word-keeper или Topvisor, он их автоматом удаляет)
Значит ты пользуешься другим дополняющим инструментарием. Да, они в SE сервисах есть, поэтому тут личный выбор каждого, чем пользоваться.
Мне в вопросах управления с запросами проще, нагляднее и удобнее выполнять работу в десктопной программе.
Хотя обычно у меня такие неявные дубли вообще не парсятся в тех инструментах, которыми я пользусь. Ты же имеешь в виду запросы типа "купить холодильник недорого" и "недорого холодильник купить"?
Это что касается дублей с переформулировками.
Но что касается тем внутри рабочего кластера, которые не касаются бизнеса (а это всегда индивидуально), то тут отсекать приходится вручную, просматривая группы. Парсинг (даже по составу конкурентов) он же не выдаёт всегда строго то, что тебе нужно, всегда есть мусорный хвост (тут конечно зависит от ёмкости и ширины запроса).
И опять-таки SE сервисам по большей части нужно платить абонентку, а тут бесплатно.
Да, опять-таки отсев ненужных региональных запросов и прочего инфо мусора по стоп словам.
А, я просто не большой любитель всей этой чрезмерной красоты. Мне главное, чтобы все было четко и понятно разобрано в файле. А всякие вензеля и обводки разноцветными ручками - это агентства любят :D
Макс, да там нет никаких особых вензелей. Я скорее про удобство и универсальность, а всё это позволяет эффективно использовать время, которое как известно деньги.
Бывает проекты, по которым с семантикой ты работаешь постоянно, поэтому мне удобнее весь рабочих актив запросов собирать в Коллекторе, а потом на выходе генерировать результирующий файл с разными датами обновлениями для отчётности.
Так как у меня работа чётко по времени и тарифицируется по каждому рабочему акту, то в целом это скорее даже необходимость, чем эстетический выбор.
Ну, тут только руками. Ни один инструмент не может норм скластеризировать.
Да, согласен. Ручная проверка обязательна.
Последний раз, когда пытался это делать, пришлось целый день ждать, когда он позиции по 100+ ключевикам соберет. Уже давно плюнул на это и перешел на Топвизоры, PR CY etc.
В целом, с позициями я тоже использую другие инструменты. Но я предпочитаю купить программу (кстати, по части съёма позиций тоже) и платить только за xml лимиты.
А в остальном конечно каждый специалист использует то, что ему привычнее, удобнее и лучше, а также соответствует его формату работы 😎
Там же треть неявные дубли, половина мусор, а вторая - порно.
А, я-то думал это уже почищенные от мусора ключи.
Вообще, чтобы не допускать такого кол-ва мусора, можно еще на первичной стадии прописать минус-слова, которые сразу буду отфильтровывать явный мусор. Тогда и ключей для дальнейшего разбора получится поменьше, чем 700к.
А, я-то думал это уже почищенные от мусора ключи.
Вообще, чтобы не допускать такого кол-ва мусора, можно еще на первичной стадии прописать минус-слова, которые сразу буду отфильтровывать явный мусор. Тогда и ключей для дальнейшего разбора получится поменьше, чем 700к.
Реальных слов, кстати, 730к осталось
Вообще такой подход для натягивания на директ делается, или это база сайта и если реклама и будет то 5-10 страниц? Вообще в большинстве это считается проф подходом для директа я так полагаю.
Кто закинул одностраничник с якорями платит больше. В целом мне кажется директ не ИИ, а программа похожая на эти, их прога командер явное тому доказательство. Ручная кормежка и семантика вот что нужно.
Так тоже раньше собирал не по 700 конечно, но под 20 000 это тоже сиди разбирайся так или иначе. Сейчас все равно сомнения, если для SEO делать. Я всегда сводил сортировку запросов к так называемой маске, это прям точный заход на сайт по фразе, так это позиционировалось всегда. Раньше оставил комп с ростелекомом 1 ip 1000 масок за ночь о чудо. Только вот что выяснилось то, эта маска это погода на завтра.
Ладно я не смотрел, никто чтоли не видел что вордстат не работает толком именно для поиска ТОЧНОЙ ФРАЗЫ. Тема с tittle так то до сих пор актуальна если кто не в курсе.
Я не знаю работать если в одинокого над сайтом с семантикой под 700 с сортировкой и т.д. Почему не делать динамически все, тогда и подход будет более творческий как ты его видишь, сайт тему. Черпаешь инфу там сям, улучшаешь...Такой конечно подход был бы идеальным, но не все так просто. В webmaster ограничение 3000 фраз. Повторюсь там если делать отчет, клик с 1 места 2-3 4-10 10-50 там все сразу понятно что проработать надо. А снимать позиции для фраз по которым хз сколько реальных показов на мой вкус странно.
Вообще такой подход для натягивания на директ делается, или это база сайта и если реклама и будет то 5-10 страниц? Вообще в большинстве это считается проф подходом для директа я так полагаю.
Кто закинул одностраничник с якорями платит больше. В целом мне кажется директ не ИИ, а программа похожая на эти, их прога командер явное тому доказательство. Ручная кормежка и семантика вот что нужно.
Так тоже раньше собирал не по 700 конечно, но под 20 000 это тоже сиди разбирайся так или иначе. Сейчас все равно сомнения, если для SEO делать. Я всегда сводил сортировку запросов к так называемой маске, это прям точный заход на сайт по фразе, так это позиционировалось всегда. Раньше оставил комп с ростелекомом 1 ip 1000 масок за ночь о чудо. Только вот что выяснилось то, эта маска это погода на завтра.
Ладно я не смотрел, никто чтоли не видел что вордстат не работает толком именно для поиска ТОЧНОЙ ФРАЗЫ. Тема с tittle так то до сих пор актуальна если кто не в курсе.
Я не знаю работать если в одинокого над сайтом с семантикой под 700 с сортировкой и т.д. Почему не делать динамически все, тогда и подход будет более творческий как ты его видишь, сайт тему. Черпаешь инфу там сям, улучшаешь...Такой конечно подход был бы идеальным, но не все так просто. В webmaster ограничение 3000 фраз. Повторюсь там если делать отчет, клик с 1 места 2-3 4-10 10-50 там все сразу понятно что проработать надо. А снимать позиции для фраз по которым хз сколько реальных показов на мой вкус странно.
Для директа-то зачем с учётом нынешней концепции РСЯ, где у тебя нет возможности влиять примерно не на что? )
Это семантика в том числе с конкурентов (не мелких) и для информационного проектирования + матрицы спроса. Делается под SEO + планирование работы, приоритезация.
Это семантика в том числе с конкурентов
Немного ошибся, бьется вебмастрер с метрикой и в ней то и нужно смотреть. Вернее как получается в вебмастере можно посмотреть число показов, что говорит о точной частотности, а в отчете метрики нужно смотреть клики - посетители. В вебмастере по умолчанию это количество визитов. Так то до вебвизора я заметил не всегда стало доходить. Жаль кол-во показов из метрики за весь год собрать нельзя.
В целом из визитов за 3 года по фразам отчет сойдет для начала. Сравнить их с данными по директу будет весело. База 0 когда у меня под 100 заходов, интересно сколько же таких будет. КК4 может парсит от балды что-то по частотам директа?Немного ошибся, бьется вебмастрер с метрикой и в ней то и нужно смотреть. Вернее как получается в вебмастере можно посмотреть число показов, что говорит о точной частотности, а в отчете метрики нужно смотреть клики - посетители. В вебмастере по умолчанию это количество визитов. Так то до вебвизора я заметил не всегда стало доходить. Жаль кол-во показов из метрики за весь год собрать нельзя.
В целом из визитов за 3 года по фразам отчет сойдет для начала. Сравнить их с данными по директу будет весело. База 0 когда у меня под 100 заходов, интересно сколько же таких будет. КК4 может парсит от балды что-то по частотам директа?В метрике есть смысл смотреть только цели, но какое она вообще имеет отношение к первичной семантике? )
Просто, что бы Вы понимали: Вебмастер - это данные, полученные на странице поисковой системы, Метрика - на Вашей странице.
Вебмастер - это данные, полученные на странице поисковой системы, Метрика - на Вашей странице.
Статистика запросов в метрике имеет прямое отношение к фразам. Примите это как виджет метрики, я понимаю что вебмастер и метрика разные вещи.
Первичная семантика по запросам, по которым у вас недостоверные данные более актуальна? То есть семантика составляется отталкиваясь от частот, условно ничего не измениться если вы ядро сделаете вообще не глядя в интернет, отталкиваясь от того как вы видите тему. Особенно учитывая что неявные дубли, база 0, и прочая автоматика отсеит кучу прямых вхождений, что на секундочку золотая жила в seo.
У меня переубедить кого либо нет настроений, я просто так буду делать. Нужно актуализировать информацию, нужно как то подстроиться, т.к из вебмастера только 3000 запросов можно ставить. Выясняется что у меня под 100 заход на сайт по конвертной фразе, она почти на 10% ctr, с продажей в последствии если действительно купить хочет. У меня таких фраз в корзине с 50 000 лежало под 100 в старом проекте. Вообщем я за упрощение, много страниц сейчас не всегда ок
Статистика запросов в метрике имеет прямое отношение к фразам. Примите это как виджет метрики, я понимаю что вебмастер и метрика разные вещи.
Первичная семантика по запросам, по которым у вас недостоверные данные более актуальна? То есть семантика составляется отталкиваясь от частот, условно ничего не измениться если вы ядро сделаете вообще не глядя в интернет, отталкиваясь от того как вы видите тему. Особенно учитывая что неявные дубли, база 0, и прочая автоматика отсеит кучу прямых вхождений, что на секундочку золотая жила в seo.
У меня переубедить кого либо нет настроений, я просто так буду делать. Нужно актуализировать информацию, нужно как то подстроиться, т.к из вебмастера только 3000 запросов можно ставить. Выясняется что у меня под 100 заход на сайт по конвертной фразе, она почти на 10% ctr, с продажей в последствии если действительно купить хочет. У меня таких фраз в корзине с 50 000 лежало под 100 в старом проекте. Вообщем я за упрощение, много страниц сейчас не всегда ок