- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть такая проблема. Похоже Яндекс палит использование новых доменов для парсинга данных и блочит.
Ну раз появляется эта хренотень не сразу, а через какое-то время — может надо просто попробовать побольше акков сделать и какие-то щедрые задержки выставить?
да как бы КК был только и нужен БЫЛ, что бы снимать ключи и их частоту с вордстата
Конечно не только. Группировки и отсев, а также кластеризация (в 4-ой версии) также остаются весьма нужным и востребованным инструментом.
мне по крайне мере, на данный момент - не пашет полноценно, поработает и в ошибки уходит.
То, что в привычной полноценности не работает - да, но приходится искать альтернативы.
Альтернативу я тебе описал. А аналогичных десктопных программ увы нет :( поэтому менять не на что..
Думаю скоро вообще отвалится при очередном обновлении яшином
Вот это не думаю. Люстик конечно подзапустил ситуацию и прозрачной ясности с КС нет, но между тем наша задача всегда изыскивать возможности :)
использовать то его можно, но главную функцию он практически потерял, а искать где то ключи - баламутсво как по мне,
Ты просто пока не переключился. Познакомься с методикой Ожгибесова как он собирает конкурентную семантику через keys.so
Там у него интересные решения есть. А так в целом Букварис и ручной добор в Wordstat-е через YWA-ву вполне выручает.
Что уж теперь поделать, коль Яндекс так крепко прикрутил гайки за пакетный парсинг :(
А аналогичных десктопных программ увы нет :( поэтому менять не на что..
Ты просто пока не переключился. Познакомься с методикой Ожгибесова как он собирает конкурентную семантику через keys.so
В буквариксе слишком много дублей, его разгребать заколебаешься.
В КС для отсева дублей есть соответствующий инструмент. Конечно, тоже вручную приходится порядком возиться, ну а как иначе :)
Ну раз появляется эта хренотень не сразу, а через какое-то время — может надо просто попробовать побольше акков сделать и какие-то щедрые задержки выставить?
Я думаю, есть лимиты на объёмы в определённом интервале времени. Я когда со съёмом частотки слегка перебарщиваю, Яндекс начинает капчами засыпать, но потом через час снова можно работать.
магадан есть еще ))
Вряд ли он сравнится с функциональностью КС.
да оно мне нафиг не надо, я с гуглом работаю, и планировщика хватает с головой
Ну если хватает, то хозяин - барин.
да ладно, скрины я проверил - нетыренные, может и правда такой траф есть. Но написать 2к статей за 3 месяца - это перебор, либо дешевый райт синонимайзер либо копипаст. Это же 22 статьи в сутки без выходных и праздников . Не говоря уже про цену в 4к баксов если заказывать . Окупится при трафике когда ? через 10 лет ? )))
Мужик, ты на этом форуме один из наиболее адекватных персонажей.
Я почитал много того, что ты тут пишешь и ты реально иногда советуешь что-то по делу. И я это уважаю.
И вот какой мне резон в разговоре с адекватным человеком у которого я хочу спросить совет, потому что проникся каким-то к нему доверием на твои уточняющие вопросы бомбить какие-то ворованые скрины тебе? Вот просто логика где в этом? Ты реально что ли проверял, не своровал ли я эти картинки где-то?))
Вот ещё две, только их не проверяй, я реально только что сделал) Этот тот же проект.
Траф такой и правда есть. Я тебе больше скажу, я этот проект задумывал просто без каких либо претензий, но так как я шарю в тематике и ядро собирал сам — я нашел много такого, чего не нашли конкуренты (которые как раз заказывают на биржах). Только один из 50 конкурентов тоже это спалил, но я его уже выдавил с первого места и в Яндексе и в Гугле. Причём выдавил тупейшими страницами, теговыми. Понимаешь? Теговыми))) Вот такая тематика, где у меня теговая страница теперь 80к трафика в месяц приносит. Полюбуйся. Это за месяц статистика.
А я их таких несколько сделал. И этот проект я вылизываю всячески.
Но написать 2к статей за 3 месяца - это перебор, либо дешевый райт синонимайзер либо копипаст.
Ты совершенно прав. Поэтому я и назвал это PBN, понимаешь? Это не мой основной проект, а ссаный сателлит. Дешевый, галимый, отстойный, синонимайз, рерайт, копипаст, вообще всё в топку, НО!!! У меня есть тоже самое крутое ядро, и вот те моменты, которые конкуренты пропустили — я первым делом проработаю и проработаю как следует. А когда стрельнёт — тогда я уже подумаю, стоит ли нормальный контент туда готовить или нет. Но даже если не буду делать — 5-6к трафа я с этого Франкенштейна выжму. И наклепать таких смогу много.
Короче, психологиня моя мной будет теперь недовольна.
В КС для отсева дублей есть соответствующий инструмент. Конечно, тоже вручную приходится порядком возиться, ну а как иначе :)
Чтобы там нормально дубли отсеять и оставить именно самую правильную формулировку — это надо по маске с порядком слов частотку собирать, а это надолго прям. На нормального размера ядро как минимум проксей 30-50 надо брать, чтоб не психовать)
А иначе как, вот опять же кейсо упомянутое. Это не реклама, но у них такая же беда была с кучей дублей буквально пару лет назад. Но вот сейчас работаю — ничего не напрягает, если и есть неявные дубли, то там либо словоформы другие либо ещё что-то, нет двух ключей с одинаковыми словоформами просто слова местами поменяли. Раньше было, сейчас они это дело с порога фильтруют, насколько я помню, разраб кейсо вроде говорил про это.
Я не уверен, что они оставляют именно самую удачную словоформу, но по крайней мере не приходится из 10 запросов 8 или 9 удалять, как у буквариксе. Короче, мусора стало реально поменьше, а вот не пострадала ли из-за этого полнота - вопрос.
Чтобы там нормально дубли отсеять и оставить именно самую правильную формулировку — это надо по маске с порядком слов частотку собирать, а это надолго прям. На нормального размера ядро как минимум проксей 30-50 надо брать, чтоб не психовать)
Я не уверен, что они оставляют именно самую удачную словоформу, но по крайней мере не приходится из 10 запросов 8 или 9 удалять, как у буквариксе. Короче, мусора стало реально поменьше, а вот не пострадала ли из-за этого полнота - вопрос.
Ну не знаю, меня лично работа на отсев и работа с дублями не смущает. Да у keyso есть фильтры, у Буквариса нет, но с него можно брать данные бесплатно. Да, с анализом групп посидеть, - да, с анализов неявных дублей, потом ещё вручную, что в информационку, что на более узкий кластер кинуть, но в целом рабочий актив где-то на несколько десятков запросов на страницу и набирается. Бывает под сотню. Так что из стартовых нескольких тысяч запросов потом под несколько десятков - сотню всё выстругивается.
Потом в процессе анализа поисковой видимости, рекомендаций и фактических микро НЧ запросов, который Wordstat не выводит ещё объём может удвоиться, но на самом деле уникальных формулировок может быть хоть под тысячу, главное как ключевую плотность фокусировать, сниппеты дорабатывать. В общем-то, работа с семантикой одним сбором не заканчивается, этот процесс на долгую дистанцию и корректировка итогового списка происходит перманентно.
Ты совершенно прав.
Мужик, ты на этом форуме один из наиболее адекватных персонажей.
спасибо
а сколько у тебя статей на основном сайте ? какой обьем ?
ПС: и я верю что можно за год получить 12к дейли в инфо без проблем если работать как положено . Просто у 99% этого не получается)
а сколько у тебя статей на основном сайте ? какой обьем ?
По количеству я тебе там уже ответил. По объёму — есть десяток лонгридов, с которых я обычно проекты стартую, там прям под 20к знаков, и всё это сверху ссылочным ещё поливаю. А потом они сами ссылочным поливаются, люди ставят. Остальные статейки обычные 3-4-5к символов и пара картинок. По харду кластеризация и под каждый кластер по порядку начиная с самых объемных по трафику начинаю выписывать.
ПС: и я верю что можно за год получить 12к дейли в инфо без проблем если работать как положено . Просто у 99% этого не получается)
За год можно сделать гораздо больше, я видел примеры, но там переклеивали редиректом со старого домена на 80к страниц и залетали в индекс сразу настолько диким количеством документов, что моментально влетали в топ-3 Яндекса почти сразу, в Гугле вот помедленнее и не так охотно, но тоже слишком быстро для нового сайта.
Так что вот мне тоже хочется не 12к, а хотя бы 60к)